赞
踩
这个是大模型系列课程的第一节。
接下来我带着大家一起拥抱新技术,分享的进展不会很快,大概一周一次,有空可以直播讲解或实操。
为了照顾那些工程出身,甚至非技术同学,我这个系列会从小白开始,从基础概念入门逐步展开。
声明:我不会研究基础大模型,而是会关注应用层,当然也会涉及预训练、知识库、多智能化跟模型最终效果息息相关的部分。
废话不多说,赶快上车。
我们先理解一下什么是大模型,先从 ChatGPT 来学习大模型。
ChatGPT(Generative Pre-trained Transformer)从名字上已经表明了它的特点,
“Chat” - 聊天,
G:“Generative” - 生成式,
P:“Pre-trained” - 预训练,
T:“Transformer” - 大模型推理架构
Chat-聊天
聊天大家基本都理解,你说一句,它回你一句,所以叫“Chat”-GPT。
Generative-生成式
乍一听啥玩意?
我们跟之前模型的玩法做个对比,就理解了。
比如你在百度/Google 上搜索,它都是把一堆文章和链接返给你,但是GPT 是什么样的,用过的都知道,尤其是网络不好的时候更明显,GPT 就像有口吃,讲话是一个词一个词往外蹦。
为什么呢?
来到了大家最爱的原理剖析了,面试官即视感,来,请讲讲底层原理
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。