赞
踩
它是一种基于深度学习的人工智能模型,它从大量来自书籍、文章、网页和图像等来源的数据中学习,以发现语言模式和规则,如处理和生成自然语言文本。通常,大语言模型含数百亿(或更多)参数。
ChatGPT 的出现,不仅证明了大型语言模型能近乎完美的处理和理解人类的自然语言,更让我们看到了实现通用人工智能(Artificial General Intelligence AGI) 的希望。大型语言模型本质上就是神经网络
,也就是一种机器学习的方法。
LLM具有多种显著特点,这些特点使它们在自然语言处理和其他领域中引起了广泛的兴趣和研究。以下是LLM的一些主要特点:
LLM 的应用案例有很多。其中不仅包括纯文本生成,还包括翻译、人际互动或摘要。它们被企业组织用于解决各种问题,包括但不限于:
总之,LLM是一种令人兴奋的技术,它让计算机更好地理解和使用语言,正在改变着我们与技术互动的方式,同时也引发了对未来人工智能的无限探索。
GPT系列
OpenAI公司在2018年提出的GPT(Generative Pre-Training)模型是典型的生成式预训练语言模型之一。
GPT模型的基本原则是通过语言建模将世界知识压缩到仅解码器的Transformer模型中,这样它就可以恢复(或记忆)世界知识的语义,并充当通用任务求解器。
ChatGPT
热度都炸锅了,相信大家使用是没有啥问题吧。GPT4版本是真的好用!
Claude系列
不知道为啥,现在注册就封号。。。
但是测试过一次,是真的好用,不错!
诸如文心一言、通义千问,自行测试
基础模型是指 LLM 的特定实例或版本。 例如,GPT-3、GPT-4 或 Codex。基础模型采用所有不同格式的训练数据,并使用转换器体系结构生成通用模型。 可以创建适应和专用化,以通过提示或微调来实现某些任务。
ChatGPT 底层使用的大型语言模型是 GPT-3.5 模型。这是由 OpenAI 自己研发的大型语言模型,已经迭代了 3 次。
传统 NLP | 大型语言模型 |
---|---|
每个功能需要一个模型。 | 单个模型用于许多自然语言用例。 |
提供一组标记的数据来训练 ML 模型。(即监督学习) | 在基础模型中使用数 TB 的未标记数据。(即无监督学习,也称为自监督学习) |
用自然语言描述希望模型执行的操作。 | 针对特定用例进行高度优化。 |
ps:什么是自监督学习?
自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息训练模型,从而学习到对下游任务有价值的表征。
借用一个小例子:学生通过做英语题来提升自己的英语应试能力。英语的题目是数据,题目的答案是数据的标签。除了刷题来练习英语的应试能力外,更可以利用看英文电影,听英文音乐,读英文小说的方式间接的加强自身的英文能力。看英文电影,听英文音乐,读英文小说属于辅助任务(pretext),这些数据本身是没有标签信息的(相比于英语应试题目)。
了解语言:LLM 是一个预测引擎,它基于预先存在的文本拉取模式以生成更多文本。 LLM 不理解语言或数学。(无法分析推理数学内涵和原理)
了解事实:LLM 没有单独的信息检索和创造性写作模式,它只会预测最有可能的下一个标记。(例如有些回答是胡说八道)
了解礼仪、情感或道德:LLM 不能展示拟人观或理解伦理。 基础模型的输出是训练数据和提示的组合。(不具备情绪,现阶段不回答是因为设置了后台规则)
参考链接:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。