当前位置:   article > 正文

一文读懂「ChatGPT,Chat Generative Pre-trained Transformer」基于GPT的聊天机器人_:chat generative pre-trained transformer

:chat generative pre-trained transformer

在这里插入图片描述

一、什么是Chatgpt?

ChatGPT是一种基于人工智能技术的自然语言处理NLP系统,它由OpenAI开发。GPT是Generative Pre-trained Transformer的缩写,是一种使用基于Transformer模型的预训练语言模型,通过对大规模语言数据的预训练和微调来实现自然语言的理解和生成。白话说就是“猜概率游戏”!
在这里插入图片描述

ChatGPT是GPT模型的一种应用,旨在实现智能化的对话交互。它可以通过处理大量的语言数据,实现对人类语言的理解和生成,从而实现智能化的对话交互。ChatGPT 可用于聊天机器人、文章写作、诗词生成、代码生成、语言翻译、信息检索等各种能力。

GPT的全称是“Generative Pre-trained Transformer”,翻译一下就是“基于Transformer的生成式预训练模型” 。让我们把这些词拆分来看:
1)“Generative”:指这个模型具备生成自然语言文本的功能。比如给它几个关键词,能够通过这些关键词自动生成一段话或者一篇文章。
2)“Pre-trained”:“预先训练好的”。一般来讲,在应用这种技术时,会需要先将大量的文本数据输入到模型中训练,让模型在一定程度上掌握了语言的语法规则和表达方式,这个提前输入进行训练的过程就被称为预训练。
3)“Transformer”:将它简单理解为“转换器”,基本原理是Encoder(编码)和Decoder(解码),也就是先将输入的内容转换为计算机能理解的内容,再将计算机理解的内容转换为我们人类能理解的内容。

二、ChatGPT 是如何工作的?

模式:LLM+Prompting (通才)

ChatGPT 是 OpenAI 开发的一种大型语言模型,它使用了一种称为 transformer 的最先进的神经网络架构。 2017年Vaswani 等人在论文“Attention is All You Need”中首次介绍了 Transformer 架构。

与旧有技术不同,chatgpt不是多个复合Agent(术业有专攻的多个agent的组合)组合的能力,以往的小爱小度小冰都是这种模式,而chatgpt采⽤的模式是⼤语⾔模型+Prompting
有的能力通过⼀个模型实现,背后只有一个什么都会的机器⼈(即⼤语⾔言模型),并⽀支持⽤用户借助⽂文字下达命令(即Prompting,提示/指示)

ChatGPT 使用无监督学习在大量文本数据集上进行训练。训练数据由各种文本组成,包括书籍、文章、网站和其他来源。在训练期间,该模型学习识别数据中的模式和关系,然后可以使用这些模式和关系对用户输入生成连贯且相关的响应。
在这里插入图片描述

  • STEP 1:采用问答式的样本对GPT模型的输出方向进行监督训练,引导GPT采用问答对话的形式进行内容输出。

  • STEP 2:训练一个奖励模型(RM)。这个奖励模型就好比一个老师,当给出一个问题和四个答案,老师负责按照人类的偏好给这些答案进行打分,将答案进行排序,如图所示就是D>C>A>B。用问题和四个答案作为奖励模型的输入,人工打分作为问题的输出,通过一定数量样本的训练,可以让这个奖励模型模仿人类老师对结果进行打分。

  • STEP 3:通过以上两步,有了一个具备对话能力的GPT,和一个能够按照人类偏好进行打分的奖励模型。从而便可以构建一套强化学习模型对GPT进行进一步的训练。强化学习的过程我们同样可以用老师和学生的例子来进行理解。GPT就好比一个学生,他会针对问题给出自己的回答。而奖励模型就是一个老师,会对GPT的答案进行打分,学生为了得到更高的分数,就要学着去给出老师更喜欢的答案。从而便实现了GPT的自我训练。

通过以上的训练后,一个ChatGPT的模型就产生了。

总结:与 ChatGPT 交互时,我们的输入首先由模型的分词器处理,它将文本分解为单独的分词并将它们映射为可以输入神经网络的数字表示形式。然后,该模型使用其经过训练的权重根据输入及其当前状态生成响应。对每个后续输入和响应重复此过程,使 ChatGPT 能够生成感觉自然且响应迅速的对话。

ChatGPT 通过利用强大的神经网络架构和大量训练数据来生成对用户输入的连贯且相关的响应。

三、ChatGPT技术原理?

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/943557
推荐阅读
相关标签