赞
踩
ChatGPT、Open AI、大模型、提示词工程、Token、幻觉等人工智能的黑话,在2023年这个普通却又神奇的年份里,反复的冲刷着大家的认知。让一部分人彻底躺平的同时,让另外一部分人开始焦虑起来,生怕在这个人工智能的奇迹之年,输在起跑线上。
如果你对这个赛道恰好有点感兴趣,却又不太理解这些专业词汇,建议收藏这篇文档,有空的时候拿出来看一看。
本文通过和人脑的对比,通过一个个形象的比喻让新手小白也能对大模型有个感性的认识
大模型和大语言模型是人工智能领域的两个概念。
大模型(Large Model) :指在机器学习中使用的庞大的、复杂的算法模型,它们可以处理和分析大量的数据,用于各种任务如图像识别、自然语言处理等。
大语言模型(Large Language Model) :大语言模型是大模型的一种,专门用于处理和理解自然语言,如文本生成、语言翻译等。它们通过学习大量文本数据,掌握语言的规律和结构。总的来说,大语言模型是大模型在语言处理方面的应用。
大模型的大指的是模型的规模,具体体现在两个方面:
所以大模型的大意味着巨大的数据资源和计算资源需求。
训练ChatGPT这样的生成式AI需要至少1万张英伟达A100显卡,单张显卡的价格目前是六七万,性能更优的V100单价8万元人民币,也就是说光算力投入至少就要达到六七个亿以上
大模型由三个层次来构成,分别是算法(模型结构)、模型参数(数量和数值)、训练数据。为了更好的理解大模型,我们可以将这三个层次映射到人类的大脑
通过这种方式,我们可以把大模型想象为一个正在学习世界的“电子大脑”,它通过 观察(训练数据) 、 记忆(模型参数) 、 **基本规则(算法)**来理解和预测世界,就像一个人通过生活经验来学习和成长一样。
当大语言模型回答人类的提问时,其过程可以用以下几个通俗易懂的步骤来描述:
想象一下,大语言模型的训练过程就像是教一个孩子学习语言和知识。我们可以通过几个简单的步骤来理解这个过程,同时将每一步与人类大脑的学习方式作比较。
首先,就像孩子从书本、对话和电视中学习一样,我们需要给大语言模型提供大量的文本资料。这些资料来自于网上的文章、书籍、新闻等,涵盖了各种各样的主题
类比人脑:这就像是给孩子提供各种书籍和环境中的语言刺激,让他们接触到丰富的信息和知识。
然后,我们需要整理这些资料,确保它们是清晰、有用的。这可能包括去除重复的内容、修正错误等。
类比人脑:教孩子区分有用的信息和噪音,比如教他们理解哪些是重要的单词和句子,哪些是背景噪声
接下来大语言模型会通过训练来学习这些数据,而这又可以分为3个步骤:
在无监督学习中,大模型像一个孩子在没有明确指示的情况下探索世界。它通过观察大量的文本数据,尝试找出单词、短语和句子之间的关系和模式,而不是被直接告诉每个单词或句子的具体意义。
类比人脑:就像孩子通过自己玩玩具、观察周围的环境来学习物体是如何相互作用的,而没有大人在旁边指导他们每一步。
在监督学习的情况下,大模型的训练就像是有一个老师在旁边指导。模型被提供了大量的“问题-答案”对,它的任务是学习如何从问题中找到正确答案的模式。这种方法下,模型通过比较它的答案和正确答案来学习,不断调整自己以减少错误。
类比人脑:这相当于孩子在做家庭作业时,老师或家长会告诉他们哪些答案是对的,哪些是错的,并帮助他们理解正确答案背后的原因。
强化学习则更像是训练宠物或孩子时的奖励机制。在这个过程中,大模型通过尝试和错误来学习,每当它做出正确的决策时,会收到奖励;而做出错误决策时,则可能收到惩罚或较少的奖励。这种方式鼓励模型自主探索并找到达成目标的最佳路径。
类比人脑:就像孩子学习骑自行车,当他们找到保持平衡的方法并成功骑行时,会从父母那里得到表扬或奖励。这种正面的反馈鼓励他们继续练习并改进技能。
大语言模型需要不断地通过这些材料练习,每一次都尝试改进,直到它能流畅地“理解”和生成文本为止。
类比人脑:就像孩子需要不断练习说话和阅读,通过重复和练习来加深理解和记忆。
注意,迭代训练并不是独立的过程,模型训练中提到的无监督学习、监督学习和强化学习都有各自的迭代训练流程。
有时候,模型在特定的任务上表现得还不够好。这时,我们会在特定的数据集上对它进行微调,就像是针对孩子的弱点进行特别辅导。
类比人脑:这相当于针对孩子的学习难点提供更多的练习和指导,帮助他们在某个具体领域取得进步。
最后,经过训练和微调的大语言模型就可以在各种任务上展现它的能力了,比如回答问题、写作或翻译。
类比人脑:这就像孩子在学会语言和知识后,能够在学校的考试中表现良好,或者在日常生活中有效地交流。
通过上述的类比,我们可以看到,大语言模型的训练过程与人类学习过程有着惊人的相似之处。它们都需要大量的材料、不断的练习和错误中学习,以及针对性的指导和微调,才能达到一个良好的学习效果。
大模型有时会产生不准确的输出,这种现象在专业术语中被称为幻觉
为了更好地理解这一点,让我们深入探讨一个日常生活中的场景:一个小孩因为没有完成作业而面临老师的提问。这时,小孩需要从自己的经验库中搜索可能的借口,这些借口可能包括
然后小孩子会根据概率挑选一个答案来回复老师。比如我的作业被我家猫给吃了。
对于他的老师来说,这其实也是一种幻觉。虽然这种可能性也是存在的。但是通过基础的人类知识库来判定,大概率是假的
这个例子反映了大模型在处理信息时的工作机制。当大模型面对它们不完全理解或数据不足以支持准确回答的问题时,它们会尝试提供一个看似最合理的答案。
这并非意味着大模型在有意“撒谎”,而是因为它们在试图根据所学的信息进行最佳推测。然而,如果训练数据充满错误、偏见或不准确之处,或者模型试图在信息不完整的情况下做出判断,它们可能会产生误导性或不准确的输出。
这种情况提醒我们,尽管大模型是强大的工具,能够提供有用的见解和信息,但我们也应该批判性地评估它们的输出,意识到它们可能存在的局限性和偏差。
大语言模型的发展虽然取得了显著的进步,但它们仍然面临着一些限制。下面通过几个类别来讨论这些限制,并且用人脑的工作方式来进行通俗易懂的比较。
为了更好的使用大模型,我们绕不开一个概念:提示词(Prompt),提示词是什么呢?
如果把大模型比作一个人,提示词就是与这个人沟通的语言
如果大模型比作计算机,提示词就是我们所说的编程语言(Java、Python等)
可以这么说,在AI时代,如果你要用好大模型,你可以不懂算法,不懂大模型底层的原理,但是你绝对不能不懂提示词,因为这是你跟大模型沟通的唯一途径。
因为提示词非常重要,所以产生了一门专门的学科叫做提示词工程(Prompt Engineering),这门学科旨在精心设计和优化输入给人工智能模型的提示语句,以引导模型生成更准确、更相关或更创造性的输出。
文章深入探讨了人工智能大模型的核心概念,通过与人脑的比较,生动地解释了大模型如何工作,其训练过程的复杂性以及它们面临的限制。
最重要的是:在AI时代,掌握与大模型沟通的“提示词”至关重要。
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。