赞
踩
Transformer注意力机制
从端到端的角度来看,数据在Transformer中的流转可以概括为四个阶段:Embedding(嵌入)、Attention(注意力机制)、MLPs(多层感知机)和Unembedding(从模型表示到最终输出)。
Embedding -> Attention -> MLPs -> Unembedding
下面对第一个阶段Embedding(向量化)进行详细介绍:
“Embedding”在字面上的翻译是“嵌入”,但在机器学习和自然语言处理的上下文中,我们更倾向于将其理解为一种“向量化”或“向量表示”的技术,这有助于更准确地描述其在这些领域中的应用和作用。
Embedding(向量化)
Embedding(向量化)的目的:
数值化表示:Embedding的目的主要是指将离散的高维数据(如文字、图片、音频、视频)映射到低维度的连续向量空间。这个过程会生成由实数构成的向量,用于捕捉原始数据的潜在关系和结构。
捕捉语义信息:Embedding向量通常能够捕获单词之间的语义关系。在训练过程中,模型会学习将具有相似含义或上下文的单词映射到相近的向量空间位置,使得向量之间的距离或夹角能够反映单词之间的语义相似度。
提取复杂特征:Embedding层通过提供的连续向量表示,能够更全面地捕捉数据的复杂特征,使模型能够更好地学习并应用这些特征。
******
Embedding(向量化)的工作流程:
Tokenization:
(1)对于文本数据:在自然语言处理(NLP)中,Tokenization 是一个关键步骤,它将输入的文本内容(如句子、段落或整个文档)拆分成更小的片段或元素,这些片段通常被称为词元(tokens)。
(2)对于非文本数据(如音频、图像或视频):Tokenization 的概念也可以类比应用。例如,在音频处理中,音频信号可以被分割成帧(frames)作为音频词元;在图像处理中,图像可以被分割成图像块(patches)作为图像词元;在视频处理中,视频可以被分割成视频块(patches)作为视频词元。
词元Tokens:
(1)文本Tokens:在 NLP 中,tokens 是许多任务的基础,如词性标注(POS tagging)、命名实体识别(NER)、句法分析(parsing)和文本分类等。对于文本来说,Tokens通常是单词。
******
文本Tokens
(2)图像或者声音Tokens:在图像和声音处理中,Tokens 的表示方式与文本有所不同,但它们的核心思想仍然是将输入数据分解为可处理的基本单元。图像或者声音,Tokens表示为图像块或者声音块。
图像或者声音Tokens
(3)视频Tokens:为了将视觉数据转换成适合生成模型处理的格式,研究者提出了视觉块嵌入编码(visual patches)的概念。这些视觉块是图像或视频的小部分,类似于文本中的词元。OpenAI的Sora将视觉数据转换为视觉块(Turning visual data into patches)。
将视觉数据转换为视觉块
(1)向量语义表示:Embedding向量是一个固定大小的实数向量,每个Token对应到一个Embedding向量,用于表示Token在语义空间中的位置。而这些向量都是通过无监督学习算法在大量数据上训练得到的。
向量的语义表示
(2)向量语义相似度:在高维空间中,含义相似的词汇倾向于在彼此相近的向量上 。这是因为算法在训练过程中学会了将具有相似上下文的单词映射到相近的向量空间中。
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
保证100%免费
】Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。