赞
踩
这篇文章的大部分内容参考自我的新书《解构大语言模型:从线性回归到通用人工智能》,欢迎有兴趣的读者多多支持。
《深度循环神经网络》这篇文章介绍了编码器和解码器结构(Encoder and Decoder),这种结构通常用于处理语言翻译问题。然而,在实践中,我们发现这种结构存在明显的瓶颈,导致模型效果受到影响。为了解决这一问题,学术界引入了注意力机制(Attention Mechanism)。这一机制被认为是大语言模型设计中最重要的创新之一,也是本文的重点讨论内容。
在阅读本文之前,推荐先参考如下的文章获取一些背景知识:
这篇文章也是搭建和理解大语言模型的关键:
大语言模型最重要的设计是注意力机制(Attention Mechanism)。这一设计能够高效地捕捉语言中错综复杂的依赖关系,使模型深刻理解语言。语言是人类智慧的栖息之所。一旦模型能够出色地理解语言,尤其是多种语言,那么它将理解语言中蕴含的人类智慧,这在一定程度上解释了为什么模型能在多个领域呈现出令人惊艳的效果1。
本文将首先追溯注意力机制的历史,介绍其设计初衷。接着,深入研究在不同的训练模式下注意力机制的变化,其中包括自回归、自编码和序列到序列(对这些概率不熟悉的读者可以参考这篇文章)。最后,通过代码示例高效实现注意力机制,为搭建大语言模型奠定基础。
设计注意力机制最初是为了解决翻译问题。《深度循环神经网络》已经简要介绍了编码器-解码器结构,如图1左侧所示,其中包含两个标准循环神经网络,它们相互协作,通常用于处理翻译任务。然而,这个结构存在一个明显的不足,即两个组件之间的唯一交互是编码器在处理完整个输入文本后传递给解码器的隐藏状态,也就是一个向量。从拟人的角度来看,编码器通过阅读文本,将文本的知识浓缩成了一个向量,然后解码器根据这个向量将文本翻译成另一种语言。这个处理过程中最重要的假设是:能使用一个向量完整地表示一个文本。换句话说,无论文本多长,文本中的所有内容都可以被压缩成一个向量,这显然是不够合理的,尤其是对于长文本,这种方式容易丢失大量的信息。
因此,学术界对这一模型框架进行了改进,引入了注意力机制。在编码器-解码器结构中,原本使用单一的隐藏状态来传递信息,但会导致模型性能受限。受此启发,在注意力机制中,编码器在每一步产生的隐藏状态都直接参与到解码器的计算中,如图1右侧所示。
具体来说,注意力机制利用当前输入的数据和编码器的所有隐藏状态,计算一个额外的背景向量(Context Vector),用于辅助解码器的预测。这一过程可以分为3个关键步骤。
这就是最初版本的注意力机制4。在这种设计中,模型同时考虑两个文本,一个是输入,另一个是输出。对于输出文本的每个词元(读者可以将其简单理解为中文词语或英文单词),我们在输入文本中寻找相关的注意力位置。然而,这种设定限制了它仅适用于序列到序列模式。为了能在更广泛的场景中使用这个精妙的设计,学术界引入了更通用的注意力机制,这将是下一节将讨论的重点。
如果综合考虑公式(1)到公式(3),会发现注意力机制的核心本质是特征提取,也就是为文本内容找到更好的特征表示,即背景向量。尽管每一步的隐藏状态可以很好地反映文本内容,但它同时参与了权重的计算。这种双重身份容易让它顾此失彼,从而影响模型的性能。为了解决这个问题,下面将暂时离开循环神经网络的框架,借鉴上述3个公式,设计一个改进后的注意力机制。
改进后的注意力机制中仍然区分背景文本和处理文本,不同之处在于,两者可以是同一个文本。为文本中的每个词元引入3个向量,分别为查询向量(Query)、键向量(Key)和数值向量(Value),分别用Q、K和V表示,如图2所示。最终的特征表示是通过以下计算步骤获得的。
注意力机制的核心步骤涉及3个重要向量:Q、K、V。其中,Q代表当前词元需要查询的信息,K代表词元在文本中的背景信息,V代表词元自身的特征。因此,注意力机制可以被非常通俗地理解为:文本内容的特征表示是词元特征的加和平均,权重主要反映词元间的相关关系。这一机制避免了标准循环神经网络的一个缺陷,即难以有效捕捉词元间的关联关系(见图2左侧部分,具体细节请参考关于LSTM的文章)。值得注意的是,背景向量的数学公式(可参考公式(3))与隐藏状态非常相似,因此注意力机制也被视为循环神经网络的一员。
改进后的注意力机制对使用场景没有限制。当处理文本和背景文本不同时,算法被称为交叉注意力(Cross-Attention),它将会被用在序列到序列模式中。当处理文本和背景文本相同时,将其称为自注意力(Self-Attention),它的使用场景是自回归和自编码模式。它们的不同点在于:在自回归模式下,模型仅关注词元左侧的对齐分数(图2中虚线部分被强制设为0),这类注意力被形象地称为单向注意力(Unidirectional Attention);在自编码模式下,计算对齐分数没有这种限制(图2中虚线部分会正常计算),这类注意力被称为双向注意力(Bidirectional Attention)。
在介绍了注意力机制的核心步骤之后,接下来将深入讨论它的数学细节,以及如何在代码中高效地实现它。
改进的注意力机制将两个向量的内积定义为对齐分数,因此可以利用张量计算来执行注意力机制。详细的算法定义和实现代码如图3所示。前文的理论介绍仅关注单个词元,但实际的代码实现需要尽可能地提升运算效率。因此,假设query、key和value的形状都是(B, T, C),其中B表示批量大小,T表示文本长度,C表示词元特征长度。在这种设定下,图3中的代码能够以并行方式处理批量数据,相比于传统的循环神经网络,这是一项显著的改进。
图3所示的算法在学术上被称为缩放点积注意力(Scaled Dot-Product Attention)5。在具体计算中,有两个特别的细节处理,分别是图11-4中的缩放(Scale)和掩码(Mask),对模型结果和计算效率有很大影响。
大语言模型在众多其他领域表现卓越。然而,到目前为止,“为何这些模型如此出色”仍然存在争议,尚无定论。这里提供的是其中一种解释,笔者也倾向于支持这一观点,鼓励感兴趣的读者查阅其他文献提供的解释,以便更深入地了解这一话题。 ↩︎
对齐分数有多种不同的计算方式,其中一种直观的方法是计算当前输入向量与隐藏状态向量的内积,并将其作为对齐分数。此外,也可以搭建一个简单的神经网络来完成这一计算。 ↩︎
在RNN中,隐藏状态可以被解释成词元特征的加和,从形式上来看,这与公式(3)非常相似。因此,背景向量可以被看作隐藏状态的一种改进和升级,将其作为循环神经网络的输入是非常合理的。 ↩︎
这个设计源自论文“Neural Machine Translation By Jointly Learning To Align And Translate”。 ↩︎
这是最著名的注意力机制之一,源自论文“Attention Is All You Need”。其他变种的注意力机制都遵循相似的核心原理和设计思想。正如在讨论长短期记忆网络时强调的,理解神经网络的关键在于掌握其核心思想,而不是死记硬背具体的模型结构和公式。 ↩︎
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。