赞
踩
在自然语言处理领域,语言模型(LM)的经典定义是一种对词符(token)序列的概率分布。例如,假设我们有一个词符集的词汇表 V V V。语言模型 p p p 为每个词符序列 x 1 , x 2 , … , x L ∈ V x_1, x_2, \dots, x_L\in V x1,x2,…,xL∈V 分配一个概率:
p ( x 1 , x 2 , … , x L ) p(x_1, x_2, \dots, x_L) p(x1,x2,…,xL)
这个概率可以直观地告诉我们当前给定的词符序列有多“好(good)”,也就是当前这个词符序列基于以往的训练数据看有多契合。由于语言模型通常采用监督训练的方式进行数据驱动式的训练,因此,它所能回答我们的仅仅是当前给定的序列在以往训练数据中出现的可能性有多少。同时,由于训练数据其实是人类产生的,因此,这个可能性也标志着模型认为这个词符序列的自然程度。
从数学角度来看,语言模型是一种既简洁又精妙的构造。然而,这种看似简单的外表下隐藏着复杂的真相:为所有可能的序列分配一个合理的概率,这一过程实际上需要语言模型具备非同一般的、隐性的语言理解和广泛的世界知识。因为判断一个词符序列(或者说一个句子)是否自然或者合理,语言模型不仅要从语法角度进行判断,还要具备从语义上判断给定的词符序列(或者句子)所描述的内容是否符合常识或者符合人类的知识。基于我的理解,语义意义上的判断实际上是通过语言模型建立词符序列中词符与词符之间的语义关系实现的。从这个角度看,语言模型关注的就不仅是从词符序列到概率的映射,还需要关注词符序列内部的顺序及关联关系。这可能就是为何Transformer架构能够在自然语言问题上有如此非凡的表现。它通过建立多层堆叠的Attention Block,一方面从输入输出上建立了词符序列到概率(也包括概率序列)的映射,另一方面,用Attention处理输入的词符序列,建立了词符序列内部的顺序关系及关联关系。
语言模型不仅仅是评估句子的工具,也可以用于生成全新的文本。这其实也不是很难想象,其本质就是基于给入的词符序列,迭代预测下一个词符的分布,也就是
p ( x n + 1 ∣ x 1 , x 2 , … , x n ) p(x_{n+1}|x_1, x_2, \dots, x_n) p(xn+1∣x1,x2,…,xn)
通过不断的迭代实现新文本的生成。当然,实际上这个概率分布是需要语言模型给出的,而这个模型则是需要通过对其参数进行训练才能给出较为合理的概率分布。
然而,这个训练过程并非总是那么直截了当。实际上,有时候,我们想要的是一个更符合特定标准或目的的“最佳”句子。比如,生成一条新闻标题或者一首诗。在这样的场景下,我们的需求可能会优先考虑更有意义、更吸引人。因此,在实际应用时,我们通常会引入各种技巧和方法,确保生成的文本不仅随机和多样,而且有意义、有目的,并且符合用户的特定需求。
根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来根据下文预测前面的单词。这种类型的LMs(Language Models)被称为自回归语言模型(AutoRegressive Large Language Models, ARLLMs)。当下大火的GPT 就是典型的自回归语言模型。自回归语言模型的核心思想是利用已知的词符序列(单词序列)来预测接下来的词符(单词)。
自回归语言模型的原理主要是基于概率链式法则(Chain rule of probability),即
p
(
x
1
:
L
)
=
p
(
x
1
)
p
(
x
2
∣
x
1
)
p
(
x
3
∣
x
1
,
x
2
)
⋯
p
(
x
L
∣
x
1
,
x
2
,
…
,
x
L
−
1
)
=
p
(
x
1
)
p
(
x
2
∣
x
1
)
p
(
x
3
∣
x
1
,
x
2
)
⋯
p
(
x
L
∣
x
1
:
L
−
1
)
=
∏
i
=
1
L
p
(
x
i
∣
x
1
:
i
)
上述这个结构实际上也就是自回归语言模型的核心了。在使用GPT时,我们通常会被限制输入的上下文长度(也就是Context的长度),这主要就是因为每次GPT生成一个新的词符(单词),都需要以前面所有的词符序列(单词序列)为先验,即 p ( x L ∣ x 1 : L − 1 ) p(x_L|x_{1:L-1}) p(xL∣x1:L−1),也就是以前面全部的词符序列(单词序列)作为神经网络的输入。而由于神经网络的输入是固定的,或者说最大长度是有限的,因此,其所能作为上下文的词符序列(单词序列)长度也就是有限的了。
基于上述概率链式法则,在自回归语言模型中生成整个序列 x 1 : L x_{1:L} x1:L,我们需要一次生成一个词符,该词符基于之前生成的词符进行计算获得:
x i ∼ p ( x i ∣ x 1 : i ) 1 / T , ∀ i ∈ 1 , 2 , … , L x_i \sim p(x_i|x_{1:i})^{1/T}, \quad \forall i\in {1,2,\dots,L} xi∼p(xi∣x1:i)1/T,∀i∈1,2,…,L
其中 T ≥ 0 T\geq 0 T≥0 是一个控制语言模型中随机性的温度参数:
T = 0 T=0 T=0:确定性地在每个位置 i i i 选择最可能的词符 x i x_{i} xi
T = 1 T=1 T=1:从纯语言模型“正常(normally)”采样
T = ∞ T=\infty T=∞:从整个词汇表上的均匀分布中采样。
在进行上述操作处理后,我们还需要通过重新标准化分布来使得概率的加和为1,即保证计算得到的值是有概率意义的。最终,我们将标准化版本
p T ( x i ∣ x 1 : i ) ∝ p ( x i ∣ x 1 : i ) 1 / T p_T(x_i|x_{1:i}) \propto p(x_i|x_{1:i})^{1/T} pT(xi∣x1:i)∝p(xi∣x1:i)1/T
称为退火条件概率分布( Annealed Conditional Probability Distribution)。注意:对于每一步的条件概率分布应用温度参数T,并进行迭代采样,这种方法并不等同于(除非 T=1 )从整个长度为 L 的序列的"退火"分布中一次性采样。 也就是说(迭代方法)在每次生成下一个词符的时候都使用温度参数和重新标准化来处理概率
p
T
(
x
i
∣
x
1
:
i
)
=
p
(
x
i
∣
x
1
:
i
)
1
/
T
Z
i
p
T
(
x
1
:
L
)
=
∏
i
=
1
L
p
T
(
x
i
∣
x
1
:
i
)
=
∏
i
=
1
L
p
(
x
i
∣
x
1
:
i
)
1
/
T
Z
i
是不同于(一次性采样方法)对整个词符序列进行采样
p
T
(
x
1
:
L
)
=
p
(
x
1
:
L
)
1
/
T
Z
=
(
∏
i
=
1
L
p
(
x
i
∣
x
1
:
i
)
)
1
/
T
Z
=
∏
i
=
1
L
p
(
x
i
∣
x
1
:
i
)
1
/
T
Z
在GPT出现后,自回归语言模型呈现出了强大的文本处理能力,但从其基本原理出发,自回归语言模型的也有其优势与劣势,需要基于具体任务进行选择使用。
语言模型的发展可以追溯到克劳德·香农,他在1948年的具有里程碑意义的论文《通信的数学理论》中奠定了信息理论的基础。在这篇论文中,他引入了用于度量概率分布的熵(Entropy)的概念:
H ( p ) = ∑ x p ( x ) l o g 1 p ( x ) H(p) = \sum_x p(x)log\frac{1}{p(x)} H(p)=x∑p(x)logp(x)1
熵实际上是一个衡量将样本 x ∼ p x∼p x∼p 编码成比特串所需要的预期比特数的度量。熵值越小,说明序列的结构性越强,编码的长度越短。直观地理解, l o g 1 p ( x ) log\frac{1}{p(x)} logp(x)1 可以理解为出现概率为 p ( x ) p(x) p(x)的元素 x x x的编码长度。这个长度是一个极限值,也就是香农极限(Shannon limit)。实际上,达到这个极限是非常具有挑战性的(例如,低密度奇偶校验码),这也是编码理论研究的主题之一。
语言模型最早被用于需要生成文本的实践应用包括语音识别任务与机器翻译任务等。在这两个任务中,人们所设计的系统均使用了基于词的N-gram语言模型(最早由香农引入,但针对的是字符)。
N-Gram是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。每一个字节片段称为gram,对所有gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特征空间,列表中的每一种gram就是一个特征向量维度。
在该模型的假设中,第N个词的出现只与前面N-1个词相关,而与其它任何词都不相关,如
p ( x i ∣ x 1 : i ) = p ( x i ∣ x i − ( N − 1 ) : i − 1 ) p(x_i|x_{1:i}) = p(x_i|x_{i-(N-1):i-1}) p(xi∣x1:i)=p(xi∣xi−(N−1):i−1)
整句的概率就是各个词出现概率的乘积。这些概率是基于各种N-gram在大量文本中出现的次数计算的,并且适当地平滑以避免过拟合。常用的是二元的Bi-Gram和三元的Tri-Gram。然而,n-gram模型有其根本的限制,如果N太小,那么模型将无法捕获长距离的依赖关系,下一个词将无法依赖于声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。