当前位置:   article > 正文

tokenizer分词器中的BPE分词方法的原理、样例、代码示例_英文bpe切分子词词表生成代码

英文bpe切分子词词表生成代码

Byte Pair Encoding(BPE):

想象一下你正在玩一种叫做“文字乐高”的游戏。在这个游戏中,你有很多小块,每个小块上写着一个字母或汉字。你的任务是用这些小块来构建单词或句子。开始时,你只能用单个字母或汉字的小块。但是游戏规则允许你找出那些经常一起出现的字母或汉字对,然后把它们合并成一个新的、更大的小块。随着游戏的进行,你可以创建越来越多的这种复合小块,从而更快、更高效地构建单词或句子。

BPE(Byte Pair Encoding)分词方式就像这个游戏。它的核心思想是在文本中找到最常见的字符对(比如在英文中可能是“th”、“er”等,在中文中可能是常见的词组或双字词),然后将这些字符对合并成一个新的单位。通过反复执行这个过程,我们可以将常见的字符对或字符序列合并成更长的序列,这些序列有时可以是完整的词语,有时可能是词语的一部分。

这个方法的一个优点是,它可以自动适应文本中的语言模式,而不需要预先定义词汇表。这就意味着,即使遇到了文本中从未出现过的新词,BPE 也有可能通过已经学到的字符序列来理解和处理这个新词。例如,如果 BPE 学会了“喜欢”和“吃”这两个序列,那么即使它从未见过“喜欢吃”这个短语,它也能够将其分解为已知的部分并加以理解。

总的来说,BPE 分词就像是通过观察和学习文字之间的“友谊”——哪些字母或汉字喜欢经常待在一起——然后通过将这些常见的组合“粘合”起来,以更智能、更灵活的方式来理解和处理语言。这种方法特别适用于处理大规模文本数据,能够有效地减小模型的复杂度,同时保持对文本的良好理解。

BPE的特点

Byte Pair Encoding (BPE) 算法最初是作为一种数据压缩技术被提出的。然而,在自然语言处理(NLP)领域,BPE 被重新发现并用作一种有效的子词分词方法,特别是在处理语言模型和机器翻译等任务时。提出 BPE 用于 NLP 的原因主要有以下几点:

处理未知词汇: 传统的词汇表方法面临一个挑战,即如何处理训练数据中未出现的单词(即未知词汇或 OOV,Out-Of-Vocabulary)。BPE 方法通过将单词分解为更小的单位(子词)来解决这个问题。即使是未见过的单词,也有可能由已见过的子词组合而成,因此模型能够更好地处理和理解这些新单词。

减小词汇表大小: 在大型文本数据集中,完整的词汇表可能非常庞大,这对模型的存储和计算效率都是一个挑战。BPE 通过构建一个更小、更高效的子词集来缩减词汇表的大小,同时仍保持了对原始文本的良好覆盖。这样不仅减少了模型的参数量,还提高了训练和推理的效率。

改善语言模型的泛化能力: 由于 BPE 的子词单位能够跨越单词边界,它可以帮助模型更好地学习和理解语言的词根、前缀和后缀等形态变化,从而提高模型对词形变化和复合词的处理能力。这种对词形变化的敏感性有助于模型在各种语言任务中更好地泛化。

适应性强: BPE 算法非常灵活,可以根据需要调整子词的数量,这使得它可以根据不同的应用场景和资源限制来优化性能。这种适应性使得 BPE 成为了一种在各种语言和任务中都非常实用的分词方法。

语言无关性: BPE 不依赖于任何特定语言的语法或词汇规则,使其成为一种通用的分词方法。这意味着它可以被应用于不同的语言,而无需对每种语言做特殊的适配或修改。

BPE的具体样例

让我们通过一个简化的中文样例来详细展示BPE分词的步骤。我们将使用以下句子作为样例文本:

"猫喜欢吃鱼,狗喜欢吃肉,人喜欢吃鱼,人喜欢吃肉"

我们将按以下步骤展示BPE算法的工作过程:

  1. 初始化词汇表

  2. 计算所有相邻字符对的频率

  3. 选择频率最高的字符对进行合并

  4. 重复步骤2和3指定次数

由于是演示,我们将执行少量的合并操作,假设合并次数为4次。

首先,我们将文本初始化为词汇表,包括每个字符及其频率:

  1. {
  2. '猫': 1, '喜': 4, '欢': 4, '吃': 4,
  3. '鱼': 2, ',': 7, '狗': 1, '肉': 2,
  4. '人': 2
  5. }

接下来,我们将展示每一步的合并过程。

  1. ## 第一次合并:首先,我们计算所有相邻字符对的频率,并找到频率最高的字符对。在这个例子中,"喜欢" 是出现频率最高的字符对,出现了4次。我们将其合并为一个新的字符 "喜欢"。
  2. # {('猫', '喜'): 1, ('喜', '欢'): 4, ('欢', '吃'): 4, ('吃', '鱼'): 2, ('鱼', ','): 2, (',', '狗'): 1, ('狗', '喜'): 1, ('吃', '肉'): 2, ('肉', ','): 1, (',', '人'): 2, ('人', '喜'): 2, ('肉', '</w>'): 1}
  3. {'猫': 1, '喜欢': 4, '吃': 4, '鱼': 2, ',': 3, '狗': 1, '肉': 2, '人': 2}
  4. ## 第二次合并:接下来,我们再次查找频率最高的字符对。这次 "喜欢吃" 是出现频率最高的,我们将其合并。
  5. # 合并后的词汇表变为:
  6. # {('猫', '喜欢'): 1, ('喜欢', '吃'): 4, ('吃', '鱼'): 2, ('鱼', ','): 2, (',', '狗'): 1, ('狗', '喜欢'): 1, ('吃', '肉'): 2, ('肉', ','): 1, (',', '人'): 2, ('人', '喜欢'): 2, ('肉', '</w>'): 1}
  7. {'猫': 1, '喜欢吃': 4, '鱼': 2, ',': 3, '狗': 1, '肉': 2, '人': 2}
  8. ## 第三次合并:再次重复上述过程,这次我们注意到 "喜欢吃鱼" 、 "鱼,"等好几个组合频率都是2。这里为了演示,我们选择 "喜欢吃鱼" 进行合并(实际上这两个字符对的频率相同,可以任选其一)。
  9. # 合并后的词汇表为
  10. # {('猫', '喜欢吃'): 1, ('喜欢吃', '鱼'): 2, ('鱼', ','): 2, (',', '狗'): 1, ('狗', '喜欢吃'): 1, ('喜欢吃', '肉'): 2, ('肉', ','): 1, (',', '人'): 2, ('人', '喜欢吃'): 2, ('肉', '</w>'): 1}
  11. {'猫': 1, '喜欢吃鱼': 2, ',': 3, '狗': 1, '喜欢吃': 2, '肉': 2, '人': 2}
  12. ## 第四次合并:最后一次合并,同上面的步骤一样,我们选择了“喜欢吃鱼,”进行合并。
  13. # 合并后的词汇表如下:
  14. # {('猫', '喜欢吃鱼'): 1, ('喜欢吃鱼', ','): 2, (',', '狗'): 1, ('狗', '喜欢吃'): 1, ('喜欢吃', '肉'): 2, ('肉', ','): 1, (',', '人'): 2, ('人', '喜欢吃鱼'): 1, ('人', '喜欢吃'): 1, ('肉', '</w>'): 1}
  15. {'猫': 1, '喜欢吃鱼,': 2, '狗': 1, '喜欢吃': 2, '肉': 2, '人': 2, ',': 1}

经过4次合并后,我们得到了一个包含了更长字符序列的新词汇表。通过这个过程,BPE算法能够逐步构建出更长的、更意义丰富的字符序列,这有助于提高分词的精度和效率。需要注意的是,这里的例子非常简化,实际应用中的BPE算法会在一个更大的数据集上执行更多的合并操作,以构建出一个更完整、更有效的分词词汇表。不同的合并方式得到的词表也可能不同。

BPE简单代码示例

  1. import re, collections
  2. def get_stats(vocab):
  3. pairs = collections.defaultdict(int)
  4. for word, freq in vocab.items():
  5. symbols = word.split()
  6. for i in range(len(symbols)-1):
  7. pairs[symbols[i],symbols[i+1]] += freq
  8. return pairs
  9. def merge_vocab(pair, v_in):
  10. v_out = {}
  11. bigram = re.escape(' '.join(pair))
  12. p = re.compile(r'(?<!\S)' + bigram + r'(?!\S)')
  13. for word in v_in:
  14. w_out = p.sub(''.join(pair), word)
  15. v_out[w_out] = v_in[word]
  16. return v_out
  17. def build_vocab(text):
  18. counter = collections.defaultdict(int)
  19. for line in text:
  20. words = line.split()
  21. for word in words:
  22. counter[word] += 1
  23. return {" ".join(key) + " </w>": value for key, value in counter.items()}
  24. # 示例文本
  25. test_corpus = "猫喜欢吃鱼,狗喜欢吃肉,人喜欢吃鱼,人喜欢吃肉"
  26. vocab = build_vocab(test_corpus.split('\n'))
  27. num_merges = 4
  28. for i in range(num_merges):
  29. pairs = get_stats(vocab)
  30. print(pairs)
  31. if not pairs:
  32. break
  33. best = max(pairs, key=pairs.get)
  34. vocab = merge_vocab(best, vocab)
  35. print(vocab)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/615623
推荐阅读
相关标签
  

闽ICP备14008679号