当前位置:   article > 正文

tokenizers in Transformers:BPE、WordPiece,SentencePiece_bytelevelbpetokenizer参数

bytelevelbpetokenizer参数

目录

1. space、punctuation、rule-based tokenization

2. Subword tokenization

2.1 Byte-Pair Encoding (BPE)

Byte-level BPE

2.2 WordPiece

2.3 Unigram

2.4 SentencePiece:ALBERT,XLNet,Marian和T5


参考:

tokenizing a text是将文本分为words或subwords,然后通过look-up table将其转换为ID。我们将研究

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/828547
推荐阅读
相关标签