当前位置:   article > 正文

[论文笔记] tiktoken中的gpt4 tokenizer_内网使用tiktoken

内网使用tiktoken

亲测可用!!!!!

        注意是bytelevel的BPE!!

        只有vocab.json是不ok的,只能encode单字节的字符,对于中文这种会encode之后tokens,ids都是[]。 

P.S.

BertTokenizer会有UNK,不在词表中的字符会识别为UNK,而不是用unicode编码。SentencePiece只能加载tokenizer.model。我用models.BPE:
from tokenizers import Tokenizer, pre_tokenizers, models
import json
with open("/xx/vocab_files/cl100k_base_vocab_str2id.json", "r") as file:
         vocab = json.load(file)
tokenizer = Tokenizer(models.BPE())
tokenizer.add_tokens(list(vocab.keys()))
text="喵喵喵cat"
tokens = tokenizer.encode(text).tokens
ids = tokenizer.encode(text).ids
print(tokens, ids)
但是这种还是会有问题,就是缺了merge.txt,只有单字节的字符能编码了。像中文encode之后的tokens和ids都成空[]了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/345892
推荐阅读
相关标签
  

闽ICP备14008679号