当前位置:   article > 正文

「AIGC」Python实现tokens算法_tokenizer 计算token数量

tokenizer 计算token数量

本文主要介绍通过python实现tokens统计,避免重复调用openai等官方api,开源节流。

一、设计思路

  • 初始化tokenizer
  • 使用tokenizer将文本转换为tokens
  • 计算token的数量

二、业务场景

2.1 首次加载依赖

在这里插入图片描述

2.2 执行业务逻辑

在这里插入图片描述

三、核心代码

from transformers import AutoTokenizer
import time
from datetime import datetime

# 获取开始时间,并格式化为"年-月-日 时:分:秒"
start_time = time.time()
start_datetime = datetime.fromtimestamp(start_time).strftime('%Y-%m-%d %H:%M:%S')

# 初始化tokenizer
tokenizer = AutoTokenizer.from_pretrained('bert-base-uncased')

# 示例文本
text = "ChatGPT is great!"

# 使用t
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/796135
推荐阅读
相关标签
  

闽ICP备14008679号