赞
踩
OpenAI 语言模型总览:
Moderation:已经微调好的用来做监管的模型
Model:GPT-4
4个版本:1.两周一迭代的普通版 2.一季度一迭代的普通版 3.加强版(上下文加长)4.一季度一迭代的加强版
Model:GPT-3.5
code-davince-002 + instruction => text-davinci-002 + RLHF => text-davince-003 + chat => gpt-3.5-turbo
Model:GPT-3
gpt-3 is only the model that available to fine-tune.但是就算对GPT-3做微调,openai也不会把微调好的模型给我们,只能我们提供数据去微调,我们直接拿结果。并且GPT-3的模型也可能很快下线,因此微调它也很有可能很快被下线。
关于模型微调我们将在生态篇 在私域部署模型后讲。(2024-01-04 gpt3的fine-tune模型就会被回收)
模型一定越大越好嘛?
也不一定,越大的模型需要的算力/成本就越高,如果模型轻量化一点,那么部署在手机这种终端上才有可能。像GPT-4由多个大模型组成,它会对每个大模型生成的结果再进行加权选择获得一个最终的结果,包括ToT(Tree of Thoughts)最佳思维链的选择,这都是非常消耗算力的。对普通人来说,模型够用就行,倒也不是说越大越好。
Model:Moderation
专门用来做模型生成内容监管的模型:Moderation。Moderation可以免费用于OpenAI APIS的输入输出处理。
各个语言模型的计费:
这里价格是按照每1000个Tokens计算的,可以将Token视为单词的组成部分。1000个Token大约相当于750个单词。
Tokenizer:
openai提供的tokenizer小工具地址,它可以帮我们计算我们输入的文本有多少个字符和token,方便我们估计费用。
titkoken:a fast BPE(Byte pair encoding)Tokenizer
除了在上面的网页上输入文本来获得这段文本的token数,还可以在程序中直接调用tiktoken包来对文本tokenize,我们只需要算一下获得的token数量也可以。
tiktoken地址
计算一段文本的token数的用处:1.估计成本,模型是按输入/输出tokens算钱的 2.控制对模型输入的token数(一旦input的token数超过模型的最大输入token数的限制,就会报错)
42.16
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。