当前位置:   article > 正文

离开OpenAI的大神卡帕西「开课了」:新项目日增千星,还是熟悉的min代码风

openai大神
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

大神Karpathy从OpenAI离职,原本扬言要大休一周。

467e4e34ae3c71d6aff3774989fcac24.png

但转眼,新项目就已上线GitHub,日增上千星的那种。

b5fb43b18059e65d99d19e53d32441c8.jpeg

还是熟悉的卡式配方:

74行Python代码搞定大模型标记化(tokenization)中常用的BPE(Byte Pair Encoding)算法,实现该算法的最小、最干净代码版本。

甚至:

a403f45a234792f876be75312b5181fe.png

是不是有点快3万标星的nanoGPT内味儿了?

这波啊,还真是让网友们给猜着了:

Time to cook。

a6425137e1bed518aa6648604d41b923.png

毕竟,Karpathy除了前特斯拉AI总监、OpenAI创始成员的title,最为网友所熟悉的,就是“AI领域大善人”、“擅长将复杂问题简单化的卡老师”这样的身份了(手动狗头)。

BPE代码最小化版本

还是具体来看一下,Karpathy老师这次又煮出了一锅什么样的饭。

bef35e6e3c4808ca917ed5014f013c3a.png

项目名minbpe已经说明一切:BPE算法的最小、最干净代码版本。

BPE(字节对编码)是随着GPT-2而流行起来的标记化算法。现在,包括GPT系列、Llama系列和Mistral在内,一众大模型都用到了这一算法来训练分词器。

BPE的主要优势在于:

  • 高效:通过合并频繁出现的字节对来逐步构建词汇表,可以有效地减少模型需要处理的词汇量。

  • 灵活:可以将词汇表外的单词分解为已知子词来进行处理,有助于模型理解和生成未在训练中出现的单词。

而在minbpe这个项目中,Karpathy提供了两个Tokenizer(分词器),它们都可以执行分词器的3个主要功能:

  • 基于特定文本训练词汇表和合并操作

  • 把文本编码成token

  • 把token解码为文本

具体而言,在basic.py中,minbpe用74行Python代码,完成了对直接在文本上运行的BPE算法的最简单实现。

966ce8cec02de9c967f1b8bc8d1a75dc.png

regex.py中,minbpe实现的是一个正则表达式分词器,该分词器利用正则表达式进一步拆分输入的文本。

另外,在正则表达式分词器的基础之上,minbpe还在gpt4.py中提供了一个GPT4Tokenizer,可以准确在线tiktoken库中的GPT-4标记化。

注:tiktoken是一种快速BPE分词器。

6967933613371ad20ff2a21756c234ed.png

base.py则是一个基类,包含了训练、编码和解码的存根(stubs),提供了保存和加载的功能,并集成了一些常见的辅助工具函数。在实际应用中,开发者应该通过继承这个基类来实现具体的分词器功能。

Karpathy提到,他在霉霉的维基百科文本上尝试训练了两个主要的分词器。train.py在他的M1 MacBook上运行时间大概为25秒。

如果你还有什么不清楚的地方,别担心,卡老师已经计划要出视频了:

f8fd48c4311c3372bb5ceacb41ee6f83.png

Karpathy出走OpenAI,许多猜测指向他的“下一篇章”是大语言模型系统(LLM OS)。

如今正式工作还未揭示,但看样子Karpathy已经拾起了“教学育人”的副业,小伙伴们可以蹲起来了format,png

参考链接:
https://github.com/karpathy/minbpe/

—  —

点这里

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/132873
推荐阅读
相关标签