赞
踩
为什么要做国产开源ChatGPT模型对比呢(大雾),答案显而易见嘛。最近尤其是这阵子ChatGPT爆火, 2月3日在ChatGPT推出仅两个月后,它在2023年1月末的月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。
而要达到这个用户量,TikTok用了9个月,Instagram则花了2年半的时间。作为一款聊天机器人,凭借大规模预训练模型GPT3.5(~100B参数)、指令微调尤其是人类反馈强化学习微调(RLHF,OpenAI在强化学习领域有独特的创见)等两件法宝,
ChatGPT拥有充足的知识储备和不可思议的问答逻辑性,尤其是强悍的多轮问答能力,满足了广罗大众对通用人工智能的幻想,那么其快速出圈就顺理成章了。此外,谷歌与OpenAI的恩怨情仇,那更是大家喜闻乐见的吃瓜情节啦。
让我们恭喜OpenAI这个bi,终于一洗往日的阴霾(或许是早前BERT始终压GPT一头)。果然,竞争、对抗才能迸发创造力呀。
回到正题,让我们今天收集汇总一下当前的国产开源ChatGPT模型(2023.02.08)。
模型 | 基础架构 | 训练数据量 | 参数量 | 开源程度 | PyTorch | 作者 | 源地址 | 应用领域 |
---|---|---|---|---|---|---|---|---|
ChatGPT | GPT3.5 | 45TB | ~100B(GPT3是175B) | - | - | OpenAI | - | 通用 |
ChatRWKV | RWKV-4 | 0.78TB | 0.1B/1.5B/3B/7B/14B(开源)/20B(训练中) | 训练/推理代码和模型都开源 | huggingface | PENG Bo | github | 中英文对话(语料不多) |
ChatYuan | T5 | 0.5TB(存疑?) | 0.7B(开源)/~10B(api) | PromptCLUE指令微调代码开源 | huggingface | ClueAI | github | 功能型对话/生成(语料不多) |
SkyText | GPT2 | 0.5TB(存疑?) | 3B/14B(开源) | 推理代码和模型开源 | huggingface | SkyWorkAIGC | github | 功能型对话/生成(语料不多) |
步骤
步骤
步骤
步骤
实现通用人工智能的三条路:
ChatGPT似乎是第一个把这三种路同时走通的算法模型, 称赞通用人工智能的里程碑事件也不为过。
代码训练语料的注入就是为了学习符号主义, 构建指令Prompt也与符号主义有关, 为了推理与泛化到没见过的任务;
模型175B参数量就与人脑800B神经元接近, 存储大量知识等待激活, 注意力Attention机制更是模仿人眼聚焦输入;
有人类反馈的强化学习版有监督的指令微调RLHF显然就是行为主义了, 与外界交互获得更多的聊天细节, 激活能力;
图来自符尧等的ChatGPT的前世今生
图来自符尧等的ChatGPT的前世今生
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。