当前位置:   article > 正文

NLP之LLMs:大型语言模型领域LLMs排位赛—最新各个模型的实时排名、在线测试网站集合之详细攻略(持续更新)_大语言模型竞技场(lmsys chatbot arena) hugging face

大语言模型竞技场(lmsys chatbot arena) hugging face

NLP之LLMs:大型语言模型领域LLMs排位赛—最新各个模型的实时排名、在线测试网站集合之详细攻略(持续更新)

目录

相关文章

NLP之LLMs:Transformer的六大核心技术点(ED/SA/MHA/PE/FNN/RC-LN)、基于Transformer的1+2大划时代性模型(BERT模型/GPT模型)简介之详细攻略

LLMs:ChatGPT发展史—图灵测试→N-gram→Word2Vec→NPLM(BERT/GPT)→Seq2Seq→Attention→Transformer→GPT→ChatGPT→Prompt Engineering

LLMs领域最新模型的简介

1、大型语言模型领域最新各个模型的概览

2、LLMs排位赛—最新各个模型的实时排名

 HuggingFace排行榜:更新时间—2023年6月8日

lmsys排行榜:更新时间—2023年5月8日

LLMs各种维度对比

NLP之LLMs:《Zeno Chatbot Report》的翻译与解读—CMU副教授详细测评七款个类ChatGPT大模型

LLMs最新各个模型的性能在线测试对比

1、Lmsys


相关文章

NLP之LLMs:Transformer的六大核心技术点(ED/SA/MHA/PE/FNN/RC-LN)、基于Transformer的1+2大划时代性模型(BERT模型/GPT模型)简介之详细攻略

https://yunyaniu.blog.csdn.net/article/details/130652990

LLMs:ChatGPT发展史—图灵测试→N-gram→Word2Vec→NPLM(BERT/GPT)→Seq2Seq→Attention→Transformer→GPT→ChatGPT→Prompt Engineering

https://yunyaniu.blog.csdn.net/article/details/131261033

LLMs领域最新模型的简介

1、大型语言模型领域最新各个模型的概览

表格积累:

时间

参数量

时间硬件

机构

简介

GPT系列

GPT-4

2023年3月15日

未知

据说100万亿

未知未知OpenAI

GPT-4是OpenAI在扩展深度学习方面的最新里程碑。GPT-4是一个大型多模态模型(接受图像和文本输入,发出文本输出),虽然在许多现实场景中不如人类,但在各种专业和学术基准上表现出人类水平的表现。

ChatGPT

2022年11月30日

未知一个月10000张A100

OpenAI

ChatGPT训练用了10000个A100,训练了一个月。训练一次ChatGPT需要花费450万美元。

GPT-31750亿参数一个月1024张A100-80GB显卡OpenAI

Claude-v1

2023年3月14日

Anthropic

Anthropic推出了新的AI助手系统Claude,它基于Anthropic开发的有助益、诚实和无害的AI训练系统。Claude支持聊天界面和API接口,能够处理广泛的对话和文本处理任务。

Vicuna

vicuna-13b

2023年3月30日

130亿参数

1天8张A100 GPU

LMSYS

中文名“羊驼”,基于ShareGPT生成的数据+LMSYS在LLaMA上细化调整

一个由LMSYS在用户共享对话上基于LLaMA(羊驼)进行微调而来的聊天助手。一个令GPT-4印象深刻的开源聊天机器人,具有90%的ChatGPT质量。

vicuna-13b,由LMSYS在用户共享对话上对LLaMA进行微调的聊天助手

(1)、8张A100 GPU,训练时间是一天,不到2000RMB。在LLaMA-7B上,140美元(training),而在LLaMA-13B上,300美元(training),不到2000RMB;

(2)、基于LLaMA13B(媲美GPT-3),网上网友选用的4090显卡,训练了10轮需要2天

ChatGLM

chatglm-6b

2023年3月14日

60亿参数

Tsinghua

由清华大学开发的开放双语对话语言模型

chatglm-6b 由清华大学开发的开放双语对话语言模型

Alpaca

Alpaca-13b

2023年3月14日

130亿参数

3个小时8张A100-80GB

Stanford

中文名“羊驼”,基于ChatGPT生成的数据+斯坦福大学在LLaMA-7B上细化调整。

 Alpaca=LLaMA 7B + GPT-3.5(text-davinci-003);

(1)、alpaca-13b,由斯坦福大学在LLaMA上进行细化调整的模型,用于遵循指令;

(2)、性能比肩GPT-3.5;仅用52k数据,在8张A100-80GB上训练了3个小时

(3)、关键是训练成本奇低,在LLaMA-7B上不到600美元=500美元(data)+100美元(training)。基于云计算供应商,训练花费大约100美元+使用OpenAI的API生成数据大约500美元;

LLaMA

LLaMA-13b

2023年2月25日

130亿参数

Meta

中文名”羊驼”,由Meta开发的开放高效基础语言模型

LLaMA-13b,由Meta开发的开放高效基础语言模型

备注
(1)、ShareGPT是一个分享ChatGPT对话的谷歌插件,目前拥有超过11万对话数量。

Falcon地址
UAE's Technology Innovation Institute Launches Open-Source "Falcon 40B" Large Language Model for Research & Commercial Utilization | Technology Innovation Institute

数据参考来源
Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality | LMSYS Org

2、LLMs排位赛—最新各个模型的实时排名

 HuggingFace排行榜:更新时间—2023年6月8日

 HuggingFace排行榜地址
Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/552759

推荐阅读
相关标签