当前位置:   article > 正文

闭源赶超GPT-4 Turbo、开源击败Llama-3-70B,歪果仁:这中国大模型真香_llama 3-70b 和gpt 4比

llama 3-70b 和gpt 4比

在发布一周年之际,阿里云通义千问大模型在闭源和开源领域都交上了一份满意的答卷。

国内的开发者们或许没有想到,有朝一日,他们开发的 AI 大模型会像出海的网文、短剧一样,让世界各地的网友坐等更新。甚至,来自韩国的网友已经开始反思:为什么我们就没有这样的模型?

这个「别人家的孩子」就是阿里云的通义千问(英文名为 Qwen)。在过去的一年里,我们经常能够在 X 等社交平台上看到它的身影。这些帖子一般有两个主题:通义千问又开源新模型了!通义千问新模型还挺好用!

还有人以通义千问为例,反驳中国在人工智能方面落后的说法。而且,这一反驳并非来自主观感受。在最近的 HuggingFace 开源大模型排行榜 Open LLM Leaderboard 上,我们惊讶地发现,刚刚开源的 Qwen1.5-110B 已经登上了榜首,性能比 Llama-3-70B 还强。

部分开发者的实测体验也佐证了这一结果。

要知道,这还只是 Qwen1.5 的实力。等到 Qwen 2.x 系列模型开源,我们还将看到更多惊喜。

这份惊喜已经能从通义千问的新模型里看到端倪,即阿里云今天发布的新模型 —— 通义千问 2.5。在性能上,该模型在中文场景已经赶超GPT-4 Turbo,成为地表最强中文大模型。

去年 3 月份,OpenAI 发布了 GPT-4。如今,通义千问 2.5 的发布表明,历经一年多追赶,国产大模型终于进入核心竞技场,可与国外一流大模型一较高下。

这一过程的艰辛是能够可视化的。它就像一场逆流而上的龙舟竞赛,稍有懈怠就会被冲到下游,而且竞争对手全是重量级。

过去一年大模型竞技场排名变化视频(不含 Qwen1.5-110B)。可以看到,尽管面对的是谷歌、Anthropic、Meta 等强大竞争对手,阿里云的 Qwen 也一度跻身前列。

那么,通义千问的开源大模型是如何一步一步走到今天的?最新发布的通义千问 2.5 又带来了哪些惊喜?这篇文章将逐一揭晓。

超越 Llama-3-70B

通义千问开源大模型如何一步一步登顶?

不久之前,业内曾有过一场「开源模型是否会越来越落后」的争论。但后续出现的 Llama3、Qwen1.5 等模型用实力表明,开源模型的发展势头依然迅猛。

最近风头正盛的 Qwen1.5-110B 于 4 月 28 日开源,是 Qwen1.5 系列中规模最大的模型,也是该系列中首个拥有超 1000 亿参数的模型。该模型可以处理 32K tokens 的上下文长度,并支持英、中、法、西、德、俄、日、韩、越、阿等多种语言。

在技术细节上,Qwen1.5-110B 沿用了 Transformer 解码器架构,包括分组查询注意力(GQA),使得模型推理更加高效。

也因此,Qwen1.5-110B 在 MMLU、TheoremQA、ARC-C、GSM8K、MATH 和 HumanEval 等多个基准测评中不仅优于自家 Qwen1.5-72B,更超越了 Meta 的 Llama-3-70B。这意味着,就基础能力而言,Qwen1.5-110B 成为了比 Llama-3-70B 更优秀的模型。

而在对话聊天场景,Qwen1.5-110B-Chat 在 MT-Bench 和 AlpacaEval 2.0 基准测试上的表现也双双好于 Llama-3-70B-Instruct。

看到这里,有的开发者可能会说,Qwen1.5-110B 好是好,就是太大了,跑不动啊。

这个时候,通义千问「家大业大」的优势就体现出来了。在 Qwen1.5-110B 发布之前,他们已经开源了从 0.5B 到 72B 的七种尺寸的模型,提供了从端侧到服务器部署的多种选择。

而且,这些模型在各自所处的参数量级上都名列前茅。

以 Qwen1.5-72B 为例,这个模型不仅登顶过 HuggingFace 开源大模型排行榜、OpenCompass 开源基座大模型排行榜,而且在 MT-Bench 和 Alpaca-Eval v2 评测中也表现不俗,超过 Claude-2.1、GPT-3.5-Turbo-0613、Mixtral-8x7b-I nstruct 等模型。

在开放研究机构 LMSYS Org 推出的基准测试平台 Chatbot Arena 上,Qwen1.5-72B 模型更是多次进入「盲测」结果全球 Top 10,创造了国产大模型的先例。

而且,和 Qwen1.5-110B 一样,它也展现出了卓越的多语言能力。

有位越南网友表示,在越南版的 MMLU(VMLU)上,Qwen-72B 开箱即用,拿到了和 GPT-4 一样的分数,直接冲到了 SOTA。

而一位韩国网友看到后跟帖说,「在 wuli(我们的)韩国版 MMLU 上也一样。」

除了语言,还有人发现了 Qwen-72B 的隐藏技能 —— 医疗知识。不需要写任何特殊提示(prompt),Qwen-72B 给出的答案就能胜过专业的医疗 LLM。

当然,可能会有开发者说,72B 还是太大了,跑不动。那不妨试试更小的模型:14B、7B 的 Qwen 也很好用。

而且,这个 7B 模型还有「平替」,即性能与之相当的 Qwen1.5-MoE-A2.7B。Qwen1.5-7B 包含 65 亿个 Non-Embedding 参数,Qwen1.5-MoE-A2.7B 只有 20 亿个,仅为前者的 1/3。但是,后者推理速度提升了 1.74 倍,对于开发者来说更为高效。

可以看到,在众多的大模型厂商中,通义千问在开源领域罕见地做到了「全尺寸」的开源,而且还在利用 MoE 等技术不断优化推理成本,这极大地扩展了其适用范围。

除此之外,通义千问还在多模态以及一些实用的专有能力上进行了探索,开源了视觉理解模型 Qwen-VL,音频理解模型 Qwen-Audio 以及代码专家模型 CodeQwen1.5。

其中,CodeQwen1.5-7B 登顶过 Huggging Face 代码模型榜单 BigCode。

这些模型在开发者社区也广受好评。

有人在评论区喊话 Qwen 的核心维护者 Binyuan Hui,希望这些模型的升级版也能进一步开源。

此外,还有很多人在等 Qwen2 开源。

测试中的 Qwen-Max-0428 更是引发了各种猜测(有人认为它就是即将开源的 Qwen2)。最新消息显示,这个模型已经跻身 Chatbot Arena 总榜第 10 名,英文场景排名第 8,中文场景排名第 2。

在今天的发布会上,阿里云 CTO 周靖人透露,未来通义大模型还会持续开源,感觉大家千呼万唤的 Qwen2 已经在路上了(coming soon)。

地表最强中文大模型

通义千问 2.5 赶超 GPT-4 Turbo

在坚持 Qwen1.5 系列模型开源之外,通义千问大模型专注于「修炼内功」,基础能力得到不断进步。自问世以来,通义千问的不断迭代带来自然语言、图像、音视频等生成式 AI 能力的持续升级,为更好、更快、更准的用户体验打好基础。

果不其然,此次发布会上,我们见证了通义千问 2.5 基础能力的又一次全方位提升。

相较于前序版本通义千问 2.1,通义千问 2.5 的理解能力、逻辑推理、指令遵循和代码能力分别提升了 9%、16%、19%、10%,将基础能力「卷」出新高度。

其中,中文语境下的文本生成和理解、 知识问答、生活建议、闲聊对话等垂直场景的能力更是赶超 GPT-4,成为中文社区最佳选择。

在权威大模型评测基准平台 OpenCompass 上,通义千问 2.5 的得分追平了 GPT-4 Turbo。这是国产大模型首次在该基准上取得如此出色的成绩,让我们看到了通义千问能力持续进化的巨大潜力。

至此,通义千问已经站到了国内外大模型领域的第一梯队。

而得益于更强大的基础能力,通义千问 2.5 在文档处理、音视频理解和智能代码使用场景形成了独有优势。

首先,通义千问 2.5 具备了超强的文档处理能力,在支持输入的文本长度上可以单次处理 1000 万字,在支持输入的文档数量上可以单次处理 100 个文档,实现了单次最长和最多。

通义千问 2.5 支持丰富的文件格式和文本类型,比如 Word、PDF、Excel 以及表单、合同、白皮书、论文、财报研报等。文本任务也多样化,比如解析标题、文本段落、表格、图表等多种版面类型及文档层级目录的识别和抽取。在输出时支持 Markdown、JSON 等格式,对用户友好、易用性拉满。

其次,通义千问 2.5 具有出色的音视频理解能力。

在通义千问语言能力、LLM 能力、多模态能力和翻译能力的加持下,通过通义听悟、语言视觉 AI 模型等,实现音视频场景的信息挖掘、知识沉淀和高效阅读。相关能力已在钉钉、阿里云盘等内部产品以及合作伙伴的具体场景中有了广泛的落地实践,让模型应用实现「开花结果」。

此外,通义千问 2.5 赋予了开发者和企业卓越的智能编码能力。

以通义代码大模型CodeQwen1.5为底座的智能代码助手「通义灵码」,它的国内用户规模已经达到了第一,其中插件下载量超过 350 万,每日推荐代码超过 3000 万次,开发者采纳代码超过 1 亿行。同时,正式发布的通义灵码企业版能够基于企业需求进行定制,帮助他们提升编码体系的整体效率。

可以预见,随着通义千问 2.5 的到来,它将成为更强大的模型底座,进而为普通用户、开发者和企业客户提供更多样化、更准确、更快速的生成式 AI 体验。

实战效果

当然,评测数据的高低不能全方面代表大模型的实际效果。接下来,我们从普通用户的角度考验一下模型的能力到底如何。

通义千问网页版地址:https://tongyi.aliyun.com/

输入问题:「我今天有 3 个苹果,昨天吃了一个。现在有几个苹果?」

对于这个问题,假如不细想的话,很可能会给出错误答案 2,但通义千问不但给出了准确的答案,还分析了原因。

自打大模型爆火以来,「弱智吧」就成了检测大模型能力的一项重要指标。我们测试一下通义千问会不会被弱智吧的问题绕进去。

从结果可以看出,通义千问不但给出了原因,还为我们补充了很多相关知识。

通义千问解读笑话也是信手拈来:

接下来我们考察通义千问文本生成能力如何。

通篇读下来,确实很有《红楼梦》风格,连唇膏名字都替我们想好了。

在长文本方面,通义千问也表现突出, 对论文《KAN: Kolmogorov–Arnold Networks 》(论文长达 48 页)的亮点概括非常全面。

在代码方面,我们要求通义千问编写一个打地鼠的游戏,一眨眼的功夫,程序就完成了。

我们接着测试了通义千问对图片的理解能力。比如吉娃娃和蓝莓松饼之间有着惊人的相似之处,大模型经常分辨不出,当我们输入带有两者的图片时,通义千问都能进行很好的区分:

根据 emoji 表情猜成语也不在话下。

生活中遇到了问题,拍张图片上传到通义千问,它也能给出一些指导性建议。

通义千问不仅能够理解图片,还能生成图片。唐代诗人王之涣笔下的《登鹳雀楼》描述的场景被活灵活现的呈现出来了。

以上测试,只是通义千问众多功能中的冰山一角,感兴趣的读者可以前去官方网站一试。

一年时间赶超 GPT-4 Turbo

通义千问做对了什么?

回顾过去的一年,上半年是百模大战,后半年是瞄准 GPT-4 的全面冲刺。在如此激烈的战场上厮杀,并保持自身对于外界的辨识度,即使对于通义千问这样的大厂模型来说也不是件容易的事。

但是,通义千问不仅做到了,还在国内外都建立起了良好的口碑。这不仅得益于其背后团队对于智能极限的探索,也得益于其对开源路线的坚持。

其实,这两者是相辅相成的。我们看到,无论是在开源还是闭源的竞技场上,开发者、企业用户都有很多的模型可以选择,因此,即使是做开源,也要开源最强的模型才有人用。而有人用才会有反馈,这点对于提升开源模型的能力至关重要。

在采访中,阿里云副总裁、公众沟通部总经理张启提到,现在围绕通义千问的开发者社区非常活跃,他们每天会给通义千问的模型开发人员提供非常多有意义的反馈,有很多反馈甚至超出了他们自己原来的设想。这也是为什么通义千问能够在一年的时间内先后超越 GPT-3.5、GPT-4 Turbo 的性能。「开源后,来自全球开发者的真实反馈,对我们模型本身进步发展速度的意义非常重大。」张启说到。

在这种体系下,通义千问的开发人员与企业、开发者之间形成了一种并行探索的关系,有利于进一步挖掘 AI 大模型的潜力。

「如今,有很多开发者、企业能够结合自己的实际开发场景和业务需求,借助 AI 模型实现翻天覆地的变化。在这个时间点,我们希望能够以一个开放的心态,将最先进的技术在各个方面开源,让大家做并行的探索。这对整个产业乃至每个企业的创新性开发都至关重要,并已被全球范围内多次证明其价值。」周靖人说到。

其实,Meta 的成功就是周靖人提到的「证明」之一。前段时间,Meta CEO 扎克伯格在采访中举例说明了自家的 Open Compute 项目如何通过开源服务器、网络交换机和数据中心的设计,最终导致供应链围绕这些设计建立,从而提高了产量并降低了成本,为公司节省了数十亿美元。他们预计 AI 大模型领域也将发生同样的事情。

此外,他还提到,开源有利于减少个别大公司对创新生态的限制。这和周靖人的观点不谋而合。「曾几何时,大家用云计算的时候,最担心的就是上了某家的云之后就被绑定。我们把技术进展以开源的方式展现给大家,也是希望给大家多种选择,让大家没有后顾之忧。」周靖人说到。

从 12 年前的深度学习革命开始,开源对 AI 技术的发展就起着关键性的推动作用。即使到如今的大模型时期,开源依然是推动大模型技术普遍落地应用的有效方式之一。

在我们看来,近一年来通义系列的持续开源,对中文大模型社区的发展非常有意义,也期待后续有越来越多的强劲大模型继续开源。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/886784
推荐阅读
相关标签
  

闽ICP备14008679号