赞
踩
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效率提升,AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。
近日,百度创始人、董事长兼首席执行官李彦宏在央视《对话》·开年说节目中表示,在中文上,文心大模型4.0已经超过了GPT-4。这话一出,网友们纷纷炸开了锅,更有很多网友开启了炮轰模式。有网友表示自己的中文水平已经超过马斯克、爱因斯坦。也有网友替GPT感到累,表示GPT-4一周就能被超越好多次,先是欧洲大模型Mistral Large,然后是刚发布的Claude 3,现在是百度文心一言。
我之前也做过不少关于AI对话工具的介绍和测评了,包括国内AI工具的对比,以及国内AI工具和国外AI工具的对比,国内AI工具包括:百度文心一言,阿里通义千问,讯飞星火大模型,天工,智谱清言,以及Kimi Chat;国外AI工具包括:ChatGPT,谷歌Gemini,Claude,微软Copilot,以及字节的Coze等等。感兴趣的朋友可以关注公众号,翻看一下之前的文章。客观的来说,百度作为国内AI领域的领头羊,国内LLM大模型最早的玩家之一,文心一言肯定是有它的可取之处的;但有没有超过GPT-4,个人感觉没有。
插个题外话,对于国内的AI工具,从测评结果和使用体验来看,目前有2个比较推荐,阿里通义千问和月之暗面的Kimi Chat(这两家公司看到这篇文章请给我打钱...)。前者的综合能力不输文心一言,后者的长文本支持和长对话记忆很突出(20万汉字上下文)。详情可以看我的测评文章。
接下来我们就从几个方面来深入了解和探讨一下百度文心一言和OpenAI的ChatGPT这两个AI工具。
数据是模型学习的基础,是决定其表现的关键因素。数据量的大小直接影响模型的泛化能力,而数据质量则决定了模型输出的准确性和可靠性。数据对于LLM来说,就像是其成长过程中的养分。模型通过大量的数据学习语言的规则、模式和细微差别。数据量越大,模型接触到的语言样本越丰富,其理解和生成语言的能力就越强。例如,一个训练有素的模型能够理解双关语、成语或特定文化背景下的表达,这些都是基于对大量多样化文本的学习。
高质量的数据集意味着数据的准确性和清洁度。错误或有偏见的数据会导致模型学习到错误的信息,从而影响其表现。多样化的数据集则包括了不同领域、不同风格和不同时间的语言样本,这有助于模型更好地理解语言的多样性和复杂性。例如,一个包含科学论文、文学作品、日常对话和网络用语的数据集,将使模型能够适应各种语言环境和任务。
在训练数据来源上,文心一言作为中文领域的LLM,其训练数据集很可能包含了大量的中文文本,这使得它在理解和生成中文内容方面表现出色。而GPT-4作为全球性的语言模型,其数据集可能更加国际化,包含多种语言和广泛的主题,这使得它在处理多语言任务和跨文化内容时具有优势。
就数据量而言,百度和OpenAI官方均没有公布准确的训练数据集的大小,网上能查到的和与文心一言、ChatGPT对话得到的训练数据量只能是作为参考。根据网上能查到的信息,文心一言的训练数据集大小在4T左右,而ChatGPT是570GB-45TB。单就中文来说,百度毫无疑问有着更加优良的土壤,拥有更加庞大的中文语料库,这也是为什么谷歌Gemini会把自己当成是“百度文心一言”的原因。这是文心一言的一大优势,也是为什么李彦宏在和GPT-4做对比时加上了“中文”这个限制条件。
但值得一提的是,就数据质量而言,百度使用的中文语料质量肯定是比不上ChatGPT的多语言(尤其是英语)语料质量的,部分原因在于英文作为国际学术界的主导语言,承载了大量顶尖的学术成果和研究文献。同时,英文也是社会科学领域和编程界的主要交流工具,这使得基于英文的语料库在广度和深度上拥有显著优势。
客观来说,在数据这个方面,百度文心一言和ChatGPT打的有来有回。
模型架构是LLM的骨架,它决定了模型如何从数据中学习和处理信息。不同的架构设计决定了模型在理解和生成文本时的效率和能力。在众多架构中,Transformer架构因其强大的并行处理能力和对长距离依赖关系的捕捉而成为自然语言处理领域的核心技术。
模型的层数和参数数量是衡量其复杂度和学习能力的重要指标。层数越多,模型的深度越大,理论上能够捕捉更复杂的特征和更深层次的语言规律。参数数量则代表了模型的表达能力,参数越多,模型在训练过程中能够学习到的信息就越多,从而提高其性能。然而,增加层数和参数数量也带来了计算成本的提高和过拟合的风险。
文心一言大模型基于百度自研的ERNIE架构。ERNIE全称为Enhanced Representation through kNowledge IntEgration,是百度研发的预训练语言模型。ERNIE是一种改进版的BERT模型,相比于传统的基于规则或模板的方法,ERNIE通过自监督学习从大量无标注数据中学习语言的表示,从而提升了自然语言处理的性能。文心一言大模型可能专门针对中文语境进行了优化,以更好地处理中文的语法和语义特点。
OpenAI的GPT系列模型则采用了Transformer架构,这是自GPT-2以来OpenAI一直使用的核心技术。Transformer架构的自注意力机制使得模型能够有效地处理长距离依赖关系,这对于理解和生成自然语言至关重要。
参数方面,百度并未公开文心一言大模型具体的参数数量,但根据网上公开的数据显示,鹏城-百度·文心(模型版本号:ERNIE 3.0 Titan)模型参数规模为2600亿。对比而言,GPT-3拥有1750亿个参数,GPT-4参数规模则是达到了惊人的1.76万亿,是目前世界上参数规模最大的LLM,没有之一。
在模型参数这个方面,GPT-4完胜。
训练策略和优化技术是提升LLM性能的另一关键因素。它们决定了模型如何从数据中有效学习,并在实际应用中达到最佳表现。训练策略包括但不限于学习率调度、正则化方法、优化算法等,这些都对模型的泛化能力和避免过拟合至关重要。有效的训练技术可以提高模型的学习效率,减少所需的计算资源,同时也能提升模型的最终表现。
文心一言在训练策略上可能采用了特定的技术来优化中文语境下的表现,如针对中文的分词、语义理解等进行特别调整。此外,百度可能利用了其在深度学习框架飞桨(PaddlePaddle)上的优势,进行了针对性的优化,以提高训练效率和模型性能。
GPT-4则可能使用了更为先进的训练策略,如使用更复杂的学习率调度策略和正则化技术来处理其庞大的参数规模。OpenAI在训练GPT-4时可能采用了大规模的分布式训练,以及最新的优化算法来确保模型的稳定性和效率。
在训练策略与优化方面,由于缺乏具体的内部信息,难以直接比较两者的优劣。但可以推测,由于GPT-4的参数规模远超文心一言,其训练策略和优化技术也需要更为复杂和先进,以支撑如此大规模模型的训练。
最终,LLM模型的表现还需要在实际应用中得到验证。不同的应用场景对模型的要求不同,模型在特定任务上的表现也是衡量其成功与否的重要标准。
ChatGPT的影响力不必多说,自2022年11月30日推出以来,仅五天内就达到了100万用户,迅速成为历史上增长最快的消费软件应用之一。截至2024年1月,它已经吸引了超过1.8亿用户和1亿周活跃用户,超过92%的《财富》500强公司正在使用ChatGPT。在整个2023年,在全世界前50大AI工具中,ChatGPT以140亿次访问量遥遥领先,占分析流量的60%以上。
文心一言方面,根据网上公开信息,在2023年12月28日下午的百度WAVE SUMMIT+深度学习开发者大会上,百度首席技术官王海峰表示,自8月31日面向社会开放,文心一言用户规模当前已超过1亿,日提问量快速增长。但根据Similarweb的数据,从2023年11月至2024年1月,文心一言的用户访问量依次为1350万、1590万、1510万,而ChatGPT的用户访问量则保持在约16亿左右。当然,这有部分原因是文心一言的用户主要集中在中国,而ChatGPT的用户分布在全世界范围。但不可否认的是,如果百度公布的用户量是正确的,那么文心一言的用户活跃程度是远远小于ChatGPT的用户活跃的。
在实际表现方面,ChatGPT完胜。
行不行,还是要看实际表现,以我之前的一篇测评文章作为本文的结论:
文心一言4.0 VS ChatGPT4.0哪家强?!每月60块的文心一言4.0值得开吗?
都读到这里了,点个赞鼓励一下吧,小手一赞,年薪百万!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。