赞
踩
在ChatGPT走红之后,国内有很多的媒体和人一下子慌了神。特别是自媒体上,铺天盖地的都是说“为什么中国没有诞生ChatGPT”、“美国将要爆发一场新的技术革命”之类的文章。很多的一些研究机构和企业都宣称,我们马上就要推出自己的ChatGPT了。还有很多人觉得,ChatGPT给自己带来了新机会。(嘲讽)
但是,实际上,要实现一个ChatGPT既不必要,也不可能。为什么呢?不必要性,我们后面会慢慢展开讲。这一讲,先来谈谈不可能性。
我们前面讲到,ChatGPT的核心是语言模型,而语言模型是需要用大量的数据来训练的,有了数据后,还需要强大的算力支持,然后还需要有足够高水平的并行计算和机器学习的算法支持。数据、算力、算法三道坎,只有极少的互联网超级大厂能够越过去。
接下来我们分别从数据、算力和算法这三个方面来看看。
早期的语言模型算法非常简单,主要是基于文本的统计和简单数学公式,用于计算词在不同上下文条件下的概率,并预先保存这些信息。然而,随着人们意识到简单统计无法覆盖所有语言现象,尤其是之前未见过的现象,开始着手深度挖掘语言中的语法和语义信息,这需要更大的计算量。
具体来说,计算量需要增加100万倍到1亿倍是合理的估计。虽然摩尔定律让计算成本逐渐下降,但人工智能的要求和所需算力不断提高,算力始终是一个瓶颈。
为了开发复杂的语言模型,研究者们甚至争取到了美国国家科学基金会(NSF)和美国国防部的经费支持,并获得了大量超级服务器的帮助。今天的ChatGPT采用的语言模型参数数量是早期模型的10万倍,比Google构建的模型大了1000倍。开发它所需的算力甚至可能是上百亿倍。
例如,开发GPT-3时,公司OpenAI的硬件成本超过了一亿美元,使用了约10万个GPU,提供超100PFLOPS(PFLOPS每秒所执行的浮点运算次数)的算力。这样的资源投入使得它可以为用户提供高质量的服务,但近期还不得不关闭付费用户的注册,以节约计算资源。而GPT-4的开发则需要更多的计算资源,包括使用了微软云计算的大量计算资源。
总之,训练语言模型需要强大的算力,这是ChatGPT成功的关键部分。
最直观的例子,你想让计算机回答问题,至少要让它懂得问题。你要想让它从上千亿的文本中知道哪些可能是答案,需要做到问题和答案的匹配。这个工作不是一年半载就能完成的。
今天,很多机器学习的算法已经开源了,有些应用已经有公司和研究机构投入科研力量开发过,比如基本的图形识别和语音识别技术,但是深度的自然语言理解其实还不属于这个范畴。在这些领域所具有的技术积累,其实也是一种资源。
有一些公司和研究机构在这个领域长期投入,拥有技术积累,比如:Google、微软,中国的百度、字节跳动等,它们或许能在较短时间内做出类似ChatGPT的产品。但是对于没有足够技术资源的人来说,跟风ChatGPT很可能是无知者无畏或纯粹的炒作。
今天,训练语言模型用到的机器学习算法要复杂很多。
2010年的时候,Google推出了一个基于云计算平台深度学习的工具——Google大脑。采用这个工具,语言模型的效果可以大幅提升,在其它条件不变的情况下,语音识别和机器翻译的相对错误率可以降低10%以上。深度学习的基本算法和支持它的基础架构,已经是智能化的数据中心,有些地方也称之为“智算平台”的标配。如果只是用一个由处理器,包括GPU,堆砌起来的数据中心训练语言模型,得到的结果会差很多。
综上所述,训练语言模型的三个限制分别是数据、算力和算法。所以,要实现一个ChatGPT,并不是简单的事情,需要巨大的资源支持。而对于一般企业或个人来说,可能并不具备这些条件,所以盲目跟风可能并不明智。
总结一下:训练语言模型的三个限制,分别是数据、算力和算法:
1、数据:训练语言模型所需的数据量是极其庞大的。不是每个企业都能得到所有的这些数据。
2、算力:随着时间的推移,人们对人工智能的要求也在不断提高,需要的算力也在不断增加。
3、算法:除了算力之外,基础的自然语言处理技术,也就是算法,也是实现ChatGPT这些产品必不可少的条件。
[我耀学IT]:Patience is key in life
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。