当前位置:   article > 正文

企业应对大模型的策略及方法_大模型落地需采用什么策略

大模型落地需采用什么策略

随着ChatGPT的持续炒热,For to B的大模型也推到了风口浪尖。未来大模型的赛道将转向to B的大模型,企业更应关注的是:如何站在通用大模型的肩膀上,基于自身的业务和数据打造出独特的行业大模型,从而获得差异化竞争力。

一、大模型会向垂直化、行业化、企业化,甚至个人化发展

大模型的战事,已经开始从通用大模型,迅速卷向面向垂直领域的行业大模型。正如李彦宏所说:“未来所有的应用都将基于大模型来开发,每一个行业都应该有属于自己的大模型,大模型会催生AI原生应用。未来需要用AI原生思维重构所有的产品、服务和工作流程。”

二、为什么to B 大模型会成为下一个风口呢?

其一通用大模型的能力限制。当大模型发展到一定阶段,很多企业发现,通用大模型虽然具备涌现的能力,但如果原始数据里一点行业数据都没有,那它对行业理解还是会存在局限性,其通用能力已无法承载更为专业的to B,比如医疗、金融等。每一个行业都是独立的知识体系,具备极为庞杂的知识量,有大量沉默的行业数据,这些数据的价值,仅靠通用大模型无法满足垂直领域的需求,只有通过行业大模型才能激活并发挥出来。企业在自己擅长的行业训练适合自己的行业版大模型,这类大模型生成的内容会更符合特定垂类场景的需求,质量更高。

其二行业大模型的成本优势从成本方面考量,通过通用大模型微调实现的行业大模型相较通用大模型是“几何级别的下降”。根据某证券的测算,在模型微调阶段,由于训练量级较小,仅为万级,相关的算力成本相比之下可忽略不计。

第三方市场调研机构Gartner在2022年4月的一组数据显示,中国软件支出在IT支出中的占比仅为4.9%。相比之下,全球市场软件支出在IT支出中的占比为15.2%。中国IT支出结构特征就是硬件大于软件,定制化大于产品化。

其三中国数字化市场不像美国以公有云为主,而是公有云、混合云、私有云并存。这在SaaS/PaaS软件发展阶段就出现了明显分岔。这种分叉将会延续到了AI模型市场,定制化/私有化需求会占据较大比重,尤其在政府、金融、制造等市场。

最后大模型信息安全的考量当前在海外市场,部分政府、金融机构、电信运营商、制造企业甚至是科技公司已经明确禁止或限制员工在工作场合使用ChatGPT等大模型产品。其中包括苹果、三星、摩根大通、花旗银行等知名企业。理由通常是,担心专利或机密资讯泄密、客户资料外流。

三、to B 大模型的主要挑战

相对于通用大模型,虽然打造行业大模型的门槛和成本大大降低,但还是存在不少挑战。

1、开源大模型不太给力。行业大模型是在通用大模型基础上进行微调训练或通过提示词工程得到的,因此通用大模型的质量是行业大模型成功的基础,基于大多企业私有化部署的需要,私有化部署的通用大模型有三种实现方式:第一、直接引入开源大模型,比如chatGLM。第二、购买商业化的大模型。第三、基于行业数据微调开源大模型。但根据我们的测试和判断,当前的各种开源大模型(未开源的不得而知)离OpenAI的GPT3.5还有相当大的差距,基于这些开源大模型打造的行业大模型基本不可用,同时微调领域大模型需要企业有较高的技术能力,这进一步抬高了行业大模型的门槛。

2、缺乏高质量的行业数据。大模型强调垂直领域的Know-How,基础是行业大数据。在质量方面,要求行业数据具有权威性,比如金融领行业,一个信息的错误可能对征信带来截然相反的判断,在规模方面,要求保证质量的前提下,训练数据量越大,推理能力就越强;在多样性方面,要求训练数据集尽可能丰富、全面,能够提高模型泛化能力,过于单一的数据会非常容易让模型过于拟合训练数据;在及时性方面,要求实时更新的数据尽快得到利用。很多传统企业或数字化刚起步的企业,大量语料数据都是非结构化的,散落在各个不同部门,没有什么现成的行业语料数据可供训练,行业数据的记录、盘点、采集、清洗和转化成为了前提条件,这实际上考验着企业的数据治理水平。如果贸然将未经筛选和处理的数据直接给大模型,则会严重影响行业大模型的训练效果。

3、缺乏快速落地的硬场景。

现在搞行业大模型的厂家一个接着一个,但就目前来看,大多其实都还停留在讲概念、讲技术的阶段,好一点的在提炼需求,积累数据,还有一些虽然处于进行内部测试或项目定制的阶段,但离真正的商用距离很大。要做好行业大模型,企业一方面要能找到合适的业务场景,从逻辑上讲,行业大模型一定会是在精度相对较低、容错率较高的行业先引用,再到精度要求高的地方去。另一方面还需整合AI、数据、技术等关键生产要素,这非常考验企业对大模型的认知水平、技术能力和组织能力。企业也许应该成立一个大模型部门来专门推进,尽快在具备刚需的应用场景落地,形成自我造血的良性循环,不断自我进化、修正和完善。

四、To B 大模型的实现路径

在当下的情况下,出于对成本、进入门槛和速度等的考虑,“开源大模型+自研小模型+垂直语料” 大概率会成为接下来一个行业大模型的实现路径。一方面,从事大模型开源的可能会越来越多;另一方面,在开源大模型的基础上去调试自己的行业大模型,会成为一个主流。基于开源大模型做行业大模型的企业,在尽可能跟市场上这些开源大模型结合的同时,也要解耦。第一种方案是用提示词的形式来对接,耦合度很低的,随便换一个模型,一下就能换掉。例如ChatGLM+LangChain的方案,共分为五步:

1、搜集领域数据:把领域的相关文档资料进行收集,并转成文本文件2、切分领域文本:把领域内容拆成一块块的小文件块,因为我们希望只向大模型传递最小的、最相关的文本块

3、创建嵌入文本:为每一块文本创建嵌入,并将它们存储在一个向量数据库中。这样就可以使用这些嵌入来查找与问题最相关的文本块。

4、查找嵌入文本:这个时候就可以接受行业输入了,即Query,将这个问题转化成词嵌入的向量,然后查询前面的领域向量数据库,找到最相似的K个向量和对应的K个文本块。

5、调用大模型回答:将K个相关的文档和问题作为上下文输入大模型,大模型就可以生成了一个结合了上下文的回答,这种回答不仅带有了行业的知识能力,而且能用人话给予回复。

以上方法不需要对大模型做任何变更,仅通过构建与问题相关的上下文来直接调用大模型,大模型再结合以前训练的知识库去做归纳、总结、推理,这是一种非常轻量化的实现方法。

第二种方案是基于行业数据对大模型进行fine-tuning,这样做的代价比较大,因为fine-tuning会尝试优化所有的参数,还可能导致模型过多的拟合。

第三种方案则是引入第三方模型服务,即MaaS,由于以上两种方法对企业的技术能力都有较高的要求,因此可以尝试借助外部力量。当前很多企业都把MaaS当为了行业大模型的新赛道。企业可以在这些内置行业大模型基础上,加入自己独有的场景数据,快速生成自己的专属定制大模型。MaaS同时也提供了大模型工具链和配套服务,包括数据标注、训练、测试、评估、部署等全套工具,助力企业快速精调大模型。

未来能把行业大模型搞成功的,一定是那些拿到了高质量的领域数据,找到了最刚需业务场景的企业,就可以抽象成行业大模型,从而找到对外商业化的机会。通用大模型作为行业大模型的基础,虽然很重要,但未来一定是基础设施般的存在,不会成为企业大模型的胜负手。

五、to B 大模型的发展策略及趋势

应该强化顶层设计,加强统筹协调和系统布局,加快构建政产学研用的良性互动创新生态,要推动项目、基地、人才、教育等各类政策相互协调配合,更好地发挥作用。

大模型的市场未来到底多大很难把握,它最小将是所有软件,最大可能将代表着人类所有的努力。

AI 2.0时代大模型的出现可以解决这些瓶颈障碍,人们用超级巨量数据训练具有跨行业知识的单一大模型,微调后就可以执行五花八门的任务。这是一个全新且巨大的平台机会,所有的应用和界面都要重写,AI 2.0应用会进入爆发期。

大模型最终会成为未来社会的一种基础设施,其提供“智力”能力,输送给千行百业和千家万户。因此,人工智能进入大模型时代之后,会形成一个体系化的产业生态。

未来的AI 2.0时代会有三大生态层:基础模型层、中间层和应用层。“以大模型为代表的AI 2.0市场规模巨大,足以容纳巨头、中小企业和初创公司在里面‘赛马’。

企业需要构建下一代云化的数字平台,一个从算力开始往上管理的全栈式的混合云企业级人工智能平台。

企业应用大模型和生成式 AI 所面临的挑战,例如,AI 训练的算力成本挑战、安全与可信 AI 的挑战、技能与文化的挑战等等,如何让企业级 AI 在商业环境中的应用可以快速普及等。

IBM 提出的人工智能阶梯 (AI Ladder) 的方法,从数据的收集、组织、分析、融合四个步骤为企业规模化部署AI奠定基础等对我们应该有所借鉴。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】

推荐阅读
相关标签