赞
踩
中国生成式人工智能行业进入爆发式增长阶段,2023年以来各类入局企业近500家,整体产业热度上呈现出“应用层 > 模型层 > 数据层 > 算力层”的发展轨迹。其中,应用层直面下游用户,有望依托通用化轻量产品率先大规模落地,垂类模型则聚焦行业定制化解决方案,百花齐放进入发展快车道,两者共同为企业应用方提供了丰富多元的产品组合。此外,基础模型受资金、算力、数据等壁垒限制,预期逐步降温形成10家以内巨头垄断格局;数据要素、云计算、芯片等则将作为基础设施持续受益并加速技术升级。从终局看,国产解决方案未来将主导中国生成式人工智能市场,成为企业应用方的第一选择。
我们认为中国生成式人工智能行业总体上可分为三大类玩家:一是以科技巨头绝对主导的“全栈链主”,拥有从算力、算法到应用端的全面技术能力,综合实力卓越,作为未来基础大模型的潜在垄断者具备整合各类垂类专家的资金与技术基础;二是以应用产品提供商、模型算法开发商及基础设施提供商为代表的细分领域专家,此类玩家通常以各自生态位为基点,利用细分领域竞争优势向其他价值栈环节延伸布局;三是以科研机构为代表的“技术灯塔”,聚焦模型算法本身的前沿研究与创新,不以商业化为目标,追求长期技术进步。
图表2:中国生成式人工智能玩家类型及价值栈布局
// 全栈链主 – 科技巨头
以中国头部互联网公司为代表,依托庞大的数据积累与强势的算力资源支撑率先聚焦基础大模型开发,并以此为起点,借助下游丰富业态和应用场景向垂类模型及应用产品延伸,形成端到端全栈能力。我们认为生成式人工智能,尤其是基础通用大模型是一个资本密集、人才密集和数据密集的产业,而科技巨头是最有潜力打造“数据-模型-应用”增长飞轮、最终实现寡头垄断格局的玩家。伴随以阿里通义大模型为首的基础大模型开源,我们预期科技巨头未来将作为“链主”角色,立足MaaS(Model-as-a-Service)模式培育产业生态,择优整合专业模型、应用产品领域的垂类玩家,以弥补作为规模化企业在细分领域定制化能力不足的短板。
//垂类专家
应用产品提供商:以传统应用软件/SaaS厂商为主,例如金山办公(协作)、小冰(客服)、美图公司(创作)等,聚焦垂直细分场景,利用生成式人工智能技术的赋能提升产品力,快速提升用户体验,是预期最快实现变现的一类玩家。由于技术门槛较低,大批玩家涌入,呈现出“多小散”的行业格局。同时鉴于算法开发商、科技巨头等纷纷向上延伸布局应用端,应用产品提供商未来生存空间或受挤压,需牢牢把握客户积累及细分行业洞察的核心竞争力;
模型算法开发商:主要包括两类玩家——大模型初创公司(例如百川智能、澜舟科技等)和在垂直行业具备深厚数据积累的头部企业(例如商汤、科大讯飞等),多立足自身在人工智能领域的技术能力或数据生态资源锚定几个典型行业或业务场景展开商业占领,同时向上延伸至应用层,蚕食应用厂商份额。其中,我们认为基于行业及数据优势的垂类大模型的玩家前景广阔,可在细分领域抢占先机;
基础设施提供商:基础设施及周边工具提供商在业务基底上与算法、应用环节相距较远,向上延伸情况较少,典型代表为以服务器为主业的浪潮科技和以数据服务为主业的云从科技。以浪潮科技布局通用大模型“源”为例,一方面可利用自身算力优势加速模型训练开发,另一方面与戴尔、联想等非垂直ICT厂商相比,浪潮亦可借此增强在人工智能服务器领域的差异化优势。
// 技术灯塔 - 科研机构
以智源研究院、清华大学、复旦大学等为代表,科研机构聚焦大模型基础性难题突破与技术创新,通过扩大模型参数量、调整模型结构、局部算法优化等方式,不断探索大模型的能力天花板。据统计,2023年中国约37%的大模型由科研机构独立研发。同时凭借学术人才优势,科研机构既是生成式人工智能学术交流的推动者,也是创新企业的孵化者,是国产大模型技术进步的中坚力量。
企业部署AIGC的路径与落地考量
企业在考量AIGC部署方案的选择时,需要结合自身的行业特征和具体诉求来规划选型,使用频次、数据的安全性、算力稳定性、部署成本等都是重要考量因素。目前市场上的大模型应用的解决方案主要有三种模式,分别为订阅模式、定制化部署以及垂类自建模式。
图表3:企业生成式人工智能部署模式
第一类订阅付费模式是目前行业中最普遍的应用形式,既通过调用大模型API接口,帮助企业构建数据知识库,打造企业专属的企业大模型以及基于此模型的终端应用。最典型的应用包括会议助手,翻译助手,设计方案生成应用。
这个模式的特点是需要开发者对企业所在行业的垂直大模型进行定制化微调,设计响应插件,提供算力和服务器等基础设施,供企业通过接口调用。对于企业来说,这是最便利的部署模式,通过调用次数或月租进行付费,而无需管理算力和相关运维,从而节省算力成本和运维成本。
但需要注意的是这类模式下企业的数据需要由模型的供应商进行训练,需要评估数据的安全性要求。另外一个需要考量的风险点是算力的保障,由于完全依赖供应商的算力基础设施,会在调用高峰期存在服务器过载和无法使用的情形。
第二类是基于开源或商业大模型,在本地化部署企业级别大模型。这种方式结合企业私有化数据对参数进行微调,提升模型对企业和行业的理解深度和定制化程度。此模式可以最大限度地维护用户的数据价值,保障数据安全合规,提升访问速度,满足企业的定制化需求,是当下快速成熟的。
在这种模式中,企业可以对自身数据隐私保护更有自主权,同时也使得大模型技术在行业落地中,可进一步根据场景、数据做持续性的落地改造。对于专业性和数字安全性要求较高的行业尤其适用,例如金融、医药、新能源汽车等行业。
本地化部署相对更适合于中型以上企业,这种模式需要持续性的大模型维护,以及算力的租用,对于企业来说有更高的前期投入成本。因此,此类模式更适用于已经拥有运行大模型的一定基础设施,未来有持续拓展和迭代需求,或者训练量和调用量很大且对运营稳定性要求很高的企业。
第三类是垂类模型自建模式,拥有企业专属私有可控的大模型,同时保障大模型100%的安全和所有权。这种模式需要企业基于通用大模型进行全量模型训练,在企业做一个特定行业大模型的私有化部署,结合企业私有数据进行训练,打造垂直领域的专业大模型。
由于需要从0开始构建内部生成式人工智能体系,需要大量的人才与资金投入,部署成本通常在千万至亿元级别。此类模式适合行业复杂、运算量巨大、应用场景丰富的大型公司,尤其是金融,新能源汽车,教育等行业的头部企业,可以基于自身数据壁垒构建更灵活自主的模型,从而更加敏捷地赋能,构建独特的竞争力。
这类玩家需要有非常强大的通用大模型训练能力、强大的算力支持、以及全面而深入的行业认知,目前以细分行业头部企业为主导,例如理想汽车、有道等。此类企业未来或可将自建模型对外产品化,成为行业基础模型的领军者,但同时面临模型算法开发商和科技巨头的竞争。
生成式人工智能应用落地需考量要素
对企业而言,在明确生成式人工智能技术的具体应用场景和布局节奏时应考虑两大关键要素:第一点是价值创造空间,包括效率提升带来的成本节降及创造性成果带来的收益。虽然生成式人工智能技术的应用目前以大B端降本增效为主流,未来将出现越来越多小B端用户为生成式人工智能技术带来的开源和发展能力买单;第二点是验证需求,由于生成式人工智能具有“不可解释性”,生成结果存在偏误风险,因此需要考量针对生成结果需要额外付出的人工审查与验证成本。基于以上两点我们判断,价值创造高、验证需求低的场景与其辐射部门有望作为企业应用生成式人工智能技术的“甜点”(Sweet spot)率先迎来落地。
图表4:生成式人工智能对企业职能的影响波次顺序
尽管生成式人工智能技术的价值创造空间因不同行业各异,综合而言我们认为应用落地的第一波是营销、客户运营与信息技术部门。在这些领域中,搜索、内容生成以及知识对话等基础功能的技术成熟度较高,同时由于生成内容的创意性和自由度较高,验证需求相对较低,可借助生成式人工智能技术替代聚焦文案、客服等岗位,推动传统生产运营模式的颠覆。
案例1
客户服务:截至2023年3月,已有7家领先商业银行(兴业、中信、邮储等)及2家保险公司(泰康、北京人寿)通过接入百度“文心一言”,在智能客服、数字员工、虚拟营业厅等场景率先应用。通过文心一言的跨模态深度语义理解与生成能力,金融机构可进一步探索新型的信息生产、获取方式,向客户提供更及时、更准确、更个性化的金融资讯服务
案例2
智慧营销:领先内容科技公司筷子科技曾通过生成式人工智能技术,帮助名创优品针对全国3000家门店进行本地化营销内容生产与裂变,实现了在2个月内提高内容声量10倍、内容生产效率提效300%的成果。除营销内容生产外,筷子科技亦通过人工智能赋能“生产-投放-管理”各个环节,帮助欧莱雅、宝洁、华为、达能等大型集团客户打造一站式内容智能管理平台
案例3
智慧办公:领先国产协同办公玩家钉钉通过全面接入阿里通义大模型,在现有协同办公功能的基础上,提供对话一键生成PPT/思维导图、文档生文、会议纪要生成、智能回信等功能。此外,钉钉还通过生成式人工智能技术开发出“数字员工”功能,可以企业员工助手的身份进入企业通讯录,以对应的职务权限参与企业组织治理与业务协同,例如替代企业员工参会、总结会议信息等
左右滑动查看更多企业案例
第二波次预计将涵盖人力资源、供应链和生产制造等部门。这些领域在降本增效方面具备较高潜力,但相较营销、客服等场景在生成结果精确度上有所收拢,需要配合一定的人工审查与验证,落地速度较慢。在人力资源部门,生成式人工智能技术将在选人/招聘环节的技术应用最为成熟、预期优先落地,应用场景包括人才与岗位画像生成、智能匹配及推荐、面评生成等。同时,生产制造环节的生产过程控制、产品质检、预测性维护等多个节点也存在巨大提升潜力。此外,供应链部门也可以借助生成式人工智能技术实现更准确及时的需求预测、运输路线规划、仓网布局优化等功能。
第三波次将涉及产品研发、法务/风控及财务部门。这些领域由于高度专业化、容错率较低,验证需求也相对最高,目前技术应用尚未完全成熟。考虑到产品研发在互联网、医药、工业设计等领域价值空间巨大,法务、财务方面的降本增效潜力亦不容忽视,建议企业持续关注相关应用发展动态并积极布局。
企业风险及合规性考量
生成式人工智能的崛起不仅带来了令人振奋的机遇,也引发了一系列道德和风险问题。鉴于此,我们建议企业在积极布局相关技术和应用同时应谨慎行之,重点关注数据来源的合规性、数据隐私的安全性及生成结果的可靠性三大潜在风险,从而更加从容地驾驭这一新兴领域,取得持久商业成功。
// 数据来源的合规性
生成式人工智能模型的开发依赖大量数据收集用于训练和验证,这当中除企业自有数据集外,部分情况下需借助网络数据采集、第三方数据集等途径,这些数据涉及到用户隐私、版权、行业监管等等重要合规问题,需企业使用方及应用或模型提供商严格做好数据来源合规性管控。
// 数据隐私的安全性
使用生成式人工智能服务时,用户不可避免地会将个人或企业内部数据上传至服务器,存在较大的数据及商业机密泄露风险。据调查[1],自ChatGPT推出以来,至少有4.7%的员工将企业敏感数据输入其中,占总输入内容的11%。例如在2023年3月,韩国三星集团发生了三起由ChatGPT误用导致设备信息和会议内容泄露的案例,其中涉及半导体设备测量资料、产品良率等内容或已被存入人工智能模型的学习资料库中。
面对ChatGPT日益暴露出的数据风险,下游使用方/企业方可采用以下三种方式尽可能规避数据外泄:
第一,利用软/硬技术手段。一方面企业可通过私有化部署数据服务器,确保数据资产的物理安全;另一方面也可要求模型算法提供商引入隐私计算技术,有效规避数据泄露或不当使用的风险[2]。目前隐私计算技术已在医疗、金融、政务等高数据敏感领域成熟应用,其联邦学习(FL)、可信执行环境(TEE)、多方安全计算(MPC)等技术都可以与大模型进行结合规避潜在数据泄露风险。近期,领先互联网企业及第三方服务商纷纷推出“隐私计算+生成式人工智能”解决方案,为企业应用生成式人工智能的大规模落地提供技术支撑;
第二,加固安防基础设施。为生成式人工智能系统建立包括防火墙、入侵检测、防御系统等组件构成的网络防御体系,并及时为各类子系统更新安全补丁;
第三,规范企业内部使用。建立企业分级数据库,制定企业生成式人工智能系统治理制度,明确相关安全管理岗位及职责,并向员工合规使用生成式人工智能提供培训,切实防范隐私泄露事故。
// 生成结果的可靠性
此外,由于生成式人工智能具有“黑箱”性质,存在由于模型训练数据有偏、理解推理不足、监督训练误导、细分领域知识有限等原因,出现虚假信息或结果偏倚的情况。面对这一风险企业应重点“把握两端”,在输入侧尽量提升训练数据的质量与可靠性,可借助数据服务或内容安全审核产品过滤不良内容与垃圾信息;在输出侧,企业应特别在对信息准确性和可靠性要求严格、容错率低的领域中加强人工审查,避免依赖输出结果直接采取行动,审慎防范信息偏误带来的高风险。
案例4
2023年8月,领先隐私增强服务商冲量在线为浦发银行构建了基于可信执行环境(TEE)的人工智能模型SaaS服务平台,将其OCR、NLP、图文类等多种大模型能力迁移至机密计算节点中,通过API对外开放服务。例如在合同对比场景下,当用户需要通过该平台对合同进行分析处理时,可利用加密方式将合同传输至隐私计算TEE节点中,实现对用户数据的不接触、不储存及安全计算,有效解决了银行基于大模型的SaaS服务中面临的隐私与安全问题。
案例5
在医疗领域,领先互联网医疗企业春雨医生在利用大模型赋能在线问诊的同时,仍保留医生作为“把关人”的角色负责问诊结果的最终审核,将传统“人-人”的模式升级为“人-模型-人”的架构,兼顾效率与质量的提升。
左右滑动查看更多企业案例
结语
企业在思考生成式人工智能的部署路径时,需自上而下以清晰的战略规划为牵引,明确生成式人工智能可产生价值的业务场景,并通过升级企业技术支撑、打造适配性的团队、建立风控体系与机制,确保生成式人工智能对企业的真正赋能,推动生成式人工智能应用的稳定和可持续发展。
注:
[1] Cyberhaven, “11% of data employees paste into ChatGPT is confidential” (2023).
[2] Chen, Chuan, et al. "Challenges and Remedies to Privacy and Security in AIGC: Exploring the Potential of Privacy Computing, Blockchain, and Beyond." arXiv preprint arXiv:2306.00419 (2023).
- ```python
- class BertPooler(nn.Module):
- def __init__(self, config):
- super().__init__()
- self.dense = nn.Linear(config.hidden_size, config.hidden_size)
- self.activation = nn.Tanh()
-
- def forward(self, hidden_states):
- # We "pool" the model by simply taking the hidden state corresponding
- # to the first token.
- first_token_tensor = hidden_states[:, 0]
- pooled_output = self.dense(first_token_tensor)
- pooled_output = self.activation(pooled_output)
- return pooled_output
- from transformers.models.bert.configuration_bert import *
- import torch
- config = BertConfig.from_pretrained("bert-base-uncased")
- bert_pooler = BertPooler(config=config)
- print("input to bert pooler size: {}".format(config.hidden_size))
- batch_size = 1
- seq_len = 2
- hidden_size = 768
- x = torch.rand(batch_size, seq_len, hidden_size)
- y = bert_pooler(x)
- print(y.size())
- ```
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。