赞
踩
临近2024年关,也到了2023年的总结时刻。
如果要问AI领域,2023年最不缺的是什么?“大模型”当仁不让。
那AI领域,2023年最缺的又是什么?一个答案可能是“卡”,但“卡”的问题,毕竟已有多种解决办法或者替代方案;另一个答案便是“应用”了,特别是基于大模型的AI原生应用。
而AI原生应用之所以匮乏,很大程度上一方面在于AI应用场景有待进一步激发,另一方面在于支持AI原生应用开发的资源和工具能否给力。
如何让开发者更专注于探寻AI创新应用场景,而不必焦虑于开发AI原生应用技术本身?
12月20日,在主题为“重构云计算·CLOUD FOR AI”为主题的2023百度云智大会·智算大会上,百度智能云给出了它的AI原生应用开发解法——百度智能云正在基于“云智一体”战略重构云计算服务,目前已完成从底层基础设施—大模型开发与应用—AI原生应用开发的端到端升级重构:全面升级百舸等20多个云计算基础设施、千帆大模型平台再升级、AI原生应用开发工作台“千帆AppBuilder ”全面开放。
“AI原生时代开启,大模型正在驱动云计算产业创新变革。”百度集团副总裁侯震宇表示:“大模型重构云计算主要体现在三个层面:AI原生云将改变云计算的格局,模型即服务(MaaS )会成为新的基础服务,AI原生应用催生新的研发范式 。”
百度集团副总裁侯震宇
侯震宇表示,总体来说,构建繁荣的A原生应用生态,需要大模型、智能算力、AI原生应用研发新范式三要素相辅相成。大模型是AI原生应用的“大脑”,智能计算则为A原生应用运行提供坚实支撑,新研发范式助力开发者高效基于大模型能力开发应用。数据飞轮是成功的AI原生应用的充分必要条件,让大模型能力高速迭代,产品体验持续进步。
AI原生时代,面向大模型的云计算基础设施体系将全面重构。大会现场,百度智能云密集发布和升级了20多款云计算产品,涵盖智能计算、通用计算、数据基础设施、分布式云等领域。
在智能计算方面,发布百度百舸·AI异构计算平台3.0,针对AI原生应用以及大模型的训练、推理等环节进行了专项优化。百舸3.0在稳定、高效、易运维三个方面大幅升级产品能力,实现万卡级别任务有效训练时长达到98%以上,带宽有效性可达 95%。相比自建智算基础设施,可以实现模型训、推吞吐分别最高提升30%和60%。
百度百舸3.0发布
同时,针对AI原生时代智能算力的供给平衡问题,百度智能云发布智算网络平台。在算力资源层面,智算网络平台支持将百度及第三方建设的智算中心、超算中心、边缘节点等智算节点进行全域接入,将分散和异构的算力资源连接起来,形成统一的算力网络资源池,再通过百度自主研发的算力调度算法,智能分析各类算力资源的状态、性能和利用率等指标,统一调度算力,让智算资源灵活、稳定、高效地交付给有需求的用户,实现智算资源的“南水北调”。
在通用计算方面,计算、存储、网络等云原生基础设施也需要面向AI原生时代重构升级,提供更具弹性、高性能和智能化的运维能力。本次大会,百度太行·计算新增了三款计算实例:全新推出第7代(通用计算型)云服务器实例G7,综合性能较上一代产品提升10%;发布昆仑芯弹性裸金属实例NKL5,搭载了百度自研的昆仑芯R300加速处理器,在大模型推理场景综合性能较业界主流加速卡可提升达50%;发布基于昇腾910B加速处理器打造的弹性高性能计算实例NH6T,在大模型训练场景中,综合性能较业界主流加速卡提升可达40%。同时,高性能计算平台CHPC(Cloud HPC)正式发布,为用户提供的一站式公共云 HPC 服务。在资源使用层面,CHPC支持用户一键创建高性能计算环境,并根据业务变化灵活使用云上资源;在业务应用层面,CHPC支持集成药物研发、基因测序等行业的应用。此外,结合集成在 VPC 内的百度网盘等服务,用户可以轻松实现HPC源文件从提交、上传、处理、结果回传,到分发的数据全链路打通,助力研发提效。
在数据基础设施领域,正式发布百度沧海·存储,统一技术底座,能够支持各类存储产品,同时满足AI原生时代的大规模、高性能、低成本的存储要求。全新升级的对象存储BOS、云磁盘CDS、并行文件存储PFS等产品,面向数据湖存储和AI存储能力进行了全面增强,加速智能计算,释放数据价值。同时,正式发布云原生数据库GaiaDB 4.0,增强并行查询能力,突破单机计算瓶颈,实现跨机多核并行查询,在混合负载和实时分析业务场景中性能提升超过10倍;针对不同的工作负载推出列存索引和列存引擎,提升不同规模数据的查询速度,其中列存引擎最大可支持 PB 级数据的复杂分析,并且与事务处理业务严格复杂隔离;通过共识协议优化、链路优化、自适应动态回放存储多版本等一些列数据流深度优化,大幅提升GaiaDB整体性能60%以上。
在分布式云方面,升级边缘计算节点BEC产品能力,打造全球统一的边缘计算网络和产品体验,打造AI原生应用时代能力最完善的“云边一体”;发布专有云ABC Stack新能力,支持本地部署百度智能云千帆大模型平台;发布本地计算集群LCC新能力,支持全新一代CPU/GPU实例以及完整的百度智能云AI&HPC集群管理能力,进一步丰富完善基础设施与云产品支持能力矩阵。
在AI原生时代,大模型将作为新的通用服务能力,由模型即服务(MaaS)平台提供给广大用户。百度智能云千帆大模型平台(以下简称“千帆平台”)作为业界领先的MaaS服务平台,预置了包括百度文心大模型在内的、国内最多的54个主流基础大模型和行业大模型,还为大模型的持续预训练、精调、评估、压缩和部署等环节提供最完善易用的工具链,帮助客户针对自身业务场景快速定制专属大模型。相较于自建系统训练大模型,使用千帆平台训练的成本最高可以下降90%。
百度智能云千帆大模型平台
目前,千帆平台已经累计服务超过40000家企业用户,精调近10000个大模型。本次智算大会,针对客户应用大模型最关心的“提效”和“降本”两大核心诉求,千帆平台发布一系列全新功能。
在数据方面,千帆平台提供完善、高效的大模型数据管理工具链,包括数据采集,清洗、自动标注、自动增强与推理数据多位评估等功能,助力用户快速构建自身业务“数据飞轮”,实现反馈驱动增长。全新发布的数据统计分析、数据质量检查等功能,支持用户获取全方位的数据洞察信息,结合数据清洗可视化Pipeline,能够构建出面向大模型场景的高质量数据燃料,为大模型训练“保驾护航”,千帆也因此成为国内首个支持大模型多方位数据分析的MaaS服务平台。
作为模型部署上线前的“最后一公里”,模型评估能够对大模型的输出效果、计算性能等进行全方位评估,确保大模型上线后AI原生应用的效果稳定可靠。千帆平台创新性地引入自动化与人工结合的双重评估机制,充分发挥双方优势,大幅提升模型评估效率与质量。一方面,百度文心大模型作为AI裁判员,能够对被评估模型的回答进行自动化打分,极大程度地减少海量重复性人工作业;另一方面,由数据标注员/业务专家对大模型回答进行打分,则能够实现对大模型回答质量的精细化衡量。
此外,千帆平台灵活的计价方式,如Tokens(适用灵活性要求较高的业务)、TPM(Tokens per Minute,适用于较大并发量业务)、批量计算(适用于离线内容生产等对实时性要求较低,吞吐较大的任务)、算力单元(适用于需要专享硬件部署模型的客户)等,可以轻松满足客户的多种业务场景需要,助力企业低成本用好大模型。
为了满足企业敏捷、高效地进行AI原生应用开发的需求,降低AI原生应用开发门槛,百度智能云千帆AppBuilder正式开放服务。
AppBuilder将大模型开发AI原生应用的常见模式、工具、流程,沉淀成一个工作台,帮助开发者聚焦业务本身,而无需为开发过程牵扯多余精力。具体来讲,AppBuilder主要由组件、框架两层服务构成。
“组件”服务由多模态的AI能力组件(如文字识别、文生图等)、基于大语言模型的能力组件(如长文总结、nl2sql等)、基础组件(如向量数据库、对象存储等)三部分组成,是对底层服务能力的组件化封装,让每个组件完成一个特定的功能。
“框架”服务则是通过将上述这些组件有选择地串联、组合起来,让它们能够比较完整地完成一个特定场景的任务。目前,AppBuilder提供的检索增强生成(RAG)、智能体(Agent)、智能数据分析(GBI)就是常用的AI原生应用框架。
AppBuilder提供两种产品形态,代码态与低代码态。对于有深度AI原生应用开发需求的用户,AppBuilder代码态提供包括SDK、开发环境、调试工具、应用示例代码等各种开发套件和应用组件;而AppBuilder低码态则提供可视化工具,用户只需简单点选,即可快速定制、上线AI原生应用。
百度智能云千帆AppBuilder
百度创始人、董事长兼首席执行官李彦宏认为,繁荣的AI原生应用生态,会驱动经济增长。今年10月,百度智能云推出了国内首个大模型全链路生态支持体系,为合作伙伴提供包括赋能培训、AI原生应用孵化、销售商机、市场营销等全方位的支持,致力于繁荣AI原生应用生态。
侯震宇预判:“真正非常闪耀的AI原生应用会在2024年诞生,2024年将成为AI原生应用的元年,迎来AI原生应用的爆发式增长。百度智能云将持续推出有竞争力的产品方案,与伙伴一起深耕客户应用场景,让更多的AI原生应用创新涌现。”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。