当前位置:   article > 正文

【国内超大型智能算力中心建设白皮书 2024】_智算中心算力规划

智算中心算力规划

文末有福利!

智算中心建设通过领先的体系架构设计,以算力基建化为主体、以算法基建化为引领、以服务智件化为依托,以设施绿色化为支撑,从基建、硬件、软件、算法、服务等全环节开展关键技术落地与应用。

一、体系架构

(一)总体架构

图8 智算中心总体架构

智能算力中心建设白皮书,重点围绕基础、支撑、功能和目标四大部分,创新性地提出了智算中心总体架构。

其中,基础部分是支撑智算中心建设与应用的先进人工智能理论和计算架构;支撑部分围绕智算中心算力生产、聚合、调度、释放的作业逻辑展开;功能部分提供算力生产供应、数据开放共享、智能生态建设和产业创新聚集四大平台,以及数据、算力和算法三大服务;整体目标是促进AI产业化、产业AI化及政府治理智能化。

(二)技术演进

智算中心的发展基于最新人工智能理论和领先的人工智能计算架构,算力技术与算法模型是其中的关键核心技术,算力技术以AI芯片、AI服务器、AI集群为载体,而当前的算法模型发展趋势以AI大模型为代表。

在此基础上,通过智算中心操作系统作为智算中心的“神经中枢”对算力资源池进行高效管理和智能调度,使智算中心更好地对外提供算力、数据和算法等服务,支撑各类智慧应用场景落地。而软件生态则是智算中心“好用、用好”的关键支撑。

1.AI芯片

基于AI芯片的加速计算是当前AI计算的主流模式。AI芯片通过和AI算法的协同设计来满足AI计算对算力的超高需求。当前主流的AI加速计算主要是采用CPU系统搭载GPU、FPGA、ASIC等异构加速芯片。

AI计算加速芯片发端于GPU芯片,GPU芯片中原本为图形计算设计的大量算术逻辑单元(ALU)可对以张量计算为主的深度学习计算提供很好的加速效果。随着GPU芯片在AI计算加速中的应用逐步深入,GPU芯片本身也根据AI的计算特点,进行了针对性的创新设计,如张量计算单元、TF32/BF16数值精度、Transformer引擎(Transformer Engine)等。

近年来,国产AI加速芯片厂商持续发力,在该领域取得了快速进展,相关产品陆续发布,覆盖了AI推理和AI训练需求,其中既有基于通用GPU架构的芯片,也有基于ASIC架构的芯片,另外也出现了类脑架构芯片,总体上呈现出多元化的发展趋势。但是,当前国产AI芯片在产品性能和软件生态等方面与国际领先水平还存在差距,亟待进一步完善加强。总体而言,国产AI芯片正在努力从“可用”走向“好用”。

2.AI服务器

AI服务器是智算中心的算力机组。当前AI服务器主要采用CPU+AI加速芯片的异构架构,通过集成多颗AI加速芯片实现超高计算性能。

为满足各领域场景和复杂的AI模型的计算需求,AI服务器对计算芯片间互联、扩展性有极高要求。AI服务器内基于特定协议进行多加速器间高速互联通信已成为高端AI训练服务器的标准架构。

目前业界以NVLink和OAM两种高速互联架构为主,其中NVLink是NVIDIA开发并推出的一种私有通信协议,其采用点对点结构、串列传输,可以达到数百GB/s的P2P互联带宽,极大地提升了模型并行训练的效率和性能。

OAM是国际开放计算组织OCP定义的一种开放的、用于跨AI加速器间的高速通信互联协议,卡间互联聚合带宽可高达896GB/s

浪潮信息基于开放OAM架构研发的AI服务器NF5498,率先完成与国际和国内多家AI芯片产品的开发适配,并已在多个智算中心实现大规模落地部署。

3.AI集群

**大模型参数量和训练数据复杂性快速增长,对智算系统提出大规模算力扩展需求。**通过充分考虑大模型分布式训练对于计算、网络和存储的需求特点,可以设计构建高性能可扩展、高速互联、存算平衡的AI集群来满足尖端的AI计算需求。

**AI集群采用模块化方法构建,可以实现大规模的算力扩展。**AI集群的基本算力单元是AI服务器。数十台AI服务器可以组成单个POD计算模组,POD内部通过多块支持RDMA技术的高速网卡连接。在此基础上以POD计算模组为单位实现横向扩展,规模可多达数千节点以上,从而实现更高性能的AI集群。

**AI集群的构建主要采用低延迟、高带宽的网络互连。**为了满足大模型训练常用的数据并行、模型并行、流水线并行等混合并行策略的通信需求,需要为芯片间和节点间提供低延迟、高带宽的互联。另外,还要针对大模型的并行训练算法通信模式做出相应的组网拓扑上的优化,比如对于深度学习常用的全局梯度归约通信操作,可以使用全局环状网络设计,配置多块高速网卡,实现跨AI服务器节点的AI芯片间RDMA互联,消除混合并行算法的计算瓶颈。

**AI集群的构建需要配置面向AI优化的高速存储。**通过配置高性能、高扩展、多层级的智能存储,为各种数据访问需求提供优化性能。智能存储具备随需扩展功能,实现高IOPS处理能力,支持RDMA技术,同时实现高聚合带宽。
在这里插入图片描述

4.AI大模型

**超大规模智能模型,简称大模型,是近年兴起的一种新的人工智能计算范式。**和传统AI模型相比,大模型的训练使用了更多的数据,具有更好的泛化性,可以应用到更广泛的下游任务中。按照应用场景划分,AI大模型主要包括语言大模型、视觉大模型和多模态大模型等。

**自然语言处理是首个应用大模型的领域,BERT是大模型的早期代表。**随着大模型在自然语言的理解和生成领域成功应用,推动了语言大模型向更大的模型参数规模和更大训练数据规模的方向发展。当前,语言大模型的单体模型参数已经达到千亿级别,训练数据集规模也达到了TB级别,训练所需计算资源超过1000PetaFlop/s-day(PD)。业界典型的自然语言大模型有GPT-4、源、悟道和文心等。自然语言大模型已经广泛应用于个人知识管理、舆情检测、商业报告生成、金融反欺诈、智能客服、虚拟数字人等场景,同时也出现了一系列的创新应用场景,如剧本杀、反网络诈骗、公文写作等。

在语言大模型大获成功之后,相关技术和方法也被引入计算机视觉领域,通过构建更大的预训练模型,使其可以适用于目标检测、语义分割、异常检测等广泛的视觉任务。

在算法架构上,视觉大模型采用以Transformer架构为主体的神经网络架构和自监督的训练方法以及十亿级的无标注图片数据进行训练。当前业界已经出现了越来越多的通用视觉大模型和面向特定领域的视觉大模型。视觉大模型也已广泛应用于自动驾驶、智能安防、医学影像等领域。

随着大模型技术在语言、视觉等多个领域的应用,融合多个模态的多模态大模型也逐渐成为了业界关注的重点。基于多模态大模型的以文生图,文生视频技术也迅速发展,代表性模型有DALLE-2、Stable Diffusion 3 和Sora等。由于多模态大模型的快速发展,AI内容生成(AI Generated Content,AIGC)已成为下一个AI发展的重点领域。

5.智算OS

智算OS,即智算中心操作系统,是以智算服务为对象,对智算中心基础设施资源池进行高效管理和智能调度的产品方案,可以使智算中心更好地对外提供算力、数据、算法、智件等服务,有效降低算力使用门槛,提升资源调度效率,支撑各类智慧应用场景落地,是智算中心的“中枢神经”。

智算OS主要由三层架构构成,分别为基础设施层、平台服务层、业务系统层。基础设施层主要实现将异构算力、数据存储、框架模型等转化为有效的算力与服务资源,算力资源池能够聚合并进行标准化和细粒度切分,以满足上层不同类型智能应用对算力的多元化需求,并通过异构资源管理和调度技术,提升可同时支撑的智算业务规模。

平台服务层主要提供AI训练与推理服务、数据治理服务、运营运维服务等,并通过智算OS实现自动化、智能化,有效摆脱人力束缚,促进算力高效释放并转化为生产力。业务系统层是面向用户端的统一服务入口,向下整合各层级核心功能,为用户提供多元化、高质量的智算服务,满足生产中不同阶段、不同场景的智算需求。

智算OS以智算中心为载体,通过建设多元、开放的智算平台,融合国际、国内先进人工智能技术,形成标准化、模块化的模型、中间件及应用软件,以开放接口、模型库、算法包等方式向用户提供如行业大模型、自动驾驶、元宇宙、智慧科研等人工智能服务,促进人工智能技术成果的开放与共享,构建开放的智算生态。

二、技术路线

智算中心建设的关键技术涉及与其建设和应用相关的各类基建、硬件、软件,体现在智算中心算力基建化、算法基建化、服务智件化、设施绿色化过程中。

(一)以算力基建化为主体

以智算中心为代表的算力基础设施能够有效促进AI产业化和产业AI化,是支撑数字经济发展的重要基础底座。为了让AI真正地赋能到千行百业,并推动产业数字化转型发展,智算中心要具备对外提供高性价比、普惠、安全算力资源的能力,使AI算力像水、电一样成为城市的公共基础资源,供政府、企业、公众自主取用。算力基建化供给成为支撑产业转型升级以及创新发展的刚性需求和必然选择。

**1.面向潜在算力需求,适度超前规模化部署算力资源数据量的爆炸式增长以及万亿参数大模型的出现,使智能算力需求呈现高速增长态势,并为算力基础设施带来巨大挑战。**在数据量方面,IDC发布的《数据时代2025》预测,到2025年,全球数据量将达到175 ZB,而中国数据量的平均增速快于全球3%,预计到2025年将增至48.6 ZB,占全球数据圈的27.8%。在模型方面,当前1万亿参数的单体模型需要1EFLOPS级算力(FP16)计算约50天,10万亿参数的单体模型需要10 EFLOPS级算力(FP16)计算约50天。因此在智算中心的规划建设中,需要聚焦当前算力应用需求,同时面向未来数据量和大模型大参数量增长空间,适度超前,部署满足AI训练、AI推理等大规模计算需求的强大AI算力机组,构建算力集群,提供大规模弹性算力。

**2.聚焦异构加速技术,提升高性能人工智能计算能力自2012年以来,人工智能训练任务所需求的算力每3.43个月就会翻倍,大大突破了传统以每18个月为周期实现芯片性能翻番的摩尔定律,这对人工智能计算架构的性能提出了更高的要求。**AI芯片是生产算力环节的关键组件,为AI训练和AI推理输出强大、高效、易用的计算力。目前,AI芯片主要包括GPU、FPGA、ASIC、类脑芯片四大类,其中类脑芯片仍在探索阶段,因此多元异构芯片成为提升算力的关键手段。主流的人工智能计算架构是以CPU+AI芯片为主体的异构架构,通过将CPU与多种计算单元(如GPU、FPGA、ASIC等)集成,充分融合了CPU等传统的通用计算单元和高性能专用计算单元的优点,可以同时兼顾AI模型的高效训练和精准推理能力。异构架构具有高性能、高效率、低功耗等显著优点,使AI芯片在未来人工智能算法不断迭代更新的情况下,依旧能保持较好的兼容性和可扩展性,在一定程度上延长了AI芯片的生命周期。

**3.兼顾软硬一体协同,构建智算中心多元融合型架构人工智能计算场景和计算架构的多元化要求智算中心从硬件、软件、软硬协同等层面开展优化,提供弹性、可伸缩扩展的算力聚合能力,依据不同类型智能应用对算力的不同需求,提供更高效、更便捷的算力调度能力。**采用融合架构进行整体设计是智算中心的发展方向。具体而言,在硬件层面,通过硬件重构实现资源池化,结合新型超高速内外部互连技术、池化融合、异构存储介质等,推动多元异构智能算力设施的高速互联,形成高效池化的智算中心,实现多元计算资源高效协同;在软件层面,通过软件定义,将不同的资源池组成专业的服务器、存储、网络系统,实现重构硬件资源池的高效化、智能化管理,使智算中心的业务资源调度更为灵活、运维管理能力更强。在安全方面,智算中心可以依托隐私安全计算等技术,提供完善的隐私和数据保护解决方案,实现计算、存储、网络等多层级、全方位的资源隔离与安全防护。

(二)以算法基建化为引领

建设适度超前的算力基础设施,不仅体现在算力层面,也体现在算法层面,这是释放算力环节的关键。人工智能算法正面临着丰富化、专业化和巨量化的挑战,智算中心通过提供预置行业算法、构建预训练大模型、推进算法模型持续升级、提供专业化数据和算法服务,让更多的用户享受普适普惠的智能计算服务。

**1.面向千行百业发展需求,提供多类型预置行业算法AI落地面临开发成本、技术门槛高的难题,算法模型平均构建时间为3个月,同时算法还需要快速的迭代,再加上AI新算法、新理论层出不穷,行业用户的智慧转型存在着巨大的技术壁垒。**智算中心应围绕政务服务、智慧城市、智能制造、自动驾驶、语言智能等重点领域,在AI平台内预置实例分割、目标检测、边缘检测、图像分类、人脸识别、视频感知、自动问答、机器翻译、舆情分析、情感分析、语音识别、协同过滤、交通路线规划等常用行业算法模型,并从硬、软件对行业算法做性能优化,从而帮助各行各业智慧应用加速落地,推动行业智能化转型加速。

**2.面向模型即服务应用需求,构建大规模预训练AI模型在产业AI化和数实融合的背景下,当前的行业做法是针对每一个场景都做一个模型,即“有1万个场景就有1万个模型”。**然而随着以BERT、GPT-3、DALL·E、源1.0等为代表的高泛化能力和高通用性的大模型的出现,一个模型可以覆盖众多场景。“预训练大模型+下游任务微调”的AI工程化模式已成为业内共识,层数、隐向量长度、前馈网络尺寸持续增长,参数规模迅速从亿级增长到百万亿级。

在充足数据和算力的支持下,大模型可以充分学习文本、图像等数据中的特征。智算中心应通过部署大模型所需要的训练、推理和数据处理系统,构建出不同功能、不同模态的大模型(如自然语言处理大模型、视觉大模型、多模态大模型等),从而更加快速地生产出专业的技能模型,并在更多专业场景中实现小型化、轻量化的落地运作。

**3.面向可持续化发展需求,推进AI模型不断演进升级从感知机到深度神经网络,从全连接网络到模型剪枝、知识蒸馏、注意力机制,从有监督学习、无监督学习到强化学习、自监督学习,人工智能理论算法模型在持续深化发展中。**当前,人工智能算法正从单模态、有监督学习向多模态、自监督学习演进。自监督学习无需标注数据,可以直接从无标签数据中自行学习,极大降低了人工标注成本。

多模态学习更贴近人类对多感知模态的认知过程,通过学习多种模态的数据,可以突破自然语言处理和计算机视觉的界限,在图文生成、看图问答等视觉语言任务上具有更强表现。随着人工智能相关技术和应用需求的不断升级,智算中心所提供的算法模型也应持续迭代升级,与时俱进,保持算法模型的先进性。未来,人工智能算法将朝着多模态、交互式主动学习、规划、实践的方向发展,以期实现真正的认知智能。

**4.面向算法高效调用需求,提供专业化开发部署支撑智算中心除了提供深度学习、强化学习等常见 A I算法模型外,还应提供专业化基础支撑和开发部署服务能力,以支撑AI算法模型的便捷调用和部署。**为了满足算法模型对大规模高质量海量数据集的需求,智算中心应搭载海量数据清洗系统,提供全流程自动化数据处理系统,实现智能高效的数据处理和过滤。为了满足AI算法模型高效训练和使用的需求,智算中心在基础支撑层面应部署分布式训练框架、高性能推理框架,在开发部署层面应提供数据管理、模型开发、模型训练、模型管理等关键模块,以模型API服务、领域模型、工具包、会话式开放框架、开发者社区等形式,形成强大的AI算法服务支撑能力。

(三)以服务智件化为依托

随着人工智能应用场景持续拓展和开发用户不断普及,对智能计算需求大幅提升、算法模型功能不断强化的同时,人工智能算法开发和模型训练正在从专业化、高门槛向泛在化、易用型转变,智算中心的发展将由传统的硬件、软件向“智件”升级拓展。“智件”是指智算中心提供人工智能推广应用的中间件产品和服务。

传统用户进行人工智能应用时,除了需要提供业务数据,还需提供算法模型并进行代码开发,“智件”的构建可以改变这种服务模式,通过可视化操作界面,以及低代码开发甚至无代码开发的模式,为用户提供功能丰富、使用便捷的人工智能算力调度、算法供给和个性化开发服务,实现“带着数据来、拿着成果走”的效果。

**1.提供多元算力调度服务,实现算力调度“智件化”算力是智算中心提供的核心产品和服务。**面向不同用户的不同算力需求,智算中心应提供“智件化”算力服务,让用户无需关注底层算力芯片和技术细节,通过用户交互界面,选择业务场景类别、算法模型大小等参数,获得不同算力需求下的计算时间预估、服务费用测算等针对性算力服务方案。

一方面,算力服务虚拟化,弱化底层算力芯片供给的技术差异性,为用户提供标准化的算力供给服务。

通过抽象芯片架构并融合算力特性将提供底层计算能力的GPU、FPGA、ASIC等AI芯片进行统一管理和调度,以PFLOPS、EFLOPS作为计算能力单位向用户提供算力服务,让用户可以更便捷地调度算力,进行AI应用部署。

另一方面,算力服务协同调度,要强化对外的算力调度与服务能力。在构建全国一体化大数据中心协同创新体系和“东数西算”工程的背景和要求下,智算中心可以作为算力基础单元,通过云服务方式融入全国算力调度体系中,满足更大范围、更强算力调度需求。

2.提供简便算法模型服务,实现算法供给“智件化”人工智能是一门极其复杂的学科,要求应用开发者不仅要有扎实的理论功底,还要有高超的编程技术,门槛极高。算法模型是人工智能应用的灵魂,也是智算中心提供服务的主要输出物。从计算智能到感知智能,再到认知智能,人工智能的应用模型越来越复杂,从公共服务到社会治理再到产业发展,人工智能的应用需求越来越广泛,对人工智能模型和算法的要求也越来越高。

为了缓解人工智能模型训练成本高、技术门槛高的问题,智算中心应加强算法供给服务模式的创新,开发可视化操作界面,用户通过API、模块化代码即可获得所需的人工智能应用效果,减轻代码开发压力,使用户无需关注算法和模型本身的复杂技术细节,只需聚焦相应业务领域的业务逻辑和数据就能实现人工智能应用。用户可以基于“智件化”的算法模型进行探索和创新,开发出适用于各种场景的新型智能应用。

3.提供开放生态环境服务,实现供需对接“智件化”人工智能场景日趋丰富,应用需求和技术供给个性化特征明显,为满足部分用户和场景对于人工智能算法优化、系统优化服务的个性化需求,智算中心应构建开放合作生态,加大数据资源供给,聚焦先进的技术并适配典型场景应用。一方面,加大数据供给,数据是人工智能应用的基础,智算中心应打造数据共享平台,推动计算机视觉、自然语言处理、重点行业领域等高质量公开数据集的汇聚,为用户人工智能应用提供增值性数据服务。另一方面,开放发展生态,围绕满足不同用户个性化人工智能应用需求,智算中心应将其计算平台、资源平台和算法平台对外开放,聚集行业内领先企业的力量,及时响应用户个性化需求,提升智算中心技术能力的同时形成新的产业和生产力。

(四)以设施绿色化为支撑

能耗是衡量智算中心发展水平的重要维度之一。“碳达峰、碳中和”目标背景下,国家和地方持续出台政策,进一步规范数据中心的能耗水平和平均电能利用效率(PUE)。为了进一步降低智算中心能耗,设施绿色化是智算中心建设的必然选择。设施绿色化主要包括设备节能化、能源供给绿色化等方面。

**1.采用先进节能技术,全面降低智算中心能耗制冷设备和IT设备是智算中心主要的能耗来源。**液冷技术采用冷却液和工作流体对发热设备进行冷却,利用高比热容的液体代替空气,提升了制冷效率,降低制冷能耗。液冷技术是智算中心制冷的主要发展趋势。数据中心采用全栈布局液冷,冷板式液冷、热管式液冷、浸没式液冷等先进液冷技术,构建包含一次侧二次侧液冷循环、CDU等的智算中心液冷整体解决方案,可以进一步降低能耗、降低PUE,实现绿色化。液冷智算中心采用余热回收技术,可以为智算中心自身以及邻近区域供暖,进一步提升能源利用效率。此外,智算中心采用高压直流、集中供电等高效供配电系统、能效环境集成检测等高效辅助系统、智能监控运维系统等绿色管理系统可以进一步降低能耗。

2.采用绿色清洁能源,从源头上实现绿色低碳

一方面,智算中心的大部分业务负载,特别是企业负载,在时间上主要集中于白天工作时段,与光伏、风电的主要发电时段匹配性较高,无需过多储能与调峰,使得智算中心在运用光伏、风电等绿色电力方面具有天然优势。采用绿色电力供给的智算中心综合运用线性规划、混合整数规划、启发式算法等多种能耗管理方法,可以在降低碳排放的同时也节约电价成本。智算中心采用优化调度与需求响应控制策略,还可作为需求侧可调载荷参与电力需求侧响应,不仅提升智算中心自身能源利用效率,而且提升新型电力系统需求侧资源优化配置效率。

另一方面,智算中心所在的建筑物、园区空间大,可以充分利用,发展屋顶光伏、园区风电等可再生能源发电设施,优化能源绿色供给格局。应用分布式光伏发电、分布式燃气供能等技术可以提升智算中心园区绿色化水平。小型智算中心还可以利用模块化氢燃料电池、太阳能板房等技术优化能源供给格局。

一、智算中心激发AI产业化创新活力

(一)自动驾驶

**自动驾驶是汽车智能化和自动化的高级形态,作为AI技术备受关注的重要落脚点,被公认是汽车出行产业的未来方向之一。**自动驾驶场景的实现,需要通过感知融合、虚拟路测(模拟仿真)、高精地图、车路协同等核心技术将数字世界与实体路况进行深度融合,基于人工智能技术,让车辆能够像人类驾驶员一样准确地识别车道、行人、障碍物等驾驶环境中的关键信息,并及时对周围运动单元的潜在轨迹做出预判。

自动驾驶落地需要超大AI算力支持自动驾驶需要通过对车身多个传感器的数据进行感知和融合,并在此基础上对自动驾驶车辆的行为进行决策和控制,其中涉及大量AI算法、机器视觉与传感器数据整合分析、面向各类算力平台及传感器配置方案的适配能力等。

为了提升自动驾驶系统的感知和决策性能,当前通行的做法是在数据中心端基于海量的道路采集数据来进行感知模型训练和仿真测试。随着AI技术的发展,通过AI算法对多传感器的数据以及多模态的数据进行融合感知,已经成为了当前主流的发展趋势。另外自监督大模型的技术也在逐步地引入到自动驾驶场景中。

这都使得自动驾驶感知模型的训练算力消耗远大于一般的计算机视觉感知模型。比如,Tesla构建的L2级别的FSD自动驾驶融合感知模型的训练使用了百万量级的道路采集视频片段,算力投入约为500PD。随着自动驾驶级别从L2到L4的提升,对算力的需求将进一步提高。

算力供给是自动驾驶系统得以大规模落地和进一步商业化的前提条件。自动驾驶产业的集成化、规模化发展需要由智算中心提供超大算力、先进AI算法等支撑。智算中心提供的普惠算力可以极大降低自动驾驶所需算力的成本,同时加速自动驾驶新技术与新产品的研发、测试和应用。

(二)机器人

机器人是人工智能技术多领域应用的重要载体,主要分为工业机器人、服务机器人和特种机器人。作为一种重要的智能硬件,随着计算机视觉、机器学习、智能语音等多种智能算法技术的进步,机器人产业也将实现飞速的发展。

《中国机器人产业发展报告(2022年)》数据显示,2022年中国机器人市场规模约为174亿美元,五年年均增长率达到22%,其中工业机器人和服务机器人市场规模均保持增长,二者呈现出齐头并进、快速发展的态势。

**“AI算法+AI算力”支撑机器人从量变到质变机器人与新一代信息技术的融合逐渐深入,机器人的感知、计算、执行能力都得到了大幅提升,处理实际问题的稳定性和可靠性也进一步提高,这背后离不开人工智能技术和强大算力的支撑。**机器人需要和环境进行交互感知以及决策控制,和环境的交互感知不仅涉及到视觉、听觉等多个模态,也会涉及到不同模态的感知融合,这都需要AI算法作为底层支撑。为了实现相应的感知和决策算法,一般会在数据中心端构建真实世界数据采集→AI模型构建→孪生世界的决策控制模型训练→真实世界验证测试的闭环,来逐步地提升机器人在真实世界的感知和决策能力。

用于学习和训练的数据越多,算法迭代得越完善,机器人的决策准确度将越高。智算中心的算力服务可以为机器人的大规模模型训练和预测提供强大算力支撑,智算中心的算法服务可以实现机器人智能化应用算法模型的敏捷开发和快速训练上线,为机器人产业的高质量发展提供全方位支撑。

1.虚拟数字人

虚拟数字人是可以感知、规划、行动的虚拟形象,由计算机图形学、图形渲染、动作捕捉、深度学习、语音合成等技术生成,具备类人外貌、交互能力等高度拟人化特征,是元宇宙的重要组成部分。虚拟数字人正逐步“闯入”现实虚拟数字人的应用领域非常广泛,按照应用场景或行业的不同,已经出现了虚拟主播、虚拟偶像等娱乐型数字人,虚拟教师等教育型数字人,虚拟客服、虚拟导游等助手型数字人,替身演员、虚拟演员等影视数字人应用。据《虚拟数字人深度产业报告》预测,2030年我国虚拟数字人整体市场规模将达到2,700亿元。

智算中心助力虚拟数字人应对AI算力和算法挑战虚拟数字人相关的建模、驱动、渲染和感知交互均需要巨量的算力支撑。当前,虚拟数字人的建模以基于3D建模软件的手工建模+真人驱动为主。

随着AIGC等AI技术的应用,基于AI算法的自动建模将逐步替代手工建模,成为数字人建模的主要方式。与此同时,基于AI算法的数字人驱动也将逐步替代当前以“中之人”驱动为主的真人驱动方式。与此同时,视觉感知、语音识别和语音合成以及自然语言处理等多种AI算法在数字人中的应用,将推动数字人向“数智人”转变,也是虚拟数字人应用普及的关键。智算中心可以为虚拟数字人制作、感知交互提供强大的算力和算法支撑,加速虚拟数字人产业的商业化落地。

2.数字孪生

数字孪生是指充分利用物理模型、传感器、运行历史等数据,集成多学科、多尺度的仿真过程,以数字化方式创建物理实体的虚拟镜像,通过模拟、验证、预测和控制物理实体全生命周期行为,实现在物理空间的最优决策。数字孪生是构建元宇宙数字空间的基础数字孪生在元宇宙的发展进程中扮演着重要角色,是元宇宙耦合物理世界的基石。

元宇宙的目标是构建一个与现实物理世界高度贴合的甚至是超越现实世界的虚拟世界,因此需要通过海量数据模拟和强大算力来实现1:1的数字空间创造,这个过程中的核心关键就是数字孪生。数字孪生技术能够以极致细节的方式将现实世界映射到虚拟世界中。因此,数字孪生技术的成熟度在一定程度上决定了元宇宙在虚实映射与虚实交互上的发展潜力。

强大算力是数字孪生高效稳定运行的重要支撑数字孪生的应用十分广泛。例如,数字孪生城市可以在虚拟世界模拟仿真城市管理、产业发展、消防应急、环境变化等情况,为现实中关键问题的决策提供技术支撑,提升城市规划和城市治理的效率和精准度。

在元宇宙中,大规模、高度复杂的数字孪生空间的构建,以及现实世界和数字世界的实时交互,需要有强大且物理准确的高精度仿真算力和实时高清3D渲染算力作为支撑。随着AI技术的发展,基于AI算法的高精仿真逐步替代了传统基于数值求解算法的仿真系统,成为了数字孪生系统的核心底层支撑技术。智算中心可以为大规模数字孪生提供专业化的算力和应用支持,支撑数字孪生空间的实时创建、复杂模型的高效运行,以及逼真仿真环境的快速生成。

二、智算中心助力产业AI化走深向实

(一)智慧医疗

国家统计局《2021年国民经济和社会发展统计公报》显示,2021年全年总诊疗人次85.3亿人次,基本医疗保险覆盖13.6亿人。然而,各个地区医疗服务水平参差不齐,医疗服务资源不均等现象普遍存在,基层患者尤其是偏远地区的患者难以获得高质量的医疗救治。

AI辅助诊断助力解决诊疗“三大难题”当前,医疗诊断主要面临三大挑战:

一是数据量巨大。粗略估算诊疗人次所对应的就医环节及相应的医疗数据质量,加上血压、心率、体重、心电图等医疗监测数据,规模早已突破TB级,并且以“秒”为单位持续更新叠加,需要强有力的算力支撑平台。

二是数据结构多元。不仅包含大量医学术语、专业名称,还包括文档、影像、视频等非结构化数据,对AI服务器等新型智能计算硬件要求较高。

三是数据实时处理要求高。医疗服务中存在大量时间性强和决策周期短的应用场景,如临床中的诊疗和用药建议、健康指标预警等,对在线计算、实时处理的需求显著,亟需构建强大的算力平台支撑基于医疗健康领域数据规模化知识图谱。

医疗机构通过引入AI辅助诊疗,可实现诊断、治疗工作的智能化。从算力需求看,人工智能辅助诊疗应用涉及海量图形数据的处理,所需的算力要求较高。智算中心具备的强大算力可以支持大规模、高难度的模型训练,全方位支撑海量医疗影像数据的分析挖掘和精准诊断,能够有效缩短诊断时间,提高诊疗效率。

(二)文娱创作

近年来,AI在文娱创作方面有诸多突破,通过融合人工智能、认知心理学、哲学和艺术等多个学科,可完成诗词、绘画、音乐、影视、小说等创作。

人工智能正在逐渐改变文娱创作的发展范式对艺术家来说,灵感极为可贵并难以捕捉,当文娱创作遇上人工智能,整个行业迸发出了全新的生机和活力。AI技术将是未来数字化创作的重要生产工具。当前出现的创作生态可分为专业生成内容(Professionally Generated Content,简称PGC)、用户生成内容(User Generated Content,简称UGC)、AI辅助生产内容和AIGC。

其中,PGC和UGC都是以人为主体的创作模式,PGC是由专业人士进行内容创作,成本较高且产能有限;UGC降低了生产成本,满足了个性化需求,但存在不可控因素。从长期来看,数字内容生成的需求会愈发强烈,但是人脑处理信息的能力有限,当以人力为主的内容生产潜力逐渐消耗殆尽,以AI为主的内容生产模式将弥补数字世界内容供需的缺口。Gartner数据显示,到2023年将有20%的内容由AI创作生成,预计到2025年生成式AI产生的数据将占所有数据的10%。

AIGC将成为数字内容生产的长期发展方向AIGC是一种通过生成对抗网络、深度学习、大型预训练模型等人工智能技术挖掘数据中的规律,并通过适当的泛化能力生成相关内容的技术。深度学习技术(如深度学习模型CLIP等)的突破为AIGC商业落地提供了可能,而数字内容、数字资产等的快速发展又进一步加速了AIGC的应用与优化。

利用AIGC技术可以生成多种模态的数字作品,如AI写作(文本)、AI绘画(图像)、AI作曲(音频)、AI换脸(视频)等。同时,AIGC技术也可以实现由文字生成图像、文字生成视频、图像/视频生成文字等跨模态创作,以及Game AI等各类综合型场景创作。AIGC的出现使数字内容创作的生产效率和互动性得到了进一步提升。随着人工智能技术的不断升级以及算力、数据、算法等要素的持续迭代,未来AIGC技术将持续赋

能各类文化创意、生产生活,为数字内容生产带来巨大变革。AI大模型和开放平台为文娱创作提供技术支撑随着各类AI大模型及支持开发者创作的各类AI开源平台的陆续上线,用户可以获取涵盖开源模型API、高质量中文数据集、模型训练代码、推理代码、应用代码、面向AI芯片的模型移植开发等内容的多场景服务。

大模型开放平台的出现极大地降低了文娱类AI应用的开发门槛,即使是几乎没有任何编程经验的文娱创作者,通过在平台上进行简单学习,也可以快速实现文娱类AI应用的开发。AI大模型和AI开源平台作为智算中心算法基建化的重要构成,配合其强大的算力资源,将为创作者打造一片创作的乐土。

(三)智慧科研

AI技术成为继计算机之后,科学家新的生产工具,并催生出了新的科研范式AI for Science。科学家们用AI技术去学习科学原理,根据实验或者计算产生的数据对所求解的科学问题进行建模,从而使复杂问题得到有效解决。近年来,AI也被证明能用来做规律发现,帮助人类从大量的复杂数据中,抽取一些人类观察不到的高维信息和高价值规律,不仅在应用科学领域,也能在自然科学领域发挥作用。AI for Science 不仅带来了科研效率的显著提升,还能降低科研成本,让更多人都能参与到科学研究中来。

1.生命科学

随着大数据和人工智能的发展、普及和成熟,越来越多的科学研究从假设推动的范式向数据驱动的范式转变,利用大数据和计算机技术挖掘科学洞见。在生命科学领域,通过采用深度学习方法处理海量数据,已经在蛋白质结构预测等领域实现了落地应用。

蛋白质作为生命活动的主要承担者,长期以来都是生命科学工作者研究的重点,其中确定蛋白质的三维空间结构尤为重要。受困于计算量庞大、计算准确度有限,蛋白质三维结构预测领域近年来进展较为缓慢。

采用传统的冷冻电镜三维重构方法,实验仪器昂贵,且图像重构需要耗费大量计算力,而采用传统的分子动力学结构预测计算方案,在平均10300的搜索空间枚举蛋白质的可能构型,需要极高的算力和漫长的计算时间,因此在过去50年的时间,仅有17%的人类蛋白质组得到结构解析。

在智能算力的支持下,DeepMind开发了基于注意力机制深度神经网络的AlphaFold2模型,通过对当前已经测序的数十万蛋白质结构数据和数百万蛋白质序列数据进行学习,实现了端到端直接预测蛋白质的三维结构,并取得了突破性进展,预测结果准确率达到了92.4%。相较于使用费用高昂的实验仪器,单个蛋白结构的预测时间缩短到了分钟级。AlphaFold2的开发是以巨量算力为支撑,具体来说,其训练数据准备消耗了约2亿核时的CPU算力,训练过程消耗了约300PD的AI算力。

2.大规模分子模拟

分子动力学模拟通过求解原子运动的经典力学牛顿方程对相空间进行采样,可以研究体系在相空间的演化过程,还可以通过统计方法得到体系在非零温度下的各种性质,是当前材料和生物化学领域最常用的计算研究方法之一。

近年来,借助神经网络从大量数据中获得规律的优势,将第一性原理计算结果作为训练数据,利用神经网络训练构建势函数的方法引起了广泛的关注。该系列方法从上世纪90年代开始,经过二十多年的发展,在准确性、可扩展性等方面得到了提升,比较常用的方法有DeePMD、SchNet、GAP、MTP等。

2020年深度势能(DP)团队因“结合分子建模、机器学习和高性能计算相关方法,将具有从头算精度的分子动力学模拟的极限提升至1亿个原子规模”,斩获了当年的戈登·贝尔奖(Gordon Bell Prize)。原子间机器学习势函数已经应用于许多实际研究中,可以用于模拟复杂的、多元素的晶体、非晶、液晶、界面、缺陷和掺杂等实验体系,计算精度接近从头算,计算速度却可以比从头算快数百到上千倍。

3.数值计算

矩阵乘法是许多计算任务的核心,其中包括神经网络、3D图形和数据压缩等。因此,提高矩阵乘法效率将直接作用于许多应用。几个世纪以来,数学家认为标准矩阵乘法算法是效率最高的算法,但在1969年,德国数学家Volken Strassen通过研究非常小的矩阵(大小为2x2)证明确实存在更好的算法。然而,更大矩阵相乘的高效算法仍属于尚未攻克的难题。

DeepMind的最新研究探讨了现代AI技术——强化学习如何推动新矩阵乘法算法的自动发现。基本思路是将发现矩阵乘法高效算法的问题转换为单人游戏,然后训练一个基于强化学习的智能体 AlphaTensor 来玩这个游戏,通过对 AlphaTensor进行调整,专门用以发现在给定硬件(如 NVIDIA V100 GPU、Google TPU v2)上运行速度快的算法。实验结果发现,这些算法在相同硬件上进行大矩阵相乘的速度比常用算法快了10-20%,表明AlphaTensor在优化任意目标方面具备了不错的灵活性。因此,强化学习成为加速新矩阵乘法算法自动发现的一种新思路。

从算力需求看,蛋白质结构分析、大规模分子模拟、数值计算相关应用主要涉及海量数据并行计算和大规模模拟实验,对算力和存力需求较高,属于计算密集型和数据密集型任务。智算中心所具备的算力服务能力极度契合AI for Science相关场景的算力需求,将成为支撑科研高质量、突破式发展的重要基础设施。

一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

在这里插入图片描述

二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

在这里插入图片描述

四、AI大模型商业化落地方案

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/900505
推荐阅读
相关标签
  

闽ICP备14008679号