当前位置:   article > 正文

AI大模型新型智算中心技术建设白皮书 2024_智能计算中心总体技术要求

智能计算中心总体技术要求

一、新算效——重塑计算架构

1.1 下一代 AI 芯片设计思路

GPU 为 代 表 的 高 性 能 并 行 计 算 芯 片 架 构 和 以 针 对 AI 领 域 专 用 加 速(DSA, Domain Specific Architecture,DSA)为代表的芯片架构是目前两大主流 AI 芯片设计思路。GPU 设

计初衷是为了接替 CPU 进行图形渲染,图形处理涉及到相当多的重复计算量,因此 GPU 芯片上排布了数以千计的,专为同时处理多重任务而设计的小计算核心。随着 AI 深度学习算法的逐渐成熟,GPU 芯片开始引入 AI Core/Tensor Core 等电路来实现矩阵乘运算的加速。

因此,GPU 比 CPU 拥有更强的大规模并行计算和浮点运算能力。不同于 GPU,AI DSA 芯片是一种针对神经网络计算的专用处理器,主要功能是加速神经网络的数据处理、传递和反向传播等操作,因为芯片架构是专用设计,相比 GPU,减少了深度学习不常用的 FP64 等标量计算单元。

AI DSA 芯片在功耗、可靠性、芯片体积、性能等方面都有巨大的优势,但由于电路设计是定制思路,芯片开发周期较长,在通用性和可编程性方面相比 GPU 架构较弱,当前技术和生态还处于多而不强的局面。 GPU 生态代表的是英伟达,AI DSA 是 GoogleTPU、华为昇腾、寒武纪思元等。

面向未来万亿模型的兴起到大模型应用逐渐落地,算法需要挖掘海量数据进行计算,无论是GPU 还是 DSA 芯片架构设计,均面临性能瓶颈。一是内存带宽的制约,已经成为整个系统的性能瓶颈。二是海量内存和计算单元间的频繁访问切换,导致整体功耗激增。其次,大模型技术的快速迭代,硬件如何适配算法也仍是难题。针对下一代芯片设计思路,有以下方向:

一是存算一体化设计思路,解决存储带宽和访存功耗的问题。未来 10 年是计算架构变革的新十年。计算存储一体化已经是业内一大研究方向。存算一体芯片将计算单元和存储单元合一,使得芯片在提升计算和数据吞吐量的同时显著降低功耗。

二是引入稀疏化计算能力解决大量运算带来的功耗问题。虽然千亿、万亿模型相继提出,但并不是每个神经元都能有效激活,这个时候稀疏计算可以减少无用能效。在推荐和图神经网络的场景,稀疏已成为常态。

三是在芯片设计上支持更加复杂的 AI 算子。如 Transformer 结构或者是在 NLP 和语音领域经常用到的动态 shape,需要合理地分解、映射这些不同复杂结构的算子到有效的硬件上,算法和芯片协同设计是下一代 AI 芯片设计的重要思想之一。

四是芯片需要支持更低的推理时延。为加速预训练大模型的应用落地,产业已开始研究通过量化、蒸馏、剪枝等手段来使大模型小型化。大模型推理场景下,计算负载出现了混合精度,8bit 甚至更低精度,如何提升芯片推理的实时性和并行能力也将是一大研究方向。

1.2 存算一体构建新型计算范式

存算一体作为新型计算范式,基于在存储原位实现计算的本质,打破了冯诺依曼存算分离架构,避免了频繁的数据访问和搬运带来的功耗激增的问题,大大缓解了 AI 芯片性能提升的瓶颈。

同时,由于新型智算中心承载的 CNN、Transformer 等主流模型架构,矩阵乘加运算占据了大量算力(Transformer 中 45-60%,CNN 中 90% 以上的运算均为矩阵乘加),存算一体的架构成为高效完成矩阵乘加的重要选择。

存算一体可通过 RRAM、SRAM、MRAM、Nor Flash 等介质实现,多介质共存可以发挥不同介质在成熟度、读写次数等方面的优势 。

存算一体通过模拟计算或数字计算或二者相结合的方式提供存算能力,如图 3-13 所示:

a) 模拟存算一体

b) 数字存算一体

图 3-13 模拟和数字存算一体

存算一体在 NICC 的主要应用是大模型推理。考虑到不同的模型结构,存算一体充分利用非规则稀疏性,以达到与存算阵列的最佳适配,并实现能效最大化。以复旦大学 ISSCC 2023发布的论文为例 ,其应用了基于蝶形数据分配网络的稀疏前馈计算架构(如图 3-14),结合对应的存内阵列设计和电路实现,能够在 28nm 工艺下,达到现有 Transformer 加速器 3.2 倍至 9.7 倍的能效。

图 3-14 Transformer 加速器的存算一体实现示意

当前,面向智算中心多核、多芯片的存算一体架构方案将成为未来存算一体研究和商用落地的重点方向。在此场景下,有以下三点问题需重点解决:

  1. 如何与算法结构协同:通过改进的存算一体阵列架构更好的适配稀疏 Transformer,使用分块结构化稀疏、动态激活值稀疏以及特定 Transformer 稀疏等方式,选择参与计算的存算单元,并结合定制的加法树电路减小面积,提升计算能效,从而提升推理效率。

  2. 如何与精度需求协同:通过可变精度存算一体阵列架构更好适配大模型推理的精度需求,使用数字存内计算和模拟存内计算混合、双生多 bit 等方法,实现 INT8 和 BF16 等混合精度计算。

3)如何与封装能力协同:通过 Chiplet 技术同时满足存算一体专用高性能、通用可扩展要求,提升算力和 IO 带宽,减少访存瓶颈;通过 3D 堆叠等封装技术将存内计算(CIM)与近存(PNM)和存内处理(PIM)技术结合,为访存密集型应用提供大容量高带宽的计算能力。

现阶段的存算一体芯片在介质优化、集成规模、工具链支持、算法适配、产业生态等方面还面临诸多挑战,导致应用普及较慢,建议锚定智算核心应用,推出样板产品,突破上述关键挑战,在成熟工艺实现性能反超。

1.3 DPU 实现计算、存储和网络的深度协同

DPU 作为 CPU、GPU 之后的数据中心第三颗大芯片,本质是围绕数据处理提供网络、存储、安全、管理等基础设施虚拟化能力的专用处理器。面对智算业务场景,中大规模模型训练和推理任务对网络和存储 I/O 的时延提出了更极致的性能需求,DPU 可在智算领域解决三大关键问题,与计算、网络、存储深度协同,助力算效提升。

  1. 统一云化管理:智算服务场景存在裸金属、容器、 虚机多种方式部署需求,如何实现 AI节点并池管理提高计算资源利用效率,成为关键的业务痛点,DPU 是最佳的解决方案。通过 DPU 可提供计算资源快速发放和回收等底层支撑能力,使弹性裸金属特性和虚机一致,支持云盘启动,完成灵活的存储分配,实现存储多租户隔离并缩短容灾时间,交付效率提高10 倍。

  2. 高性能存储卸载及加速:大模型训练推理业务的模型本身以及训推所需的数据需要 PB 级储存,本地存储性价比低,远端存储集群成为最优选择。分布式存储设备面对上千计算节点,需要满足多用户并行使用时产生的海量数据读取及加速数据收敛需求,单节点存储带宽叠加后对存储系统提出更高的性能要求。DPU 产品可以提供专用的高速存储单元来处理和管理大量的数据,提供高带宽和低延迟的存储访问,实现 NVMe-OF 存储加速,同时可配合训练框架进行文件系统卸载,实现训练数据格式统一化,实现不同来源的数据接入,进一步加速训练和推理过程。

  3. RDMA 网络协同优化:智算集群由大量的智算服务器节点组成分布式系统,节点间通信基于 RDMA 低延迟 Fabric 网络进行连接,可通过 DPU 产品提供 GPUDirect RDMA 能力及 RDMA 大规模队列资源增强能力,借助 DPU 优秀可编程特性,协同网络侧进行高性能RDMA 及无损网络优化,实现高吞吐低延迟的网络能力。最终解决大规模并行训练场景多机间高速互联问题,提升网络传输效率,构建端网协同的高性能智算架构。

为解决上述关键问题,新引入的 DPU 部件作为智算服务器的 IO 入口需对原有的网卡部件进行替代,硬件典型配置上可能出现两种替代模式(如图 3-15):

  1. DPU 替代服务器中存储面及管理面网卡,作用在 CPU 域,原配置中多块 CPU 下挂的多块网卡被一张 DPU 卡替代。此配置用于解决云化平台统一、高性能存储加速需求。

  2. DPU 替 代 服 务 器 中 参 数 面 网 卡,作 用 在 GPU 域,原 PCIeSwitch 下 挂 的 多 块 大 带 宽RDMA 参数面网卡被 1:1 替换为 DPU 卡。此配置用于解决 RDMA 网络协同优化需求。

图 3-15 智算中心引入 DPU 两种模式

面对 DPU 在智算场景的试验试点及规模应用,当前仍面临三大核心挑战:

在云平台侧,DPU 软硬融合层的标准化是制约 DPU 通用化的主要问题。DPU 本质是云化、虚拟化技术从软件实现向软硬结合发展的结果,技术架构与云计算关系密切,存在耦合,DPU 虚拟化技术栈在技术迭代中差异化发展,不同产品的同一技术的实现路径多样,软件实现方式差异大。亟需解决业界异厂家 DPU 与云平台软件定向开发适配成本高的问题。建议围绕管理、网络、存储、计算、安全五大软件系统,推动 DPU 软件功能要求和交互接口标准化,并分阶段推进。

在网络侧,网络技术创新需要与 DPU 深度协同。智算业务要求零丢包、低时延、高吞吐的网络能力,RDMA 网络是智算中心高性能网络的首选,头部企业纷纷布局自研 RDMA 协议栈及无损网络相关技术。DPU 作为服务器的 IO 出入口,是网络与存储必经之路,网络技术创新需要与 DPU 深度协同,实现算力无损,助力算效提升。

在硬件侧,亟需优先引导服务器整机层及 DPU 部件层标准化及通用化。重点围绕服务器结构及供电、散热、带外纳管方案、上下电策略四大方向进行统一,为 DPU 与上层软件的深度整合及生态繁荣提供底层支撑。

二、新存储——挖掘数据价值

2.1 计算与存储的交互过程

大模型训练是一项复杂而耗时的任务,类似 GPT-3 级别的模型训练数据集通常很大,无法完全加载到内存中,需要分批次的从外部分布式存储中读取数据并加载到 GPU 的 HBM 上。

如图 3-16 所示,从用户上传原始数据集到最终完成模型训练,并对用户提供已训练模型结果,整个过程存在着计算与存储系统密切的数据交互。

1)数据上传:大模型预训练阶段首先需要获取训练数据集,这些来自互联网、书籍、论文的数据需要进行预处理和清洗,包括分词、去除噪声和非常见词汇,以确保训练数据是高质量且可靠的。数据集准备好之后上传到存储系统中。由于对象存储具有普遍的 API 支持,可以提供灵活的数据访问方式,数据集通常会上传到对象存储中。大模型训练的数据集可达TB 量级,且主要以大文件大 IO 写入为主,存储系统需要保证足够和稳定的吞吐性能。

图 3-16 大模型训练计算与存储的交互过程

2)数据转移:由于文件存储具有更高的 IO 性能,对于小文件和随机 IO 有较好的支持,且与 TensorFlow、PyTorch 等训练框架的兼容性更好,适合在训练过程中进行高效的读取和写入操作,因此在模型训练开始之前,需要把数据集从对象存储复制到文件存储中,这个过程中,IO 类型以大文件大 IO 顺序读写为主。

3)数据读取:数据集放入文件存储后,还需要进行进一步预处理。CV 类数据集通常需要先对图片序列化并添加类别标签、图像尺寸等元数据,自然语音类数据集则需要对语音文件进行切分,转换为训练框架实现代码期望的采样率和格式,例如 16K 采样 wav 格式。数据集准备就绪后,模型将基于随机初始化的权重启动训练。整个数据集会被随机打散,称之为shuffle,然后数据被分成多个小的批次(batch),后续计算节点将以批次为单位从文件存储系统读取数据,并缓存到 GPU 的 HBM 中。

4)归档写回:由于 HBM 是易失性存储,一旦在训练过程中发生意外中断,训练数据将全部丢失,因此基于 Checkpoint 的“断点续训”机制非常关键,我们需要将模型训练过程中的数据周期性地保存到外部持久性存储中,一旦发生中断可以从最后一次保存的参数处重新开始训练,从而节省大量的时间和经济成本。此外,文件存储还用于跟踪记录模型训练过程中的各种指标,包括损失函数的变化、准确率的提升等,以便后续支持可视化的模型训练策略优化分析。保存 checkpoint 和过程文件等操作,主要负载是大文件大 IO 写操作,对文件存储压力不大。

5)模型复制:模型训练完成后,最终的模型权重会被写入到文件存储中保存,用于模型推理或者以 MaaS 的服务模式给外部用户使用。由于对象存储便于对外共享,模型需要从文件存储复制到对象存储上,这个环节 IO 类型以写入大文件为主。

6)模型下载:用户基于自身应用特点,从对象存储下载训练好的模型。

2.2 智算场景存储面临的三大挑战

智算中心存储设施承载海量非结构化数据,根据业务需求通常包括文件存储、对象存储、块存储三种传统类型存储,不同类型的存储池相互分立,各自使用独立命名空间,这种部署方式面临三方面的挑战:

1)存储性能:大模型训练过程中,呈现出大量小文件小 IO 读操作负载特征,是对传统文件存储性能的巨大考验,往往会遭遇“存储墙”性能瓶颈,使 GPU 经常处于等待数据的状态,降低 GPU 利用率,增加训练耗时。目前业界通过升级分布式文件存储节点硬件配置、提高前后端组网带宽、使用 NVMe 全闪存储介质、软件优化小文件处理等手段,提升文件存储性能。

2)存储容量:整个模型训练的过程涉及到文件存储和对象存储之间的大文件大 IO 数据拷贝,由于每种存储内部均设有副本和 EC 冗余机制,以及存储 SSD 硬盘的写放大效应,整个智算中心需要规划超过数据量本身数倍的存储空间,对智算中心的存储容量带来前所未有的挑战,亟需更高效的智算存储解决方案。

3)存储调度:超大规模的模型训练,未来可能需要实现跨地域多中心并行训练,以有效拉通整体的算力和存储能力,这要求存储具有跨地域统一命名空间、统一存储资源调度和足够高的端到端数据交互性能,但是当前仍然受到存储现有技术架构和长距离数据传输性能的限制,业界还没有成熟可行的解决方案。

2.3 多协议融合存储贯通异构数据

文件存储和对象存储虽然架构和协议不同,但都使用元数据机制存储非结构化数据,因此文件存储和对象存储可合并升级为融合存储。目前已经有一些开源或商业的解决方案,例如MinIO、Ceph RGW 等,这些方案提供统一接口,实现数据交互优化。这些方案提供统一的接口实现两套系统数据交互的优化。使用融合存储,用户只需将数据存储在一个地方,避免了数据复制和迁移,节省存储空间和管理成本,还可支持多种存储协议的同时访问。通过统一的存储架构,文件、对象等多种协议存储可以更加紧密地协同工作,实现数据的共享和传输。

实现存储协议融合需要关注协议转换语义损失和安全访问策略差异两大问题:

1)协议转换语义损失:文件存储和对象存储采用不同的数据存储范式,一些文件系统独有的特性无法完全映射到对象存储的模型中,例如,文件系统支持硬链接、符号链接等特性,在对象存储中无法直接体现;文件系统的部分访问控制列表(ACLs)可能无法转换到对象存储的访问策略中,因此在具体使用时,会造成关键语义的损失。

2)安全访问策略差异:在文件存储系统中,访问控制通常是基于传统的文件权限,例如 POSIX (Portable Operating System Interface)权限模型。而对象存储通常采用基于角色的访问控制或基于资源的访问策略。因此,将文件存储中的文件通过对象协议访问时,需要适配修订访问策略,可能导致安全性上的差异。

随着智算中心等场景对于存储的容量高效率利用和访问灵活性的需求,协议融合存储已成为发展趋势。对于融合存储语义损失和安全策略差异的挑战,可通过原生协议融合存储来解决。

原生协议融合指的是,制定统一的存储框架,在底层将元数据和数据实体抽象为元素,根据用户发起的协议要求,将数据元素组合起来提供服务。要实现协议的原生融合,需要产业界:

1)共同设计一致的数据模型标准,兼容文件存储和对象存储的特性,最大程度地保留文件系统中的语义和特性,并在对象存储中准确呈现;

2)将文件系统的元数据(如文件权限、访问时间、所有者等)转换为对象存储系统的元数据格式,实现两个系统的元数据准确映射,以便保持一致性;

3)定制统一的访问控制策略,确保在融合存储中实现相似的访问权限控制;

4)实现 QoS、分级和配额等高级特性共享,实现扩展性、性能、可服务性的能力统一等。

2.4 全局统一存储打破单体局限

跨地域多数据中心之间的全局统一存储,可以实现全局存储资源抽象,形成逻辑上统一的命名空间,一方面使得数据在不同数据中心之间的复制和同步更加透明,确保了数据的一致性和高可用性。另一方面,可以通过负载均衡策略,使得应用程序可以就近访问数据中心,降低访问延迟。这样的设计使得上层智算应用可以在不同数据中心之间无缝地访问和操作数据,而无需担心数据存放的物理位置,为实现跨域的分布式并行训练奠定数据基础,也使得大模型训练不再受到单体智算中心存储容量的限制。

跨地域全局统一存储当前还属于中远期的技术,处于起步探索阶段,需要产业界重构存储架构设计,并通过制定统一接口标准等方式,解决跨厂商存储资源统一调度的问题。与此同时,跨地域长距离的数据交互时延受到网络传输性能极限的约束,虽然当前可通过负载均衡策略就近选择数据中心,基于性能和距离等因素对数据进行热冷分级存储调度,长期来看,仍有待存储、网络、传输等多个专业领域在基础技术层面取得创新突破。

2.5 基于计算总线构建统一内存池

大模型训练任务对内存和显存带来较大挑战,数据需要在计算、Cache、HBM、DDR 内存设备之间频繁移动,缺乏统一内存空间的寻址会导致编程模型变得复杂,也会限制设备之间的协作,必须通过手动管理数据传输和复制,因此增加了开发难度和错误率。同时,在DDR 内存和 HBM 之间数据需要多次转换,异构设备既无法直接共享数据,也无法充分发挥各自的优势,这些因素都限制了系统整体性能的提升。

为了降低以上问题对新型智算中心整体运行效率的影响,需要引入基于计算总线协议的统一内存池(如 CXL,Compute Express Link)。通过构建统一内存池技术,实现一致性的内存语义和空间寻址能力,显著提高 CPU、GPU 与 Cache、DDR、HBM 等缓存、内存及显存系统的整体效率,从而支持更复杂、灵活的计算模型。

为尽早实现内存池化技术应用,以 CXL 协议为例,应重点在以下几个方面进行增强:第一,尽快完善满足内存池化技术的计算总线协议及子协议实现。完整、高效地实现 CXL.io 和 CXL.mem 协议,为设备之间的 I/O 通信和内存访问提供通道,优化数据传输和复制机制,降低内存池化引入的额外性能损失,确保系统高效运行。

第二,加快 GPU、AI 加速卡基于 CXL 或计算总线协议实现内存一致性机制。引入内存池技术将减少数据在计算和存储设备之间协议转换频度,通过实现内存一致性机制,优化内存、显存、缓存之间的一致性算法,确保共享内存中的数据同步更新,使得设备之间数据具有一致性和可用性。同时,实现健壮的纠错机制,确保内存池系统稳定可靠运行。

第三,加快制定多异构设备与内存池之间的统一接口,并具备隔离保护能力。提供多异构设备之间的协同工作接口,聚焦设备间高效协作和共享计算能力,减少数据传输和复制所带来的延迟和能耗。同时,强化安全措施,确保只有授权的处理器能访问内存池,防止访问冲突。

因此,推动产业基于计算总线协议构建的新型智算中心内存池技术,将在智算发展的道路上掀起一场重要的变革。内存池技术的应用将使得 CPU、GPU/AI 加速卡等异构设备共享统一内存,简化数据传输和管理,显著降低系统的复杂性和能耗。内存池技术的发展将为 AI 领域带来更高效的创新机会。

三、新平台——融通无限生态

智算平台的关键在于对智能算力进行高质量管理,使能资源效率更高、计算性能更优、业务入驻更易、算力协同更广。智算平台高质量管理有四大关键技术可供选择,从近期来看,用于优化资源效率的池化技术以及提高计算性能的分布式训练框架技术较为成熟,应在新型智算中心建设中引入并持续演进;从中远期分析,应在进一步培育、完善国内自主分布式训练产品的同时,加快推动算力原生技术成熟以降低业务准入门槛,深入研究跨节点分布式训练技术实现离散异构智算资源整合。

3.1 池化技术优化资源使用效率

传统智算中心的 GPU 利用率面临巨大挑战,据公开数据显示,已有智算中心,GPU 平均利用率不超过 30%,比如 AWS re:Invent 2018 公布数据显示其平均 GPU 利用率为 20%、Facebook 2021 年机器学习负载分析报告显示 GPU 利用率不足 30%、英伟达 GTC2022 公布数据显示 Google 云的 GPU 利用率为 25%。GPU 利用率较低通常是由于其资源分配方式导致,传统智算中心的 GPU 资源分配以整卡分配或虚拟化分配为主,粒度较粗,资源静态绑定,且多规格业务共存导致资源碎片化。

智算资源池化平台以“软件定义”的方式,提供四大资源敏捷管理功能,优化资源效率降低总体购置成本。

● 化整为零:改变传统的整卡分配、一虚多的粗放式分配方式,使能精细化分配能力,根据AI 任务需求做到 1% 的细粒度资源按需供给;

● 隔空取物:基于高速无损网络,跨节点调取智算资源,使 CPU 及 GPU 高度解耦,进一步降低碎片化率;

● 化零为整:整合分布在多机上的零散资源,汇聚成为大模型业务可使用的资源,使资源可高效分配;

● 变静为动:改变传统的资源静态绑定的机制,使能资源可以根据负载变化动态分配、回收,多任务间可以峰谷互补,全局资源可以适度超分,促进资源效率提升。

当前业界已经具备成熟的智算资源池化产品,以趋动科技的 OrionX、VMware 的 BitFusion等产品为典型代表,该类产品基于主流的 Kubernetes 容器管理技术构建池化管理能力,通过云原生技术与 GPU 池化技术的“强强联合”,为资源敏捷管理提供有效支撑。

图 3-17 智算资源池化平台

如 3-17 图所示,Kubernetes 作为池化平台的技术底座,主要承担 CPU 的管理调度和作为 AI 任务载体的容器 POD 的生命周期管理功能,通过对 Kubernetes 调度能力的扩展,将GPU 等智算的管理功能转移至独立的池化控制器执行。而在业务侧,在容器 POD 内植入完全仿真 GPU 卡的原生运行时的池化运行时组件,AI 应用可以像在真实环境中一样运行无感知,通过池化运行时劫持 AI 应用对 GPU 的访问 API 并转交池化服务代理执行,再由池化代理配合池化控制器实现四大敏捷管理功能。

上述智算资源池化技术有效优化了 GPU 等智能算力资源的管理效率,然而 GPU/AI 芯片种类繁多,其原生运行时又相对活跃、升级频繁,对原生运行时进行仿真以构建池化运行时的工作较为复杂,开发量、维护难度较大,不利于技术演进和运营运维。

另外一种流派的池化技术可规避基于 API 劫持技术所面临的问题,该类技术将 API 劫持转移至更底层的驱动层面实现,该位置涉及的接口更少,可大幅度降低仿真工作复杂度,以VMware 的 Radium、阿里云的 cGPU、腾讯云的 pGPU 等产品为典型代表。

这是一种完全与 GPU 无关的设备虚拟化和远程处理方法,允许在没有显式软件支持的情况下启用新的硬件体系结构。该项技术分为前端和后端,前端监视应用程序对驱动的调用,拦截至后端处理,后端则按应用程序申请的数量分配资源,或将应用程序拆分到多台机器上运行,在保持代码、数据和执行环境一致性的前提下使用这些机器上的智算资源,从而实现资源的敏捷化管理。

与 API 劫持技术直接介入到 AI 应用访问资源的流程、需要仿真原生运行时的 API 接口的方式不同,应用程序监视器不介入到 AI 应用访问资源的流程,而是通过更底层的系统调用隐含而广泛的支持更多种类、型号的硬件和新的运行时功能,其实现方式与特定的运行时 API(如 CUDA)无关,具备更加强大的通用性和兼容性。

上述池化技术实现较为复杂,但灵活性较高,然而 GPU/AI 加速卡驱动的接口多为不透明,对驱动调用的劫持面临一定的兼容性问题,且存在一定的法律风险。

两种方案在集成实现难度、性能表现、升级适配等方面各有优劣,用户需根据实际应用情况选择。芯片多样化、生态不融通而导致的竖井问题是制约技术发展的根源,在此呼吁产、学、研各界合作伙伴精诚合作,凝聚共识,在此“一芯难求”的时代,聚焦可用算力、高效利用,共促智算产业有序发展。

6.2 算力原生融通多样算力生态

新型智算中心需要集结泛在、多样的计算系统,形成一体化的灵活服务能力,随时随需为智能应用适配计算资源,以满足人工智能等产业迅猛发展所需的巨大算力需要。

当前,多样异构计算系统一体协同运用面临严峻的竖井化生态挑战。各厂商围绕自身硬件特性构建相对独立且排他的工具链系统,适配集成各类 AI 框架形成分支版本,构成“中间件/ 框架 + 工具链 + 硬件”紧密协同的长链条式智算生态;各厂商间互不兼容,致使上层智算应用与特定系统的锁定,难以在多个竖井生态系统间迁移部署,使算力运营商所集结的多样算力无法为智算应用呈现出一体化的资源,制约算力资源的高效运用,亟需融通业界生态竖井,屏蔽底层算力资源复杂性,使能应用无感迁移部署。

图 3-18 “芯合”算力原生跨架构平台

算力原生技术应运而生。

一是为动态变化、多样泛在的异构计算架构构建统一的算力设备抽象模型;

二是为开发者建立统一的编程模型及范式,实现转译机制及性能综合优化;

三是为各类算力厂商软硬件栈建立动态适配、统一纳管及任务映射机制。

从而以新型技术机制解耦各厂商紧锁定式工具链运行模式,从根本上解决上层应用对单一厂商工具链的依赖问题,屏蔽混合算力环境下多类底层硬件差异,实现应用的动态自适应跨架构迁移部署运行。实现“同一应用一次封装、屏蔽差异跨芯迁移、智算应用一体部署”的能力目标。

以算力原生技术为依托,中国移动联合产业伙伴全速打造可部署于混合异构集群内的“芯合”算力原生跨架构平台 ,构建跨架构编译器、原生运行时、集成开发环境等关键产品组件,为开发者用户提供云端可随时接入的统一入口,实现异构算力资源监控、跨架构程序开发、原生程序管理、调试部署等工作的全生命周期解决方案。

当前正加速推动组件研发、系统适配、联合测试、标准建设等工作,希望与产、学、研各界合作伙伴精诚合作,凝聚共识,共同推进算力原生技术成熟,繁荣智算产业全“芯”生态。

6.3 分布式训练提升模型训练效率

分布式训练框架是搭建在大型算力资源池基础上的用于并行处理深度学习模型分布式训练任务的一组工具集合,其将训练任务划分为多个子任务,通过在多台计算机上并行执行,实现高效、可靠和快速的深度学习模型训练,提高模型的准确性和效率。

当前业界分布式训练框架呈现百花齐放现状,一方面是以硬件厂家主导研发的框架,这些框架特点在于与其硬件配合度较高,能够较好地发挥硬件本身优势,包括英伟达Megatron、华为 Mindspore 等。‍

另一方面是传统主流 AI 框架研发的分布式训练库,包微软 DeepSpeed 等;同时比照国外业界主流的框架,国内各厂商也研发了对应的框架,包括百度 PaddlePaddle 等。这些框架均针对各自底层硬件需求、并行策略接口设计、算法优化等设计了特定功能。

综合分析当前主流分布式训练框架及技术,该领域仍面临部分挑战和难点,主要包括:

●通信开销:在分布式训练中,各个计算设备之间需要频繁地进行通信,以传输模型参数和梯度信息。这样的通信开销如何与计算匹配设计是模型训练调优的关键。

●同步问题:分布式训练需要对不同设备上的模型参数进行同步,以保持全局模型的一致性。然而,设备之间的计算速度可能不同,导致一些设备比其他设备更快地完成计算,从而产生同步问题,需要设计一些同步策略,如梯度累积、异步更新来解决这个问题。

●容错性:在分布式训练中,经常发生因设备故障或通信错误影响训练效率。需要采取合理的机制处理设备故障,如断点续训、备份数据等。

●调试和监控:分布式训练的调试和监控对于训练出现问题时的追踪和定位非常关键,这对于大规模的分布式系统来说是一个挑战。

尽管当前存在以上技术挑战,但研究人员和工程师们仍在不断改进和优化分布式训练技术,使其能够适应更大规模和更复杂的深度学习模型和数据集,通过在硬件、算法、网络和系统方面持续创新,进一步推动分布式训练技术的发展。未来分布式训练框架演进的总体趋势包括:

●自动化、简洁化。框架开发者通过提供更加简单易用的接口、工具,逐步使能半自动化、自动化分布式并行训练,提高算法研发效率,助力用户高效编写分布式并行代码,并简化分布式训练配置、调试等过程;

●弹性和动态性。未来的分布式训练框架将能够根据实际需求进行资源的动态分配和释放,实现在云计算环境下更加高效地利用计算资源,满足不同规模和需求的训练任务;

●跨平台训练任务迁移。为了满足来自用户的多样化需求,分布式训练框架将逐步支持跨平台的训练能力,用户可以在不同的硬件设备间无缝切换和迁移训练任务;

●支持超大规模模型训练。随着数据量和模型规模的不断增加,分布式训练框架将进一步优化设计并行训练策略以满足超大规模模型训练需求,并考虑支持跨集群分布式训练解决单集群算力发展规模存在上限的问题,其可能涉及底层通信操作、资源利用策略等优化机制。

●边缘侧训推。随着边缘计算等技术的发展,未来分布式训练框架将面向边缘侧设备计算、存储资源限制等瓶颈,通过引入模型压缩、轻量化、异步训练等技术,满足边缘计算场景下的大模型实时训推需求。

●更好的容错能力和鲁棒性。分布式训练框架将不断改进其容错和鲁棒能力,以应对计算故障或通信中断等问题,包括设计更优的任务检查点机制、容错调度策略等技术,确保训练过程的稳定性和可靠性;

●多模态、多任务训练能力。随着多模态数据和多任务学习的兴起,分布式训练框架将逐步支持同时处理多个数据模态和执行多个任务,通过提供可适应多模态数据输入和输出的接口和算法,并探索多任务学习的优化策略,提高模型泛化能力和效果;

●在线学习和增量学习。在某些应用场景中,数据可能是不断产生和变化的,需要框架支持在线学习和增量学习的能力。未来的分布式训练框架将支持在线学习的模式,能够在训练过程中动态地接受新数据并实时进行模型更新。

整体来看,未来的分布式训练框架将聚焦于自动化、弹性、跨平台支持、大规模模型训练、跨集群训练、边缘训推、容错可靠性等方面不断优化完善,简化用户在开发大模型过程中的资源开销,通过功能完善、算法改进等方式提供更加高效、易用的模型训练工具。

6.4 跨域分布式调度促进广域资源利用

当前,智算资源呈现异构和离散状态,各地智算中心部署的 GPU/AI 加速卡、网络配置等均不相同。此外,受限于机房空间和供电,部分智算中心资源不足无法满足大模型训练需求,部分智算中心则存在大量闲置资源没有充分利用的情况。如何有效利用海量而分散的数据和算力,实现高性能、高可靠的跨域分布式并行训练,将成为推动多智算中心算力协同、促进算力共享与协作的关键。

跨智算中心的分布式并行训练目前已成为学界一大研究方向,旨在通过对多智算中心资源的统一纳管和调度,实现跨域的模型训练,随着智算中心内部算力和带宽的飞速提升,跨域分布式训练的通信效率已成为主要性能瓶颈:

**1)跨智算中心可用传输带宽有限,周期性的大流量通信引发通信瓶颈。**对于多智算中心间的网络互联,位于同一城市的可采用密集型复用技术和裸光纤直连实现物理链路的互联互通,但异地场景传输距离远不具备光纤直连条件,通常使用广域网专线连接。跨域大模型训练需要周期性同步模型参数,随着模型规模增大,智算中心间通信将产生严重的网络拥塞和性能瓶颈。

2)跨智算中心算力和网络资源差异分布且动态变化,易产生同步阻塞,拉低系统效率。不同智算中心算力和网络配置不同,将造成计算和传输步调不协调。对于跨域训练问题,算力低、带宽小的计算节点将拖慢模型同步的完成时间并拉低系统训练效率,产生木桶效应。此外,广域网的带宽也要分配给其他通信业务,带宽资源实时竞争,资源的动态时变特性使模型同步更加难以估计,进一步加重同步阻塞。

综上,优化模型传输带宽开销和确保模型训练性能是跨域模型训练需重点解决的问题,需要在系统架构、传输协议和顶层算法等方面进行联合优化设计:

● 系统架构层面,研发跨域分布式训练框架和全局资源调度平台。统一训练框架可形成统一的资源抽象,以支持所有的并行策略(数据并行、流水并行、张量并行)及策略混合,同时具备高效、通用和硬件感知等能力,实现训练任务拆分、任务下发和参数合并等。全局资源调度系统可实时获悉不同智算中心的硬件资源情况,监控节点间带宽资源变化,并使用断点续训等手段缓解硬件故障和带宽阻塞的影响。

● 传输协议方面,设计面向模型训练的梯度差异性的传输协议,减少跨域通信带宽需求。当前的分布式机器学习系统普遍采用精确传输服务协议,无差别地将所有梯度从发送端完整地传输到接收端(如 RoCE 协议),并未考虑梯度的差异化传输需求。然而,不同梯度对模型收敛影响不同,无需传输所有梯度信息即可完成模型训练。因此,设计一种根据梯度贡献的传输协议可提升跨域场景下的高效通信。

● 算法设计方面,探究模型的压缩传输技术,减少域间模型数据量的传输需求,缓解通信瓶颈。模型压缩可以显著减少每次模型同步传输的数据量,典型的方案包括量化和稀疏,量化是用有效的数据表示压缩参数或梯度,减少每个值的占用位数,稀疏则是通过筛选部分关键梯度参与梯度聚合与模型更新,避免发送不必要的信息。设计满足跨域带宽需求的模型压缩传输算法,可有效减少域间带宽需求,缩短模型训练时间。

四、新节能——实现可持续发展

高性能智算服务器功率密度正在急剧上升,CPU 从 150W 增加到 300W 以上,GPU 则增加到 700W 以上,一台配置了 8 卡 A800 的智算服务器功耗约为 6.5KW,是通用服务器的 10倍以上,这意味着服务器散热量会大大增加,单机柜的功率密度和散热量也大幅增长。与此同时,半导体元器件的温度每升高 10 度,可靠性就降低一半。据统计,电子器件失效中55%由温度过高或温度不均造成,芯片的极限温度为 85 度,超出这个阈值,芯片就会降低性能和功耗来保证其稳定可靠的运行。

液冷技术可以有效地将热量从设备中导出,相比空气能够传热更快(提升 20~25 倍),能够带走更多热量(提升 2000~3000 倍),有效降低设备温度。采用液冷技术一方面可以提高数据中心的设备部署密度,实现空间资源的高效利用(液冷机柜密度是传统风冷机柜的约3~4 倍,相同算力下节省机房面积约 75%);另一方面将有助于提高芯片可靠性,保证芯片在最大电压和频率下连续运行,提升芯片性能。

液冷方案包括冷板式、浸没式和喷淋式三种技术。冷板式液冷是一种非接触式液冷方式,液体无需接触发热的器件,通过装有液体的冷板导热,借助液体循环带走热量。浸没式液冷为接触式冷却,将发热器件完全浸没在冷却液中,发热器件与液体直接接触并进行热交换。

根据工质是否产生相变又分为单相液冷和相变液冷。喷淋式液冷是将冷却液直接喷淋到发热器件表面或与发热器件接触的扩展表面上,吸热后排走,再与外部冷源进行热交换。冷板式和单相浸没式是目前主流方案。冷板式液冷部件兼容性强,机房改造、运维工具和运维习惯上相对于风冷改动较小,可实现平滑过渡。

单相浸没式具有更低的 PUE,但存在冷却液成本高、与现有基础设施不兼容、生态不完善等问题,随着国产冷却液性能的提升,产业生态不断成熟,浸没式液冷应用场景将进一步拓展。总体来看,冷板式液冷和单相浸没式液冷各有优劣,短期内将以冷板式液冷为主,长期来看冷板式和单相浸没式液冷将共存发展。

考虑到大模型训练场景散热和可靠性需求,兼顾机房空间、设备部署、成本以及产业成熟度等因素,大规模引入冷板式液冷技术可能面临如下挑战:

1)统一标准问题:液冷系统涉及到的部件之间兼容性存在标准缺失,各家服务器设备、冷却液、制冷管路、供配电等产品形态各异、接口不同,导致产业竞争不足,采购成本高,影响产业高质量发展。

2)可靠性问题:除了服务器本身,冷却液流经的管路也存在腐蚀和泄露的风险,冷却液对管路的腐蚀会引起管道的损坏,进而导致泄露,因此防腐蚀是液冷系统设计的关键。此外,泄露后的故障隔离措施和低温环境下液体的冻结风险也需要重点关注。

3)液冷系统的监控和运维:相比风冷系统,需重点关注新增 CDU 设备和液冷管路的维护,以及冷却液的监测和维护。

针对上述问题,有如下解决方案供行业参考

1)建议采用液冷整机柜和 CDU 解耦方式,将液冷整机柜接口,包括液体压差、流速、温度、管路接口型号等参数,形成行业标准,不同厂商的液冷机柜和同型号 CDU 对接,实现异厂家液冷整机柜服务器共机房部署,降低数据中心建设、运营成本。

2)在冷却液中添加含有防腐蚀、防冻功能的缓蚀剂,比如乙二醇溶液等,降低管道的泄露以及液体冻结风险。增加漏液导流结构设计,一旦泄露后具有故障隔离功能。

3)采用集中式 CDU 部署,减少运维工作量,故障维护不停机,机房空间利用率高。

面向中远期,我们将继续推动液冷技术发展和落地应用:

1)推动服务器和机柜解耦:通用冷板式液冷服务器已被行业广泛接受,生态趋于完善,例如机柜,冷板,快接头,manifold,CDU,漏液监控和处置措施等,各种团体标准都在制定中。

基于快接头标准,双路通用计算服务器可以实现机柜和服务器之间的解耦。但是在 NICC 场景下,产业生态标准化不足,产品设计差异较大,冷板能力、流阻、流量差异更大,机柜和服务器解耦难度较高,导致产品竞争不充分,采购成本高,同时给设备运维带来困难。我们将推动制定液冷服务器和机柜解耦相关标准,促进液冷产业全链条发展。

2)运维和管理优化:需要对液冷新增的 CDU、液泵、液冷的 ICT 设备进行统一管理;运维方面,必须采取健康防护措施,对冷却液的更换和排放必须遵循化学品的安全技术要求,运维人员的技能水平也必须紧跟发展步伐。

3)持续优化 PUE:扩大冷板散热的冷却范围,降低风冷散热的比例。结合高效风冷散热系统,进一步降低冷板式液冷数据中心的散热。协同制冷和散热,合理设计服务器冷却液进口温度、科学分配散热温差、实现服务器及其散热系统的节能最大化。

五、总结和倡议

大模型技术的日新月异对智算底座的升级提出了高要求,由于硬件的迭代周期和成本都要远大于上层软件和算法,统筹考虑、超前布局基础设施技术方案尤为重要。

面向新互联,面向百卡级别的高速互联需求,产业应联合打造统一的计算总线协议,实现缓存一致性的数据访问,并提升流量控制、拥塞控制、网络无损、重传等通信和数据传输能力,收敛技术路线,推动国内高速互联技术生态成熟;集群间基于 GSE 打造无阻塞、高带宽、低时延、自动化的新型智算中心网络,向更细粒度的负载分担、端网结合的拥塞控制和基于全局的智能运维三个方向不断演进。

面向新算效,从存算一体化、稀疏化、AI 算子硬件支持、更低推理时延等方面进一步优化AI 芯片设计;要大力推动存算一体与大模型技术的结合,从算法结构设计、精度需求和先进封装技术三个角度,加速多核、多芯片存算一体架构成熟;按需引入 DPU,加快推进云平台软件、DPU 卡硬件、服务器硬件的标准化,最大化助力算效提升。

面向新存储,结合新型智算中心多元异构的数据特征,打破传统各协议分立的存储架构,共同推进多协议原生融合存储的产品研发、技术成熟和商用部署,积极探索基于 CXL 的统一内存池和跨地域全局统一存储技术方案。

面向新平台,在引入智算池化技术和分布式训练框架的基础上,加快推动算力原生技术成熟以降低业务准入门槛,同步探索跨域分布式训练技术,实现离散异构智算资源整合。

面向新节能,坚定推动液冷技术成熟,解决新型智算中心的散热压力和节能挑战。聚焦液冷服务器和液冷机柜的接口标准,优化液冷环境下运维和管理能力,促进产业链上下游生态成熟和能效利用水平不断提升。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/900521
推荐阅读
相关标签
  

闽ICP备14008679号