当前位置:   article > 正文

【AI大模型新型智算中心技术体系深度分析 2024】_智算中心发展现状

智算中心发展现状

文末有福利!

ChatGPT 系 列 大 模 型 的 发 布, 不 仅 引 爆 全 球 科 技 圈, 更 加 夯 实 了 人 工 智 能(Artificial Intelligence, AI)在未来改变人类生产生活方式、引发社会文明和竞争力代际跃迁的战略性地位。当前各国政府已全面布局 AI,作为 AI 技术发展的关键底座,智算中心的建设和部署在全球范围内提速。

**然而,早期建设的智算中心,以承载中小模型、赋能企业数智化转型为主要目的,在技术标准、生态构建、业务发展和全局运营等各方面仍有待提升。**当追逐大模型成为行业标准动作,面向大模型的新型智算中心(New Intelligent Computing Center,NICC)成为新时期关注的焦点。

**新型智算中心的建设是一个系统工程,需要“算存网管效”多个维度的协同设计。**为构建智能服务的核心和基础,定义新型智算中心技术体系架构,并面向未来大模型孵化,从新互联、新算效、新存储、新平台和新节能等五个领域提出下一代技术演进建议,希望本文为大家在新型智算中心的硬件设备选型、算力集群设计、机房散热规划、软硬工程调优、全局运营调度等多个方面的技术路线选型提供帮助。

一、智算中心行业发展现状

1.1 智能算力跃升为全球第一大算力,智算中心建设如火如荼

1956 年第一次 AI 发展浪潮信息伊始,60 多年来,从理论探索到大数据驱动,从深度学习到大模型智能涌现,AI 正在成为一项新兴的通用型技术,向多场景、规模化、AIGC(AI Generated Content)等方向快速演进。智能算力作为 AI 的底座型技术迎来需求井喷。据统计,到 2030 年,全球智能算力需求增长约 390 倍,增速远超摩尔定律。据《中国算力发展指数白皮书(2022)》指出,我国智能算力也在近几年保持快速增长态势。2021 年我国智算规模已达到 104E FLOPS,占比超过总算力的 50%,预计到 2030 年将升至 70%,成为算力的主要增长极。智算成为全球第一大算力已是大势所趋。

至此,智算中心作为一种新型算力基础设施为大家所熟悉。不同于传统的云数据中心和超算中心,智算中心是以 GPU、AI 加速卡等智能算力为核心、集约化建设的新型数据中心,为人工智能应用提供所需的算力服务、数据服务和算法服务,使能各行各业数智化转型升级

图 1-1 美国智能超算中心

智算中心的战略地位不断提升,为构造未来竞争发展优势,很多国家都在积极开发和部署智算中心。其中,美国能源部及国家科学基金会主导,将智算中心和超算中心结合,建设超大规模智能超算中心,为科学研究提供高性能计算资源(如图 1-1),例如,橡树岭国家实验室的 Summit(3.4E),阿贡国家实验室的 Polaris 和 Aurora(约 10E),劳伦斯伯克利实验室的 Perlmutter(3.8E)等,这些智能超算中心往往具有单体算力大、技术领先等特点。美国科技巨头也是智算中心的主要建设者,包括谷歌的开放机器学习中心(9E),特斯拉 Dojo 集群(据称 2024 年末规模达到 100E),Meta AI 超级计算机(9.9E)等。

国内智算中心建设热潮始于 2020 年,目前已有 40+ 城市建成或正在建设智算中心(如图1-2),包括武汉人工智算计算中心(200P)、南京智能计算中心(800P)、合肥先进计算中心(12P)、鹏城云脑 II(1E)等,其中 12 个位于“东数西算”八大枢纽,这些智算中心主要由地方政府与企业合建,总体投资规模超千亿,旨在带动当地产业智能化升级。

国内互联网和 AI 企业自建的智算中心是国内智能算力的重要组成如阿里在张北和乌兰察布建设的总规模达 15E 的智算中心,旨在结合智能驾驶、智慧城市等业务,探索云服务后的智算服务新业态;百度在山西阳泉建设规模 4E 的智算中心,孵化国内首个正式发布的大模型“文心一言”;商汤作为国内头部 AI 企业,投资 56 亿在上海临港建设人工智能计算中心,规模超 4E,主要面向智慧商业、智慧城市、智慧生活和智能汽车四大板块,发展 AIaaS(AI as a Service)服务。

1.2 早期智算中心在技术、标准、生态、运营等方面仍面临挑战

当前智算中心主要以单供应方全栈体系构建为主,尚未形成业界统一的设计方案,因此各地智算中心在技术、标准、生态、运营等方面仍面临挑战。

在技术方面

早期建设的智算中心以承载中小模型为主,AI 服务器大多是 PCIe 机型,配备独立的文件存储,互联方式则以节点内 PCIe 通信与节点间传统以太网为主。

随着通用大模型的普及,智算中心的设计思路需要从原先以单芯片、单服务器粒度提供算力服务的模式,转变为支持巨量并行计算,提供高吞吐、高能效的集群算力。

在标准方面

由于各地智算中心大都是当地政府与 AI 芯片、整机厂家合作建设为主,技术方案深度绑定,容易形成多种派系。亟需通过制定行业标准,一方面降低客户学习和使用的时间成本,另一方面加强产业链上下游企业的协同,促进智算产业的高质量发展。

在生态方面

因为 AI 是软硬深度耦合的技术栈,国外主流产品“先入为主”,主导生态发展,相比之下国内 AI 起步较晚,在芯片算力和软件栈适配方面均存在差距。在智算生态竖井式发展的当下,需要加强引导,为后续 AI 应用的适配和跨架构迁移奠定基础。

在运营方面

各地智算中心的服务对象多为区域内的行业客户、科研院所和高校,较少考虑全局协同,随着东数西算、东数西渲等应用需求不断丰富,需要提前布局跨区域的全局算力调度,提升算力高质量供给和数据高效率流通。

由此可见,未来智算中心亟需朝着技术先进、标准统一、软硬协同、兼容开放的方向发展。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~ , 【保证100%免费

在这里插入图片描述

篇幅有限,部分资料如下:
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/900501
推荐阅读
相关标签