当前位置: 首页 > news >正文

智算中心建设热潮涌动 AI服务器赋能加速

在数字化浪潮汹涌的今天,人工智能新技术新发展日新月异。智算作为数字经济时代的新生产力,正逐步成为推动经济社会高质量发展的新引擎。

智算中心:算力时代的“新基建”

近年来,随着人工智能技术的迅猛发展和广泛应用,智能算力需求持续爆发,推动了智算中心的快速发展。2022年,随着国家“东数西算”工程启动,我国算力地图正式开始,形成八大枢纽、十大算力中心集群。

据中国电信研究院发布的《智算产业发展研究报告(2024)》显示,截至2024年6月,中国已建和正在建设的智算中心已超过250个。近期已有多个智算中心项目接连投产,各地正加速推进智算中心建设。

例如:

  • 国内运营商单集群智算中心:中国移动智算中心(哈尔滨)建设完成并正式投产使用;
  • 超芯智算“三南”人工智能算力中心建成投产;
  • “中贝合肥智算中心”正式上线运行,该项目为安徽首家“低碳AI智算中心”。

这些智算中心一般都建设在一线城市和部分县级城市,而这些智算中心的算力不仅满足本地的算力需求,也推动了当地区域经济数字化发展。这一数字表明,中国在智算中心建设方面取得了显著成果,为数字经济发展提供了有力支撑。

智算中心背后的“宠儿”

筹建智算中心除了场地、机房等基础设施,最重要的还是GPU服务器。当前智算中心最火的无疑是4U高度搭配8张GPU的AI服务器,简称4U8卡服务器。相比于NVlink或者国产OAM模组产品,PCIE形态的4U8卡服务器配置更加灵活、在推理端或者模型参数较小时,性价比更高。今天跟大家聊一下4U8卡产品和不同拓扑之间的区别。

目前4U8卡服务器还是以X86或C86平台为主,主流产品支持PCIE4.0和PCIE 5.0;PCIE5.0相比PCIE4.0带宽翻倍,如图1;随着支持PCIE四五代CPU和内存价格的降低,相信预计到明年年中PCIE5.0将占据大部分的市场份额。

可能很多朋友在选型的时候会遇到一个问题,4U8卡机型代数和拓扑这么多,该如何选型?

先来看一下AMD平台,众所周知,目前AMD的CPU在服务器市场上呈现一个追赶的态势,正在一步步攻占Intel的市场份额,根据第三方机构统计显示最新的市场份额已经达到34%,AMD的上下游生态也日渐繁荣。如图2是AMD霄龙系列CPU的参数列表。

可以看到,主流的三代和四代产品,两颗CPU都能提供256个PCIE资源,针对4U8卡机器,除去给GPU的资源128(X16*8),还能有较多资源给到网卡和NVME以及RAID卡等部件,能够满足智算中心的需求。因此AMD平台的4U8卡均是直通机型,不需要上PCIE Switch芯片,CPU和GPU之间的通信延迟更低,成本更有优势。

适用场景:中小规模AI训练、推理;GPU云平台;HPC。

除此之外,再来看一下Intel,虽然AMD市场份额有较大增长,但是Intel目前还是凭借其良好的生态,占据服务器市场的大部分份额。如图3是Intel至强系列CPU各代规格。

相比AMD,Intel在核心数和PCIE资源数量都较少,比如至强3代,单颗CPU只有64条lane,两颗U也只有128条lane,直通机型无法满足8GPU卡配置。因此8卡机器都是带Switch机型;到了至强4/5代,单U升级到80条lane,可以支持直通8卡机型,但装满8卡后,只剩32条lane的PCIE资源可以使用,一些场景PCIE资源还是不够,因此至强4/5代机型也有多种拓扑可供选择。

Switch芯片与Intel 4/5代的8卡机拓扑

下面介绍下市场主流的Switch芯片和Intel 4/5代的8卡机拓扑。

什么是PCIE Switch?

PCIe Switch 即 PCIe 开关或 PCIe 交换机,主要作用是实现 PCIe 设备互联,PCIe Switch 芯片与其设备的通信协议都是 PCIe。由于 PCIe 的链路通信是一种端对端的数据传输,因此需要 Switch 提供扩展或聚合能力,从而允许更多的设备连接到一个 PCle 端口,以解决 PCIe 通道数量不够的问题。

目前市场主流的三代产品均使用的是88096这款Switch芯片,能够扩展出96条PCIE lane, 四代8卡机器均用的是89104这款Switch芯片,支持PCIE 5.0、能够扩展104条PCIE lane,价格也越昂贵。

主流拓扑有哪些?

A. 直通机型拓扑

拓扑特点:

1、CPU-GPU直通,无需通过PCIe Switch中转,延迟低;

2、GPU与CPU间的并发带宽更高、多卡并行计算性能更优;

3、无PCIE SWitch芯片,价格更有优势。

适用场景:

中小规模AI训练、推理;GPU云平台。

B. 带Switch机型_balance mode

Balance Mode拓扑为Dual root,根据PCIe资源将GPU平均分配到每个对应的CPU上,同一个PCIe Switch下的GPU可以实现P2P通信,不同CPU下挂接的GPU需要跨超级通道互联UPI(Ultra Path Interconnect)才能通信(即跨节点通信)。

拓扑特点:

1、两组GPU分别挂载在两个CPU下,负载均衡,CPU算力较高;

2、对于双精度浮点运算,因GPU计算需要使用处理器与主内存,由于Dual root的拓扑上行带宽与内存使用率提升,其性能会优于Single root的拓扑。

适用场景:

GPU虚拟化、绝大多数加速计算应用场景(AI、HPC)。

C. 带Switch机型_Common mode

Common Mode拓扑中GPU的PCIe资源均来自同一个CPU,同一个PCIe Switch下的GPU可以实现P2P通信,不同PCIeSwitch下挂接的GPU需要跨CPU PCIe Root Port才能实现P2P通信,但通信带宽低于同一个PCIe Switch下的P2P通信。

拓扑特点:

1、所有GPU均挂载在同一CPU下,CPU和GPU间占用两条x16;

2、Common Mode在一定程度上能够满足GPU之间点对点的通信,同时可保障足够的CPU与GPU之间的I/O带宽。

适用场景:

适用于计算量及容量较小的模型数据处理。

D. 带Switch机型_Cascade mode

Cascade Mode拓扑中GPU的PCIe资源均来自同一个CPU PCIe Root Port,PCIe Switch之间为级联拓扑,同一级PCIe Switch下的GPU可以实现P2P通信,第1级PCIe Switch下的GPU和第2级PCIe Switch下的GPU之间可以实现P2P通信,不需要通过CPU PCIe Root Port。

拓扑特点:

1、所有GPU均挂载在同一CPU下,资源不均衡;

2、Cascade Mode只有一条×16链路,但由于GPU 之间通过PCIe Switch串接,提升了点对点的性能,降低了延迟。

适用场景:

适用于计算量及容量较大的模型数据处理。

随着AI应用的快速发展,复杂多变的应用场景对计算架构的选择和设计提出了更高的需求。如何选择最优的PCIe 拓扑结构,实现计算资源的优化配置,加速AI服务器的计算处理能力,对于提升智算中心的整体性能至关重要。

思腾合力结合实际需求进行精准选型,为千行百业提供一站式的AI算力解决方案,助力智算中心发挥最大效能,为推动人工智能与数字经济的高质量发展贡献力量。


http://www.mrgr.cn/news/65402.html

相关文章:

  • 【算法】Prim最小生成树算法
  • 深度学习之降维和聚类
  • Android Studio各种历史版本
  • 分析自动下载电路是如何工作的以及CH340的选型
  • 江协科技STM32学习- P32 MPU6050
  • WorkFlow源码剖析——Communicator之TCPServer(中)
  • pytorch初学者理解网络的神器summary
  • 【深度学习滑坡制图|论文解读2】基于融合CNN-Transformer网络和深度迁移学习的遥感影像滑坡制图方法
  • 大数据与智能算法助力金融市场分析:正大的技术创新探索
  • 【C++】哈希表模拟:开散列技术与哈希冲突处理
  • codeforces round984 div3
  • 《等保测评:中小企业网络安全的加速器》
  • 2024年充电宝哪个牌子性价比高?充电宝十大品牌排行榜!
  • 数据结构-插入排序笔记
  • EDA二维码生成工具 V1.2
  • 西门子触摸屏维修6AV7200-1JA11-0AA0防爆显示屏维修
  • SuperMap GIS基础产品FAQ集锦(20241104)
  • C# EF 使用
  • C++笔记-解决gdb调试时不显示出错行的问题
  • 13.字符串
  • AI智能体工具:AutoGLM、MobileAgent、Claude compute use
  • Java面向对象编程高级-枚举类(四)
  • 基于SSM的学生选课系统+LW参考示例
  • CSRF初级靶场
  • 三、 问题发现(日志分析)
  • qt QTimer详解