blog
2025-08-27

AMD 最强 AI 方案:MI350 系列公开细节,较 MI300X 系列 Deepseek R1 推理提升近 3 倍

IT之家 8 月 27 日消息,科技媒体 WccfTech 昨日(8 月 26 日)发布博文,报道称在 Hot Chips 2025 上,AMD 公布了 Instinct MI350 系列 AI 加速卡的完整架构细节。

该系列基于 3nm CDNA 4 架构,采用 3D 多芯粒设计,集成 1850 亿晶体管,支持 288GB HBM3e 高带宽显存,总带宽达 8TB/s。

IT之家援引博文介绍,MI350 系列是 AMD 针对 AI 领域的最新旗舰方案,主要提升训练和推理大语言模型(LLM)的能力,基于全新 CDNA 4 架构与 3nm 工艺,采用 3D 多芯粒(3D Multi-Chiplet)设计,单卡集成 1850 亿晶体管,并引入 288GB HBM3e 显存,单卡带宽高达 8TB/s。

MI350 系列中包括风冷的 MI350X 与液冷的 MI355X,两者分别具备 1000W 与 1400W 功耗上限,最高频率分别为 2.2GHz 和 2.4GHz。

核心采用 8 个 XCD(加速计算芯粒)与 2 个 IOD(IO 芯粒),通过第四代 Infinity Fabric 互联,双向带宽可达 1075GB/s,并内置 256MB Infinity Cache,HBM3e 控制器支持 8 颗 36GB 堆叠显存,形成 288GB 总容量。

在计算单元方面,单卡配备 256 个计算单元(CU),共 16384 个流处理器及 1024 个矩阵核心,支持 FP8、MXFP6 / MXFP4、INT8 / INT4 等多种低精度数据类型,FP4 / FP6 算力最高 20PFLOPs,FP8 算力最高 80.5PFLOPs。

与上代 MI300 系列相比,运行 Llama 3.1 405B 推理吞吐性能提升可达 35 倍,Deepseek R1 推理能力提升 3 倍。

系统扩展上,MI350 系列支持 GPU 和显存按需分区,可在单插槽内运行多达 8 个 700 亿参数模型实例,并可在多卡配置下通过 154GB/s 双向链路互联。

标准 OAM 封装可安装至 UBB2.0 底板,8 卡系统可搭配最新第五代 EPYC 处理器与 400GbE 网络接口,部署于数据中心机架。

相比较英伟达的 GB200 / B200 ,MI355X 在 FP6、FP64 等指标上具备 2 倍以上优势,HBM 容量领先 1.6 倍。AMD 表示,该系列将于 2025 年第三季度由合作伙伴供货,并透露已着手研发下一代 MI400 系列,计划 2026 年推出。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

来源于:https://www.ithome.com/0/878/393.htm    如有侵权请联系我们