英特尔放弃同时封装 CPU、GPU、内存计划

半导体产业纵横 半导体产业纵横
英特尔将CPU、GPU和内存芯片拼接在一个称为XPU的单一封装上的宏伟计划已经暂缓。英特尔超级计算集团副总裁杰夫·麦克维(Jeff McVeigh)透露,该公司的Falcon Shores平台不仅会迟到,而且不会是一个XPU。

但AMD和英伟达没有。

英特尔将CPU、GPU和内存芯片拼接在一个称为XPU的单一封装上的宏伟计划已经暂缓。英特尔超级计算集团副总裁杰夫·麦克维(Jeff McVeigh)透露,该公司的Falcon Shores平台不仅会迟到,而且不会是一个XPU。

英特尔最初计划其Falcon Shores芯片同时具有GPU和CPU内核,从而创建该公司的第一个用于高性能计算的“XPU”。几个月前英特尔宣布这款产品将转向纯GPU设计并将芯片推迟到2025年,这让行业感到震惊——因为另外两家处理器巨头AMD的Instinct MI300和英伟达的Grace Hopper都具有混合CPU+GPU设计。

麦克维说:“之前将CPU和GPU集成到XPU中的努力还为时过早,”他认为,自从Falcon Shores详细介绍以来,市场在这一年发生了巨大变化,以至于继续进行下去不再有意义。麦克维将这种选择比作登山。“当在登山的时候,如果天气变坏,你感觉不对,你不会仅仅因为它在那里就去顶峰。你会推迟到当你准备好了,当生态系统准备好了,当气候准备好了。”

根据麦克维的说法,当今的AI和HPC工作负载过于动态,无法进行集成。“当工作负载固定时,当你非常清楚它们不会发生巨大变化时,集成就很棒,”他补充道。虽然Falcon Shores不会成为XPU,但这并不意味着英特尔不会在适当的时候重启该项目。

英特尔发布了新的HPC和AI路线图,其中没有显示Gaudi3处理器的继任者——相反,Gaudi和GPU与Falcon Shores GPU合并,因为它继承了英特尔首屈一指的HPC和AI芯片。英特尔表示,“计划整合Habana和AXG产品[GPU]路线图”,但整合的细节很少。

采用标准以太网交换,很像英特尔专注于AI的Gaudi架构,数量不详的HBM3内存,以及“I/O旨在扩展”,这可能意味着Falcon Shores将配备不同的内存容量选项。英特尔确实表示Falcon将配备高达288GB的HBM3和9.8TB/s的总内存吞吐量。正如预期的那样,它将支持较小的数据类型,如FP8和BF16。

对于英特尔来说,英特尔放慢GPU发布节奏意味着它将不得不利用旧产品与英伟达和AMD的混合架构产品竞争。

AMD MI300

1月,AMD展示了其迄今为止对加速处理单元(APU)的最佳外观,这是AMD对CPU-GPU架构的专业术语。

根据AMD在1月份分享的封装照片,该芯片将配备24个Zen 4内核——与11月份在AMD的Epyc 4 Genoa平台中使用的相同——分布在两个由六个GPU芯片和八个高带宽内存组成的小芯片上模块总共有128GB。

在性能方面,AMD声称该芯片提供的“AI性能”是Frontier超级计算机中使用的MI250X的8倍,同时每瓦性能也提高了5倍。根据The Next Platform的说法,考虑到对具有稀疏性的8位浮点(FP8)数学的支持,这将使该芯片的性能与四个MI250X GPU相当,并且可能使该芯片功耗处于900W左右如果属实,那么MI300A将成为一款很“热”的芯片,几乎肯定需要液体冷却才能驯服。对于HPC系统来说,这应该不是问题,其中大部分已经使用直接液体冷却,但可能会迫使遗留数据中心升级其设施,否则就有可能被抛在后面。

英伟达Grace Hopper

从技术上讲,AMD并不是唯一一家为数据中心追求CPU-GPU组合架构的公司。AMD将与英伟达的Grace Hopper芯片展开竞争。

MI300和Grace Hopper是截然不同的路线。英伟达解决这个特殊问题的方法是使用其专有的900GBps NVLink-C2C互连将其72核Arm兼容的Grace CPU与GH100芯片配对。虽然这消除了PCIe作为两个组件之间的瓶颈,但它们是不同的,每个都有自己的内存。GH100芯片有自己的HBM3内存,而Grace GPU耦合到512GB的LPDDR5,适用于500GBps的内存带宽。

另一方面,MI300A看起来是一个诚实的APU,能够寻址相同的HBM3内存,而无需通过互连来回复制它。

哪种方法会带来更好的性能,哪些工作负载尚未得到解决,但唯一确定的事英特尔不会在这场战斗中占据一席之地。

英特尔表示,它将利用CXL接口,使其客户能够利用可组合的架构,该架构可以在其定制设计中将各种CPU/GPU比率结合在一起。然而,CXL接口仅在元素之间提供64 GB/s的吞吐量,而像Nvidia的Grace Hopper这样的定制CPU+GPU设计可以在CPU和GPU之间提供高达1 TB/s的内存吞吐量。对于许多类型的工作负载——尤其是需要大量内存带宽的AI工作负载,这比CXL实现具有性能和效率优势。更不用说元素之间固有的低延迟连接和其他优势,如更高的性能密度。

(本文由半导体产业纵横综合)

请扫码关注数字化经济观察网
责编:高蝶
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200