博通新推Tomahawk Ultra交换芯片:低时延,适于大规模AI训练集群

电子工程专辑
博通(Broadcom)推出了其新一代网络交换芯片——Tomahawk Ultra。该芯片专为高性能计算(HPC)和人工智能(AI)集群设计,旨在满足大规模AI训练和推理任务对低延迟、高吞吐量的需求。

7月15日,博通(Broadcom)推出了其新一代网络交换芯片——Tomahawk Ultra。该芯片专为高性能计算(HPC)和人工智能(AI)集群设计,旨在满足大规模AI训练和推理任务对低延迟、高吞吐量的需求。这款芯片的推出标志着以太网在AI集群中的应用迈出了重要一步,挑战了传统专用协议如NVLink和UALink的主导地位。

从性能来看,Tomahawk Ultra在51.2 Tbps的吞吐量下,实现了250ns的交换延迟,即使在处理最小64字节数据包时,也能保持每秒770亿个数据包的线速交换能力。这一表现打破了传统以太网“高带宽与低延迟不可兼得”的局限,使其性能接近甚至超越专用协议。

同时,Tomahawk Ultra支持博通提出的纵向扩展以太网(Scale-Up Ethernet,SUE)规范,该规范被视为NVLink和UALink的替代方案。在SUE模式下,Tomahawk Ultra可实现不到400ns的XPU-XPU通信延迟,为大规模同步AI计算提供了额外助力。而且,博通还推出了SUE-Lite轻量版本,适用于功耗敏感的场景。

为了提升网络效率,Tomahawk Ultra采用了自适应以太网头部设计,将传统46字节的头部开销缩减至10字节,同时完全符合以太网规范。这一调整显著提升了带宽利用率,尤其适用于AI场景中小数据包密集传输的需求。

Tomahawk Ultra还集成了“网络内集合操作”引擎,可在交换机内部完成AI训练中的“All reduce”“Broadcast”等集体运算。这一设计减少了加速器处理单元(XPU)的计算负担,同时降低了数据在XPU间的往返传输量,从而节省网络带宽。

Tomahawk Ultra与Tomahawk 5系列在引脚和功能上完全兼容,OEM/ODM厂商可复用现有设计,缩短产品上市周期。这种兼容性降低了技术升级的门槛,有助于快速部署。

Tomahawk Ultra的推出,直接挑战了英伟达(NVIDIA)的NVLink Switch芯片和AMD的UALink协议。在连接芯片数量方面,Tomahawk Ultra可支持1024个加速器的纵向扩展系统,而英伟达的NVLink技术虽宣称支持576个加速器,但实际部署中尚未突破72个GPU插槽规模。此外,Tomahawk Ultra在延迟方面也表现出色,其250ns的延迟已接近UALink联盟的目标(100-150ns),尽管实际应用中的差距仍需观察。

Tomahawk Ultra的发布,标志着以太网在AI集群中的应用进入了一个新的阶段。彭博智能首席半导体分析师Kunjan Sobhani指出,AI和高性能计算工作负载正融合为紧密耦合的加速器集群,这些集群需要超级计算机级别的延迟——这对推理、可靠性以及网络本身的智能至关重要。随着AI集群规模的不断扩大,Tomahawk Ultra等开放式以太网标准有望成为主流选择之一。

请扫码关注数字化经济观察网
责编:左右
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200