目前,超大规模公司和云厂商都在设计他们自己的CPU和AI加速器,这让那些向这些公司销售计算引擎的厂商倍感压力,这些厂商包括英特尔、AMD和英伟达。
同时,也包括ARM服务器芯片新贵Ampere公司,它正在CPU领域与这些公司竞争,而且很快也将加入AI处理器领域的竞争。
目前的服务器CPU市场,“云巨头”占服务器收入的一半以上,也占发货量的一半以上。同样在服务器GPU方面,这些公司占收入和发货量的65%,甚至最高能达到75%。
而且随着GenAI变得更加主流以及GPU供应更加充足,数据中心GPU和其他类型的AI加速器的收入和发货量份额将进一步增长。
在某个时候,正如我之前所说的,世界上一半的服务器收入将是AI加速的硬件,另一半将是通用CPU硬件。
除非像个人电脑中发生的事情在数据中心服务器上发生。服务器CPU可以获得更强的AI计算能力,用于本地化的AI处理,就像现在PC和手机里加入的TPU处理器一样,那样,大部分AI推理将在服务器CPU上完成。
这意味着集成到服务器CPU中的AI加速器必须比我们预期的更快地变大。Ampere公司首席产品官Jeff Wittich在今年4月份透露AmpereOne CPU路线图时也曾讨论了这个问题。
近日,在Jeff Wittich公布了Ampere 最新计划,自家设计的一款ARM服务器CPU,出来采用自家设计的ARM核心,自家设计的网络互联,还集成了自己设计的AI加速器,这款最新的处理器被称为“Aurora”,可能在2025年底或2026年初推出,到时候将披露更多细节。
上图为更新后的路线图,虽然没有显示比上面的路线图更多的迭代,但是将第四代AmpereOne芯片命名为“Aurora”,这是加拿大X战警团队Alpha Flight的一部分,并增加了一些关于未来Ampere Computing Arm CPU架构的细节:
Aurora的大变化是Ampere公司正在CPU中添加自己的AI引擎——大概是一个张量核心,比平面矩阵乘法引擎更灵活。这款Aurora芯片将拥有多达512个核心,并且至少有16个内存通道,同时这款芯片还将具有自家设计的网状互连,将CPU核心和AI核心连接在一起。
值得注意的是,即使在封装内有一个大而胖的AI引擎(可能是在一个离散的芯片组中),Aurora芯片仍将保持空气冷却。
“这个解决方案必须是空气冷却的,”Jeff Wittich在关于路线图和Polaris芯片微架构的briefing中解释说,“这些处理器需要在所有现有的数据中心部署,而不仅仅是在几个地点运营的几个数据中心,它们必须是高效的,没有理由背离行业的散热标准。我们可以两者兼得——既可以提供AI计算,也可以满足我们的散热目标。”
正如Wittich在他的briefing中所讨论的,这是一个艰巨的挑战。根据Uptime 2023全球数据中心调查,77%的数据中心每个机架的最大功耗不到200千瓦,50%的数据中心最大功耗不到10千瓦。现在,一个机架的GPU加速系统必须液冷,大约在100千瓦左右,而且人们正在讨论提升密度以降低设备之间的延迟,这将把它推到200千瓦。Jeff Wittich一直在与希望与推动每个机架1兆瓦并设法冷却它的公司进行严肃的探讨。
我们生活在有趣的时代。但大多数企业IT世界不会有这些,正如我们之前所指出的,Ampere 公司可能最初试图制造超大规模和云厂商会购买的ARM服务器处理器,但它最终可能会将其大部分处理器作为后备力量出售,以及那些买不起或没有技能设计自己芯片的企业。Ampere Computing可以定位自己作为那些不能做自己的ARM芯片但仍然希望获得云原生ARM架构好处的人的安全ARM服务器芯片选择。
Aurora可能正是那些正在寻找更便宜计算和AI的公司所需的那种芯片。
————END————