AMD 超微半导体 宣布推出了一款新的AI芯片——Instinct MI325X,AMD正式向数据中心市场的领头羊英伟达发起了挑战(下一代Blackwell芯片)。
一直在数据中心领域占据主导地位,尤其是在AI加速技术方面,英伟达的GPU因为强大的计算能力,成为了训练和运行大型AI模型如OpenAI的ChatGPT等的首选。
AMD这次推出的Instinct MI325X被认为是英伟达 Blackwell的直接对手,两家公司将会有一番激烈的市场争夺。
发布AMD最强AI芯片AMD此次发布的旗舰AI芯片是AMD Instinct MI325X GPU,首次启用了HBM3E高带宽内存,其8卡AI峰值算力达到21PFLOPS。与英伟达H200 GPU相比,MI325X在内存容量、内存带宽、FP16和FP8峰值理论算力等方面都有显著优势。
AMD还披露了最新的AI芯片路线图,采用CDNA 4架构的MI350系列将于明年上市,其中8卡MI355X的AI峰值算力达到74PFLOPS,而MI400系列将采用更先进的CDNA架构。
此外,AMD还发布了第五代EPYC服务器CPU,这款被称为“面向云计算、企业级和AI的全球最好CPU”的产品,采用台积电3/4nm制程工艺,最多支持192核、384个线程。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。
AMD还推出了业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU,这些网络解决方案旨在提高AI模型训练过程中数据传输的效率。
在AI PC芯片方面,AMD推出了第三代商用AI移动处理器锐龙AI PRO 300系列,这款被AMD称作“为下一代企业级AI PC打造的全球最好处理器”的产品,预计将于今年晚些时候上市,预计到2025年将有超过100款锐龙AI PRO PC上市。
人工智能芯片霸权之争CUDA 生态系统是Nvidia 专有的并行计算平台和编程模型,已成为 AI 和高性能计算任务的标准。AMD 的挑战不仅限于硬件性能,还包括为开发人员和数据科学家提供引人注目的软件生态系统。
AMD 已投资其 ROCm(Radeon Open Compute)软件堆栈,并在活动上报告称,它已将 AMD Instinct MI300X 加速器在流行 AI 模型上的推理和训练性能提高了一倍。该公司表示,超过一百万个模型可以在 AMD Instinct 上无缝运行,是 MI300X 推出时可用数量的三倍。
支持自动化公司QueryPal的首席执行官Dev Nag告诉 PYMNTS:“AMD 推出 Instinct MI325X 芯片标志着其在挑战 NVIDIA 在数据中心 GPU 市场主导地位方面迈出了重要一步,但不太可能立即大幅改变竞争格局。”“ NVIDIA 在 AI 芯片领域 95% 的市场份额根深蒂固,这很大程度上得益于其成熟且占主导地位的 CUDA 生态系统。”
“AMD 计划的成功不仅取决于其芯片的性能,还取决于他们解决软件方面问题的能力,”他补充道。“NVIDIA 将其研发预算的 30% 左右用于软件,其软件工程师数量多于硬件工程师数量,这意味着它将继续积极推进其生态系统领先地位。”
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。