英伟达再放“大招”:两年狂发12款GPU,业界“霸主”地位难撼动?

薪科技快评 2024-02-27 16:11:59
英伟达:两年12款GPU

英伟达数据中心产品路线图:引领人工智能时代

英伟达近期发布的数据中心产品路线图,展示了面向人工智能市场的雄心勃勃的规划。通过架构图,我们看到英伟达将产品分为基于Arm架构的产品和基于x86架构的产品两大类。

H200:2024年第二季度起供货,释放AI澎湃力量

NVIDIA HGX H200基于NVIDIA Hoppe 架构和NVIDIA H200 Tensor Core GPU,采用HBM3e内存,提供141GB内存,带宽高达4.8TB/s,比前代产品A100容量提升近一倍,带宽提升2.4倍。H200适合部署在本地、云混合云以及边缘等多种数据中心类型。

L40S:2023年秋季推出,赋能下一代数据中心

NVIDIA L40S是英伟达最强大的GPU之一,配备超过18,000个CUDA核心以及48GB的GDDR6内存,在推理性能和实时光线追踪性能方面均有显著提升。它支持ECC,可在高性能计算环境中维护数据完整性。

GH200/GH200NVL:2024年第二季度投产,融合GPU和CPU的超级芯片

NVIDIA GH200结合了H200 GPU和Grace CPU,通过NVLink-C2C连接,将Hopper架构GPU和Arm架构Grace CPU结合。每个Grace Hopper Superchip包含了624GB的内存,其中有144GB的HBM3e和480GB的LPDDR5x内存。

B100、B40、GB200、GB200NVL:2024年推出,全方位布局数据中心

英伟达计划推出基于x86架构的B100接替H200,计划用基于ARM架构的推理芯片GB200替代 GH200。B40产品将替代L40S,提供更好的面向企业客户的AI推理解决方案。

X100:2025年发布,扩展产品范围,满足更多需求

NVIDIA X100芯片计划于2025 年发布,将扩大产品范围,包括企业用途的 X40 和 GX200,在Superchip配置中结合 CPU 和 GPU 功能。

英伟达积极布局数据中心市场,不断推出性能更强、功能更丰富的产品,以满足人工智能时代日益增长的计算需求。servethehome披露了英伟达的数据中心产品路线图,展示了英伟达面向人工智能市场的产品规划,将推出H200、B100和 X100 等多款GPU。 英伟达正计划增加面向数据中心市场的产品种类,推出多款面向AI计算和HPC的产品,让不同的客户可以有针对性购买产品,降低购买芯片难度。

通过架构图可以看到,未来英伟达将会对基于Arm 架构的产品和基于x86架构的产品分开。

H200:2024 年第二季度开始供货2023年11 月 13 日,英伟达宣布推出 NVIDIA HGX H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hoppe 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。

H200 将于 2024 年第二季度开始向全球系统制造商和云服务提供商供货。NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 具有更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。英伟达表示,H200 可以部署在各种类型的数据中心中,包括本地、云、混合云和边缘。

L40S:2023年秋季推出L40S是英伟达最强大的GPU之一,其在2023年推出,其旨在处理下一代数据中心工作负载:生成式AI、大型语言模型(LLM)推理和训练,3D图形渲染、科学模拟等场景。与前一代GPU(如A100和H100)相比,L40S在推理性能上提高了高达5倍,在实时光线追踪(RT)性能上提高了2倍。

内存方面,它配备48GB的GDDR6内存,还加入了对ECC的支持,在高性能计算环境中维护数据完整性还是很重要的。L40S配备超过18,000个CUDA核心,这些并行处理器是处理复杂计算任务的关键。L40S更注重可视化方面的编解码能力,而H100则更专注于解码。尽管H100的速度更快,但价格也更高。

GH200/GH200NVL:2024年第二季度投产2023年8月,英伟达宣布推出新一代GH200 Grace Hopper超级芯片,新芯片将于2024年第二季投产。NVIDIA GH200,结合了H200 GPU和Grace CPU,将Hopper架构GPU和Arm架构Grace CPU结合,使用了NVLink-C2C将两者连接起来。每个Grace Hopper Superchip包含了624GB的内存,其中有144GB的HBM3e和480GB的LPDDR5x内存。GH200和GH200NVL将使用基于Arm 的 CPU 和 Hopper 解决大型语言模型的训练和推理问题。GH200NVL采用了NVL技术,具有更好的数据传输速度。此外,“B”系列GPU也有望在2024年下半年推出,替代之前的第九代GPU Hopper。

B100、B40、GB200、GB200NVL也将在2024推出英伟达计划推出用基于x86架构的B100接替H200,计划用基于ARM架构的推理芯片GB200替代 GH200。此外,英伟达也规划了B40产品来替代L40S,以提供更好的面向企业客户的AI推理解决方案。根据英伟达公布的信息,计划于 2024 年发布 Blackwell 架构,而采用该架构的 B100 GPU 芯片预计将大幅提高处理能力,初步评估数据表明,与现有采用 Hopper 架构的 H200 系列相比,性能提升超过 100%。这些性能提升在 AI 相关任务中尤为明显,B100 在 GPT-3 175B 推理性能基准测试中的熟练程度就证明了这一点。

X100计划2025 年发布英伟达还披露了 X100 芯片的计划,计划于 2025 年发布,该芯片将扩大产品范围,包括企业用途的 X40 和 GX200,在 Superchip 配置中结合 CPU 和 GPU 功能。同样,GB200预计将效仿B100,融入超级芯片概念。

-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

1 阅读:71

薪科技快评

简介:薪科技评说,发现技术的点滴,记录科学的飞跃!