惠普(HPE)Discover 2024大会上,首席执行官Antonio Neri的主题演讲令人难忘。该主题演讲公布了英伟达(NVIDIA)与惠普之间令人兴奋的新合作。
具体而言,这一合作关系的高潮是双方共同开发的AI解决方案组合,以帮助企业加速采用生成式人工智能(GenAI)。通过紧密整合双方的技术,NVIDIA的人工智能技术将与惠普合作伙伴网络相结合,为企业客户大规模带来人工智能的力量。
Neri的主题演讲本身就很令人兴奋,“重大时刻需要盛大的场地,” Neri说。“欢迎来到我的客厅。”
在介绍了惠普的历史之后,Neri谈到了“人工智能的潜力和前景,并将把今天和明天的企业推向新的高度。”最终Neri表示,NVIDIA长期以来一直是“有远见的合作伙伴,与我们分享创新的目标和承诺。”在公布了惠普与NVIDIA过去的一系列合作之后,Neri宣布了HPE的NVIDIA AI Computing,并邀请NVIDIA 创始人兼CEO黄仁勋上台。
HPE的NVIDIA AI计算产品组合充满了有用的工具,但更关键的产品之一是惠普私有云人工智能。这款基于云的工具将NVIDIA的人工智能计算、网络和软件与HPE的人工智能存储、计算和HPE GreenLake云平台结合在一起,被HPE誉为“适用于所有行业的交钥匙解决方案”。
该公司为利用专有数据的推理、微调和检索增强生成(RAG)AI工作负载提供支持。潜在买家可以控制并满足企业对数据隐私、安全性、透明度和治理需求。具有ITOps和AIOps功能,可以提高生产力,该工具提供了灵活消耗能源的快速途径,使公司能够满足未来的人工智能机会。
HPE私有云AI提供了一个完全集成的AI基础架构堆栈,包括NVIDIA Spectrum-X以太网网络、用于文件存储的HPE GreenLake,以及支持NVIDIA L40S、NVIDIA H100 NVL Tensor Core GPU和NVIDIA GH200 NVL2平台的HPE ProLiant服务器,为AI和数据软件堆栈提供最佳性能。
此外,惠普还增加了对NVIDIA最新的GPU、CPU和超级芯片的支持。HPE Cray XD670支持8个NVIDIA H200 NVL Tensor Core GPU,是大型语言模型(LLM)构建器的理想选择。采用NVIDIA GH200 NVL2的HPE ProLiant DL384 Gen12服务器是为使用更大型号或检索增强生成(RAG)的LLM消费者量身定制的。惠普ProLiant DL380a Gen12服务器支持多达8个H200 GPU,为扩展GenAI工作负载提供了灵活性。此外,惠普还计划支持NVIDIA即将推出的GB200 NVL72/NVL2、Blackwell、Rubin和Vera架构。
合作伙伴将于7月8日开始为惠普私有云AI的客户报价,并于9月开始发货。
与戴尔协作的比较
那些了解NVIDIA新闻的人可能会发现这种合作关系与NVIDIA和戴尔最近宣布的合作有一些相似之处。两者都涉及企业基础设施公司与NVIDIA之间的合作,为企业提供集成和优化的生成式人工智能解决方案。
戴尔和NVIDIA的合作旨在扩大戴尔生成式人工智能解决方案的投资组合,其中包括与NVIDIA合作的戴尔人工智能工厂。这是一个集成的端到端人工智能企业解决方案,将戴尔的计算、存储、软件和服务与NVIDIA的人工智能基础设施和软件套件相结合,以支持完整的生成式人工智能生命周期。它也可以通过传统渠道以及戴尔Apex获得。
这是戴尔人工智能工厂和惠普私有云人工智能之间的一个关键区别,因为惠普正在与系统集成商合作,而戴尔正在利用其传统渠道。
戴尔也在努力支持新的NVIDIA GPU模型。NVIDIA B200 Tensor Core GPU是Dell PowerEdge XE9680服务器将支持的新NVIDIA GPU型号之一,预计可提供高达15倍的AI推理性能并降低总拥有成本。戴尔PowerEdge服务器也将支持其他基于NVIDIA Blackwell架构、H200 Tensor Core GPU以及NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网络平台的GPU。
NVIDIA已经确立了自己在人工智能行业的“王者地位”,它决定与这些合作伙伴深度整合其堆栈是一个强有力的认可。这样的合作对于企业真正释放人工智能的变革潜力至关重要。