人工智能(AI)芯片龙头厂商英伟达在美国加州圣何塞召开了GTC2024大会,正式发布了面向下一代数据中心和人工智能应用的“核弹”——基于Blackwell架构的B200 GPU,将在计算能力上实现巨大的代际飞跃,预计将在今年晚些时候正式出货。同时,英伟达还带来了Grace Blackwell GB200超级芯片等。
英伟达B200芯片发布:2080亿个晶体管在英伟达GPU技术大会GTC 2024上,该公司宣布了新一代Blackwell GPU,据称该GPU比其流行的前身Hopper可提供更好的AI训练性能和能源效率。Blackwell主要分作两个型号:B200,以及由两片B200与一颗Grace CPU组合而成的GB200。
Blackwell B200由2080亿个晶体管组成,是该公司先前芯片800亿个晶体管的两倍以上,所有这些晶体管几乎可以同时存取,从而提高了生产效率,可提供高达20 petaFLOPS的FP4算力。英伟达表示,由两片B200组成的GB200 在基于1750 亿组参数GPT-3 模型的基准测试中,其性能是H100 的7 倍、训练速度则提高了4 倍。
英伟达称,新的GPU将用于为OpenAI、微软、谷歌和人工智能竞赛中其他主要参与者开发的人工智能提供动力。
Blackwell B200将使用台积电的4NP制程技术,这是现有Hopper H100和Ada Lovelace架构GPU所使用的4N制程的改良版本。
AI算力飙升30倍英伟达称,在GPT-3 LLM基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。其中一个关键改进是第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍。此外,新一代NVLink交换机可让576个GPU相互连接,双向带宽达到每秒1.8TB。
同时,英伟达还推出了一款全新的网络交换芯片,内含500亿个晶体管和一些自己的板载计算,拥有3.6 teraflops的FP8处理能力。公司还表示,亚马逊、Google、微软和甲骨文都已计划在其云服务产品中提供GB200超级芯片的支持,但具体采购量尚不清楚。
除了GB200超级芯片外,英伟达还推出了用于DGX GB200的DGX Superpod,将八个系统合并成一个,总共拥有288个CPU、576个GPU、240TB内存和11.5 exaflops的FP4计算能力。据称,其系统可扩展至数万GB200超级芯片,并通过其新型Quantum-X800 InfiniBand或Spectrum-X800以太网与800Gbps网络连接在一起。
英伟达的新发布显示了他们在人工智能领域的巨大进步和领先地位。这些新产品的性能和效率提高将为AI应用的发展提供强大支持,尤其是在训练大型模型方面。此外,他们提供的解决方案如NVL72机架和DGX GB200将使企业能够更轻松地实现规模化的AI计算,这对于大型科技公司和云服务提供商来说是一个巨大的吸引力。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。