4月16日消息,英伟达(NVIDIA)最新推出的Blackwell平台产品包括了全新的B200 GPU及整合了Grace CPU的GB200等。市场研究机构TrendForce指出,GB200主要是替代上一代的GH200,但是GH200的出货量预计仅占上代英伟达高端GPU出货量约5%。目前供应链对GB200寄予厚望,预估2025年出货量有机会突破百万颗,将占英伟达高端GPU出货量的近40%~50%。
不过,英伟达虽计划在今年下半年推出GB200及B100等产品,但上游晶圆封装方面须进一步采用更复杂高精度需求的CoWoS-L技术,验证测试过程将较为耗时。此外,针对AI服务器整机系统,英伟达B系列也需耗费更多时间优化,如通信、散热的运转性能,预期GB200及B100等产品要等到今年第四季,至2025年第一季较有机会正式放量。
而在CoWoS产能需求方面,由于英伟达B系列包含GB200、B100、B200等将耗费更多CoWoS产能,台积电目前也正在提升2024全年CoWoS产能需求,预估至年底每月产能将逼40000万片,相较2023年总产能提升超过150%。2025年规划总产能也有机会提升近一倍,其中英伟达需求占比将超过一半。
相比之下,目前Amkor(安靠)、英特尔等封装产能目前主力技术尚为CoWoS-S,主攻英伟达H系列,短期内技术较难突破,故近期扩产计划较为保守,除非未来能够拿下更多英伟达以外的订单,如云端服务业者(CSP)自研ASIC芯片,扩产态度才可能转为积极。
HBM3e将于下半年成为市场主流
HBM方面,从英伟达及AMD近期主力GPU产品进程及搭载HBM规格规划变化来看,TrendForce认为2024年后将有三大趋势。其一,“HBM3进阶到HBM3e”,预期英伟达将于今年下半年开始扩大出货搭载HBM3e的H200,取代H100成为主流,随后GB200及B100等亦将采拥HBM3e。AMD则规划年底前推出MI350新品,期间可能尝试先推MI32x等过度型产品,与H200相抗衡,均采HBM3e。
其二,“HBM搭载容量持续扩增”,为了提升AI服务器整体运算性能及系统频宽,将由目前市场主要采用的英伟达H100(80GB),至2024年底后将提升往192~288GB容量发展;AMD亦从原MI300A仅搭载128GB,GPU新品搭载HBM容量亦将达288GB。
其三,“搭载HBM3e的GPU产品线,将从8hi往12hi发展”,英伟达的B100、GB200主要搭载8hi HBM3e,达192GB,2025年则将推出B200,搭载12hi HBM3e,达288GB;AMD将于今年底推出的MI350或2025年推出的MI375系列,预计均会搭载12hi HBM3e,达288GB。
编辑:芯智讯-林子