(图源:摄图网)
文/Renee
编辑/孙越
2023年6月13日,360智脑大模型2.0正式发布。不曾想,ChatGPT这颗“AI炸弹”余波仍未了,国内AI厂商科大讯飞、360已然推出2.0版本,百模大战,愈演愈烈。
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
大模型浪潮席卷近半年内,大模型“生产”厂商们赚足了眼球,而“卖铲子”选手英伟达则是“名利双收”:2023年5月30日,英伟达市值达到1.03万亿美元。自此,AI芯片厂商英伟达,成功跻身美股万亿“俱乐部”。
凭借着在GPGPU领域的远见+重金投入,英伟达拿到了创新者的奖励:
根据IDC数据,2021年,GPU/GPGPU服务器以91.9%的份额占我国加速服务器市场的主导地位,ASIC、FPGA等非GPU加速服务器仅占比8.1%。
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
而在独立GPU市场之中,英伟达独占鳌头:据太平洋证券数据,在全球独立GPU市场,英伟达一直保持着75%以上的市场份额。
AI芯片厂商英伟达,作为算力的供给者,唱着独角戏。
现如今,地缘政治日益严重,算力已然上升到国力之争,而全球算力增长速度明显落后于数据量增长,算力的大坑亟需各国全力填补。
(全球算力增长速度明显落后于数据量增长 图源:中国银河证券研究院)
在大环境催化下,算力的必要供给——AI芯片方案百花齐放。存算一体,由于打破了传统冯诺依曼架构所导致的“三堵墙”问题,正对传统芯片进行“降维”打击,成为一颗冉冉升起的新星。
基于此,国内外巨头——特斯拉、三星、阿里达摩院等纷纷押注该方向,对存算一体“赞不绝口”:据阿里达摩院测算,在实际推荐系统应用中,相比传统CPU计算系统,存算一体芯片的性能提升10倍以上,能效提升超过300倍。
与GPGPU市场英伟达一家独大不同,存算一体芯片市场,涌现了不少初创厂商,现如今,正处于“百家争鸣”阶段:
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
随着存算一体技术的到来,AI大算力芯片格局,正悄然发生变化。
本文试图探究,大模型背景下,AI芯片厂商面临怎样的挑战与机遇?基于此,芯片厂商给出了怎样的解法?
而关于“AI芯片方案百花齐放,各自模样如何?”、“大模型盛行,芯片厂商如何具体解决大算力难题?”、“门槛重重,芯片厂商格局将如何变化?”等等问题,6月13日偲睿洞察最新发布《AI大算力芯片行业报告-百舸争流,创新者先》(以下简称“报告”),将逐一给出答案。
PART-01
喜忧参半的AI芯片厂商
ChatGPT来临之后,AI芯片厂商喜忧参半。
忧的是大模型背景下,工艺制程“越努力越心酸”,与此同时,传统存储器件和大模型难以匹配。
现阶段,先进制程芯片设计成本高昂:巨天风证券数据显示,先进制程芯片的单位面积成本在14/16nm后陡增。
(先进制程芯片的单位面积成本增加 图源:天风证券)
与此同时,先进制程已逼近物理极限,成本极限+物理极限导致,AI芯片厂商“越努力越心酸”:
经过测算,7nm芯片比5nm成本效益更高。
美国乔治城大学发布的一份AI芯片研究报告对采用不同工艺节点的AI芯片进行经济效益分析,通过量化模型揭示出,相比5nm工艺节点,7nm工艺芯片的成本收益更优。
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
同时,在AI时代的多个应用中,传统存储器件SRAM、DRAM、Flash,基于各自的器件特性,更适合小算力端侧场景。
而AI芯片厂商喜的是,以上的两大“忧”,都有新兴技术、器件能够“对症下药”,并且正趋近成熟。
芯片苦先进制程久矣,但存算一体的到来打破了“越努力越心酸”的魔咒:从源头出发,打破存储和计算之间的重重障碍,让数据传输畅通无阻。
传统冯诺依曼架构下,存储墙浪费了大把算力:据统计,在大算力的AI应用中,数据搬运操作消耗90%的时间和功耗,数据搬运的功耗是运算的650倍。
而存算一体能够实现更低能耗、更高能效比:相较于GPGPU,存算一体芯片能够为数据中心省去不少电费。
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
基于此,若是处理一天的咨询量,存算一体芯片在初始投入上,是A100的13%-26%,在每日电费上,是A100的12%。
在器件层面,RRAM具备低功耗、高计算精度、高能效比和制造兼容CMOS工艺等优势,更适用于大算力场景。
目前,新型存储器RRAM技术已然落地:2022上半年,国内创业公司昕原半导体宣布,其大陆首条RRAM12寸中试生产线正式完成装机验收,并在工控领域达成量产商用。
尽管摩尔定律失效,先进制程逼近极限,但芯片市场新兴方案涌现且趋近成熟,无疑给各国的算力之争,添足了火药味。
PART-02
百舸争流,创新者先
大模型,无疑将成为算力之争的第一场主题大戏,AI界的大厂们都试图快速将大模型“磨练”成熟,下放至自身业务,谋求“诗和远方”。
这也就意味着,让大模型保持快速运转的训练卡与推理卡,已然成为“紧俏货”。而在这之中,推理卡更受欢迎。
随着近年来 AI 模型训练逐渐成熟,AI 应用逐渐落地,云端推理的市场已经逐渐超过了训练的市场:根据IDC与浪潮联合发布的《2020-2021中国人工智能计算力发展评估报告》显示,2021年中国市场 AI 服务器的推理负载超过训练负载,并且随着 AI 进入应用期,数据中心推理算力需求的复合增长率是训练侧的2倍以上,预计到2026年用于推理工作的加速器占比将超过 60%。
在AI推理卡的发展历程中,我们能看到的是,2018-2023年,推理卡算力由于工艺制程“卷不动”等种种原因,成本、功耗、算力难以兼顾。
(图源:偲睿洞察《AI大算力芯片行业报告-百舸争流,创新者先》)
百模大战已然打响,国力之争迫在眉睫,市场亟需兼顾成本、功耗、算力的方案。
目前国际大厂、国内主流厂商、初创企业都在谋求计算架构创新,试图找出兼顾性能、规模、利用率的方案,突破算力天花板:例如量子计算(量子芯片)、光子芯片、存算一体、芯粒(Chiplet)、3D封装、HBM······
在这之中,现在能够兼容CMOS工艺又能尽快量产的,有HBM、芯粒、3D封装、存算一体。
借助存算一体、chiplet等技术优势,云端推理卡将开启第二条AI算力增长曲线:基于传统制程,以更低功耗实现更高算力。
英伟达凭借着创新思维和常年如一日的投入,博得GPU市场头筹,一览众山小。
而随着存算一体、chiplet等新兴方案奔涌而来,AI大算力芯片市场,将是另一番风景。
但这铲子也不是谁都能卖——正如报告所说,存算一体玩家已然构筑了三大高墙,非技术实力雄厚,人才储备扎实者,勿进。
新兴方案具体发展如何?存算一体玩家到底构筑了哪三大高墙?······
问题的答案,便在《AI大算力芯片行业报告-百舸争流,创新者先》之中。
扫描二维码或评论区留言,免费领取《AI大算力芯片行业报告-百舸争流,创新者先》。