19世纪中后期,贪婪的欧洲各国对古老而又原始的非洲垂涎三尺,一拥而上将其瓜分殆尽。
120多年后,冉冉升起的AI新星也逐渐走入了云厂商精心设计好的“陷阱”。
故事的开头很美好,一方慷慨大方奉上钱和算力;另一方感激涕零,做出来的“ChatGPT”式的新貌震惊四座。然而,当初的山盟海誓转瞬即逝,嫌隙渐生,回过神来的AI公司才发现,归来已是一身负债。
截至目前,世界上主要的云厂商已通过合作、投资的方式与AI公司绑定CP。国外,微软与OpenAI,亚马逊与Anthropic。国内,阿里独坐庄家,提前锁定了智谱、月暗、零一万物、Minimax,行业内的“AI五小虎”。
OpenAI最新66亿美元融资注定会成为一个分水岭。新一轮融资关闭后,OpenAI进一步公布了财务模型和利润规划表,这相当于宣告了大模型的盈利时刻,“还债”指日可待。
环伺在OpenAI周围的微软与VC们已经开始蠢蠢欲动,尾随其后的亚马逊、谷歌也盯上了各自的猎物。
回到中国,操作简单粗暴,对照OpenAI打打折,也给AI六小虎(指智谱、月暗、零一万物、Minimax、阶跃星辰)能赚多少钱估个预期,制定个deadline。
或许是预感到了即将到来的压力,近期的AI公司相继呈现出了收缩的趋势,“开源节流”逐渐成为后期的主线任务。
根据国内外AI公司所签订的协议,一(云)对多(模型)的代理人机制下,模型公司沦为了云厂商的“打工机器”。既要支付算力账单,为其年终业绩账单记上一笔。待未来盈利,还要按照投资股份所占比例,被瓜分利润。
大模型公司焦虑弥漫,竞争内卷,背后隐藏的庄家渔翁得利。投遍AI潜力股的阿里云、腾讯云这回要“躺着”赚钱了。
云,大模型的“信用卡”云计算,是大模型时代堪比黄金的“硬通货”。
OpenAI与微软的百亿美元“联姻”一度是AI圈的佳话,不过,据外媒报道,截至去年9月,OpenAI仅收到“一小部分”。其中“很大部分资金”用以购买云服务资源,而非现金形式支付。
在国内,阿里也借鉴了微软的投资方式,并在其基础上灵活改造。同样用云给AI五虎“刷卡”,预支使用云的“信用额度”,比如投资月暗的8亿美元中,云的信用额度就占了近一半。在此基础上,阿里的投资未直接转给AI公司,而是被存放在一个代管账户,所划掉的云额度可重新计入其收入。
由此,云其实承担了两重角色。初期,得益于算力和大模型的依赖性关系,云成为了叩开大模型投资的砝码。后期,云成为了“提款机”,源源不断地从AI公司方支取利润。
收益主要来自两部分,一部分是对云的消耗,AI公司从模型训练到后期API调用,都会在信用卡上划一笔,计入到云厂商的AI收入中。典型如微软与OpenAI的关系,GPT模型训练和ChatGPT产品运行都在微软云上,通过Azure向客户提供的ChatGPT相关服务也需再次计费。
即使是大模型上云产生的收入,很大一部分也流入了云厂商的口袋里。国外有调查显示,当客户在亚马逊Bedrock调用Claude,或在微软Azure调用GPT时,每支付一美元推理费用,约有超过50%的收入支付给了云服务提供商,用以支付基础设施成本和毛利润分成。
实际反映到收入上,阿里更有说服力,毕竟国内一半以上的大模型公司都上了阿里云。财报显示,2024财年第三季度,阿里云营收280.66亿元,增长3%,经调整EBITA利润增长86%至23.64亿元。可以看出,即使是短期内,AI“大户”们的消耗对云厂商也产生了正向拉动效果。
对此种现状,云厂商们半夜躺着都能笑开花,但这可愁坏了AI公司。算力额度虽是刚需,但更像“空头支票”,日常经营、各项成本开支还得靠账上的流动资金,也难怪OpenAI在最近一轮融资前三令五申,“至少支付 2.5 亿美元现金”。
另一部分则是参与AI公司的利润分配。据最新消息,OpenAI未来的利润分配主要分为三层,第一、二层都用于偿还给投资者和微软,等到分配完毕,才能真正属于OpenAI公司。包括OpenAI在内的AI公司处境一目了然:欲谈独立,先还债。
在国内,云厂商的话语权更大,特别是阿里,信用卡漫天撒,终于熬到了“讨债”阶段。相比于OpenAI,此类绝对头部的大模型公司,中国AI六小虎的生存环境更为艰难,如何产生收入是关键问题。
在国外,已经分化出了两条道路,向左To C,代表是OpenAI;向右To B,代表是Anthropic。从云厂商中“虎口夺食”需具备前提,即基本模型和产品能力要显著超越云大厂。OpenAI之于微软,Anthropic之于亚马逊皆是如此。以此来审视国内,该前提基本不成立。到现在为止,双方未能拉开明显差距,反而大厂在流量、生态、客户市场等方面更胜一筹。
AI公司在云厂商面前更显弱势,“绑定”有程度深浅之分。如果只是透支未来算力而产生费用,总有还完债的一天。但是,云厂商并不甘于此,有的在云上又加筑了一层“专供芯片”,有的用客户绑定,有的买断技术未来。还有许多中间地带,例如云厂商对模型的访问权,用户数据的所有权等等。
大模型的最佳“赏味期”现阶段,云生态的锁定价值大于通用模型本身,这一事实放之国内外皆成立。“云+大模型”本质上在给云做加法,做厚云的价值。而单一大模型具有“赏味期”,一旦过了最佳食用期,其价值就会大打折扣。
从去年到现在,整个行业无时无刻不在变化之中,大模型英雄榜随时被揭,“史上最强模型”称号以月为单位易主。GPT系列模型从最初的3.5进化到了如今的o1,其竞争对手Claude系列模型也一路追赶到了3.5 Sonnet。
尽管这属于正常的技术迭代路径,但从模型使用角度来看,新模型使用频率最高的一定是刚发布的几个月,后面总会有更强性能的模型替代。比如在编程这一领域,后来居上的Claude模型打败了GPT-4,成为了更多编程软件的选择。随着时间的推移,我们清楚地看到,模型本身的价值在不断降低。
此前,行业内曾讨论过“大模型是否能成为商品”这一话题。到现在为止,似乎没有看到确定性的答案。
通用大模型被集成的趋势正在加强,一部分被云厂商集成,一部分被应用产品集成,多模切换调用越来越被采纳。光子星球也注意到,国内很多创业公司在运用该技巧,提前测试各家模型的免费额度,在产品运行时及时切换来降低成本。当然,还存在另一种情况,根据用户调用不同功能来切换模型。
在没有哪家大模型可以独霸天下的情况下,云与大模型融合能够加快产品化进程。众所周知,GitHub虽然是最大开源社区之一,但由于“被微软收购”这层关系,也被迫与“Azure+GPT”生态进行了绑定。其中,GitHub Copilot直接采用了GPT模型。尽管GitHub也推出了相关模型产品,允许支持OpenAI之外的模型,但仅限与微软生态不产生直接竞争的模型,生态自带的排外性不言而喻。
由云到大模型再到产品,云厂商的触角在不断延伸。大模型公司为云厂商生态做“嫁衣”,即使处于最佳“赏味期”也能无延迟地享用最强性能大模型。此外,绕过OpenAI们的收费墙,在生态系统应用中也能尝鲜部分功能。
在国内,云大厂的“藩篱意识”更强,AI公司几乎难以触达到他们生态体系中的产品。就算是以API形式输出,云厂商也是极其吝啬。这既有竞品存在的顾忌,也有出于数据安全的考虑。藩篱之内,云厂商通过自建模型完成了产品升级。藩篱之外,才能存在站台、共同服务客户、投资等友好形式。
云厂商的领地主义,间接地为AI六小虎关上了生态入口。他们无法像OpenAI一样,在拥有规模化的用户数量和成熟的产品中获得曝光、反馈。于是,自建入口和主动试探藩篱边界成为了不得已而为之。
新的价值“云+大模型”的组合并非无懈可击,MaaS所提供的仍然是标准化的服务,相当于提供了统一的锤子、钉子套装,怎么锤、钉在哪里取决于使用工具方的能力。能力越强、经验越丰富的人运行大模型的效果自然越强,这就解释了,阿里、百度等厂商为什么花费大力气去打造大模型行业标杆。
云、大模型到应用存在着巨大的沟壑。To B靠多对一的个性化解决方案来填补,To C目前还处于拓荒阶段。引用近期红杉报告的一句话,在云和大模型之外,新的价值诞生于“将模型的原始能力转化为引人入胜、可靠的端到端的商业解决方案”,这需要大量工程化工作。
不可否认,大模型杀死了部分应用,持续升级的能力覆盖掉了创业公司的项目,以至于很多人强调“要站在OpenAI射程外”。多数情况下,行业中不是缺乏最强的模型,而是没能释放模型的最强能力。
AI编程应用Cursor 的大火一定程度上说明了开发模型能力的重要性。如同上述所言,Cursor 的思路不是提供趁手的工具,而是代替用户去试错,基于对代码编辑、处理速度、处理数量、长上下文本等能力要求,在测试完了市面上前沿模型后,找到了最匹配的模型 Claude Sonnet。
Cursor 在采访中强调了一点,可能是当下过分追求模型性能群体所忽视的问题,“最好的不一定是最适合的”。在Sonnet之后,他们也在第一时间测试了OpenAI的o1模型,得出的结论是,“推理能力很强,在某些问题上可以做得很好,但仍比不上Sonnet”。
这从侧面回答了一个问题:当拥有了最厉害的模型后,为什么还没有诞生Killer App?面对大模型,以前创业公司的课题是做选择,而现在变成了做优化组合。
或许,到了现在的时间节点,大模型行业才真正进入到了“应用诞生时刻”。