自从美国的OpenAI公司推出了ChatGPT,引燃了一场全球性的AI竞赛,人工智能大模型经历了一年半的快速飞跃。如今,一场激烈的价格战正为商用竞争注入新的动力。在国内,大模型的数量已超过200个,其中参数规模超过10亿的模型也多达100个。这轮降价潮预计将加速大模型市场的重新洗牌。
近几个月来,OpenAI多次宣布降价,国内的巨头如字节、阿里、百度和腾讯也在过去一个月内争相降价,以期夺得更大的市场份额。这场价格战的背后,是全球大模型技术的激烈对抗,而在这场争斗中,中国和美国都占据了领先位置。
推动应用的大潮
在5月21日,阿里云宣布旗下9款大模型全面降价,其中Qwen-Long API的输入价格从每千tokens 0.02元直接降至0.0005元,降幅超过97%。据估算,降价后1元钱约可以买到300万个字符,相当于5本《新华字典》的字数。
阿里云的资深专家朱迅垚表示,大幅降价的目的是希望更多的使用者和中小企业能够受益于大模型,加速AI应用市场的提前爆发。“我们能够降价,主要得益于公共云技术红利和规模效应带来的成本和性能优势。”他说。
目前,百度智能云千帆大模型平台上有7款模型免费开放。该平台的总经理忻舟表示:“大模型尚处于市场培育阶段,只有企业认识到大模型的巨大价值,才能将其应用于更大规模和更复杂的业务场景中。生态繁荣是大模型行业发展的基础。”
他进一步指出,百度拥有丰富的资源和技术积累,在推出降价政策前,内部已制定了专项保障策略,以确保大量客户涌入时的使用体验。
从实际数据来看,降价确实可以提升大模型的吸引力。例如,百度的两款主力大模型ERNIE Speed和ERNIE Lite在5月21日宣布免费开放后,仅两周时间其日调用量就增加了10倍。阿里云宣布降价后,百炼平台上的通义千问调用量大幅提升,表明许多企业的应用意愿显著增强。
关键竞争力:技术与创新
中国的大模型产品在技术底层上存在一定的重合,但在算力供给方面仍有差距。百度采取了“兼容”策略,实现了一云多芯,兼容国内外主流AI芯片,帮助用户摆脱单一芯片的限制。
“国内的通用大模型产品高度同质化,无法通过差异化功能吸引更多消费者,这导致了大范围的降价。”哈尔滨工业大学商学院院长马涛教授表示。他指出,在大模型技术底层上,国内知名的大模型多参考了经典的Transformer等架构,技术路线存在重叠;在大模型数据层面上,由于中文语料库来源单一且更新频率不高,导致训练数据高度相似。
经过2023年的“百模大战”后,全国已在网信办登记备案的生成式人工智能服务数量保持在117家不变。马涛估计,未来我国通用类大模型产品会经历进一步的市场淘汰,最终稳定在约10个知名大模型上。
挑战与机遇并存
当前,全球大模型技术竞争异常激烈,各国都在快速迭代技术。从全球范围发布的大模型地域分布来看,中国和美国遥遥领先,占据了全球总量的80%以上,中国已形成了紧跟世界前沿的大模型技术群。
然而,与引领这一潮流的美国相比,中国在大模型产品和服务上还有哪些不足呢?马涛指出,算力供给上的差距非常值得关注。近期,英伟达宣布搭载最新架构Blackwell的GPU芯片正式投产,这标志着在全球范围内性能表现极为突出的H100计算芯片已经成为“上一代”。它与我国存量较多的英伟达A100芯片和华为昇腾910B拉开了代际差距。
面对客户对芯片的焦虑,百度采取了“兼容”策略。忻舟介绍,百度的百舸·AI异构计算平台能够实现一云多芯,兼容国内外主流AI芯片,用户无需为每个芯片平台重新设计和优化模型,从而大大节省了时间和资源。
“中国拥有超大市场规模和全产业链优势,有巨大的训练数据开发潜力,以及广泛的大模型应用场景和垂直领域的实际需求,这是其他国家难以具备的条件,为我国大模型加快技术迭代和实际应用提供了宝贵的发展机遇。”马涛表示。
展望未来
朱迅垚表示,对大模型未来应用的增长非常有信心,并相信中国在AI领域,尤其是AI原生应用上,一定会走在世界前列。中国拥有超大市场规模、全产业链优势、丰富的训练数据和大量应用场景需求,这些为大模型技术的飞速迭代和实际应用提供了独特的发展机会。
这场AI大革命正在迅速改变世界。从技术层面的角逐,到价格战的激烈竞争,都在推动着整个行业向更高效、更广泛的商业应用迈进。对未来充满信心的中国,将在这场全球AI竞赛中,继续稳步前行,向世界展示其独特的技术优势和创新潜力。