OpenAI 近日公布了一个五级系统,用于衡量其在开发通用人工智能(AGI)方面的进展。该公司在本周二的全体员工大会上向员工分享了这一新的分类系统,旨在为理解 AI 进展提供一个清晰的框架。然而,该系统描述的是尚不存在的假设性技术,或许最好将其解读为一种为了获取投资资金的营销手段。
OpenAI 此前曾表示,AGI——一个模糊的术语,指的是一种能够像人类一样在没有专门训练的情况下执行新任务的假设性概念——是该公司目前的首要目标。对能够在大多数智力工作中取代人类的技术的追求,推动了人们对该公司持久的炒作,尽管这种技术可能会对社会造成巨大的颠覆。
OpenAI 首席执行官 Sam Altman 此前曾表示,他相信 AGI 可以在未来十年内实现,而且这位首席执行官在公开场合发表的大部分言论都与该公司(以及整个社会)如何应对 AGI 可能带来的颠覆有关。沿着这些思路,一个用于传达在通往 AGI 的道路上在内部取得的 AI 里程碑的排名系统是有意义的。
OpenAI 的五个级别——该公司计划与投资者分享——涵盖了从当前的 AI 能力到可能管理整个组织的系统。该公司认为,其技术(例如为 ChatGPT 提供支持的 GPT-4)目前处于第 1 级,即能够进行对话交互的 AI。然而,据彭博社援引一位熟悉讨论情况的人士的话说,OpenAI 的高管们在全体员工大会上告诉员工,他们即将达到第 2 级,即“推理者”。
彭博社列出了 OpenAI 的五个“人工智能阶段”:
1 级:聊天机器人,具有对话语言的 AI
2 级:推理者,人类水平的问题解决能力
3 级:代理,能够采取行动的系统
4 级:创新者,能够帮助发明的 AI
5 级:组织,能够完成组织工作的 AI
据报道,一个 2 级 AI 系统将能够进行基本的问题解决,其水平相当于一位拥有博士学位但无法使用外部工具的人类。在全体员工大会上,OpenAI 的领导层展示了一个使用其 GPT-4 模型的研究项目,研究人员认为该项目显示出接近这种类似人类推理能力的迹象。
OpenAI 分类系统的高级别描述了越来越强大的假设性 AI 能力。3 级“代理”可以自主地完成数天的任务。4 级系统将产生新的创新。顶峰是 5 级,它设想 AI 管理整个组织。
这个分类系统仍在完善中。OpenAI 计划收集员工、投资者和董事会成员的反馈,并可能随着时间的推移对这些级别进行完善。
Ars Technica 就排名系统和彭博社报道的准确性向 OpenAI 提出了询问,该公司的一位发言人表示,他们“没有什么可补充的”。
对 AI 能力进行排名的难题
OpenAI 并不是唯一一家试图量化 AI 能力水平的公司。正如彭博社所指出的,OpenAI 的系统感觉类似于汽车制造商制定的自动驾驶级别。在 2023 年 11 月,谷歌 DeepMind 的研究人员提出了他们自己的五级框架来评估 AI 的进步,这表明其他 AI 实验室也一直在试图弄清楚如何对尚不存在的东西进行排名。
OpenAI 的分类系统也在一定程度上类似于 Anthropic 的“AI 安全级别”(ASL),该级别由 Claude AI 助手的制造商于 2023 年 9 月首次发布。这两个系统都旨在对 AI 能力进行分类,尽管它们的侧重点不同。Anthropic 的 ASL 更明确地侧重于安全性和灾难性风险(例如 ASL-2,指的是“显示出危险能力早期迹象的系统”),而 OpenAI 的级别则跟踪一般能力。
然而,任何 AI 分类系统都会引发这样的问题:是否有可能对 AI 的进步进行有意义的量化,以及什么构成进步(甚至什么构成“危险”的 AI 系统,如 Anthropic 的例子)。到目前为止,科技行业在夸大 AI 能力方面有着悠久的历史,而像 OpenAI 这样的线性发展模型可能会助长不切实际的期望。
目前,AI 研究界还没有就如何衡量 AGI 的进展,甚至 AGI 是否是一个定义明确或可以实现的目标达成共识。因此,OpenAI 的五级系统应该被视为一种吸引投资者的沟通工具,它展示了该公司的愿望目标,而不是对进展情况的科学或技术衡量。