Altman表示,“深度学习奏效”将带来“巨大繁荣”。
周一,OpenAI首席执行官Sam Altman在一篇名为《智能时代》的新个人博客文章中概述了他对AI驱动的技术进步和全球繁荣的愿景。这篇文章描绘了AI加速的人类进步,Altman建议超级智能AI可能会在未来十年内出现。
他写道:“我们可能会在几千天内拥有超级智能(!);可能会花更长时间,但我相信我们会实现这一目标。”OpenAI当前的目标是创建AGI(人工通用智能),这是一个假设技术的术语,可以在很多任务上达到人类智能水平,无需特定训练。相比之下,超级智能超越了AGI,可以被看作是一种可以在任何智力任务上明显超越人类的假设机器智能水平,也许甚至达到难以想象的程度。
超级智能(有时称为“ASI”,即“人工超级智能”)是机器学习社区中一个流行但有时边缘的话题,多年来一直是如此——尤其是自有争议的哲学家尼克·博斯特罗姆(Nick Bostrom)在2014年撰写了一本名为《超级智能:路径、危险、战略》的书之后。
前OpenAI联合创始人和首席科学家伊利亚·苏茨克弗(Ilya Sutskever)于6月离开OpenAI,创立了一个以“Safe Superintelligence”命名的公司。与此同时,Altman自去年起至少一直在谈论开发超级智能。
那么,“几千天”到底有多长时间呢?没有确切的说法。Altman选择一个模糊的数字的可能原因是因为他并不确切知道ASI何时会出现,但听起来他认为可能会在十年内实现。
作为参考,2000天约为5.5年,3000天约为8.2年,4000天几乎为11年。Altman在这里的模糊性很容易受到批评;没有人真正可以预测未来,但作为OpenAI的CEO,他可能了解AI研究技术,这些技术并不广泛为人所知。
因此,即使用一个广泛的时间范围表达,这一说法来自AI领域中一个显赫的来源——尽管他在确保AI进展不停顿方面投入了大量精力。并非所有人都分享Altman的乐观和热情。
计算机科学家,也是经常批评AI的格雷迪·布奇(Grady Booch)转发了Altman关于“几千天”的预测,并在Twitter上写道:“我真是受够了所有关于AI的炒作:这没有现实基础,只会导致估值膨胀,激起公众情绪,博取头条,分散人们对计算机领域真正工作的注意力。”尽管受到批评,但当目前可能是定义AI公司的OpenAI首席执行官对未来能力做出广泛预测时,这是值得注意的事情——即使这意味着他一直在努力筹集资金。
如Altman在文章中所写的,“如果我们希望让尽可能多的人使用AI,我们需要降低计算成本,使之充裕(这需要大量的能源和芯片)。如果我们不建立足够的基础设施,AI将成为一种非常有限的资源,会引发战争,并成为富人的工具。”
Altman对“智能时代”的愿景在文章的其他部分,Altman将我们当下的时代描绘为“智能时代”的黎明,这是继石器时代、农业时代和工业时代之后的下一个人类历史中的变革性技术时代。他将深度学习算法的成功归因为这个新时代的催化剂,简单地陈述:“我们如何到达了繁荣的下一个飞跃门槛?用三个词:深度学习奏效。”OpenAI首席设想AI助手变得越来越强大,最终形成“个人AI团队”,可以帮助个人完成几乎他们能想象到的任何事情。
他预测AI将在教育、医疗保健、软件开发等领域实现突破。尽管承认潜在的弊端和对劳动力市场的干扰,Altman仍对AI对社会的整体影响持乐观态度。他写道:“光是繁荣并不一定会让人们幸福——有很多富有的人过得并不好——但它将显著提高世界各地人们的生活水平。”
尽管像SB-1047这样的AI监管话题是当今热门话题,Altman并未特别提到AI的科幻危险。在Twitter上,彭博专栏作家马修·伊格莱西亚斯(Matthew Yglesias)写道:“值得注意的是@sama甚至不再只是在口头上提及存在危机性的担忧,他考虑的唯一负面影响是劳动力市场调整问题。”尽管对AI潜力充满热情,Altman也呼吁谨慎,但含糊不清。
他写道:“我们需要明智而有信念地行动。智能时代的黎明是一个具有非常复杂和极高风险挑战的重大发展。这将不会是一个完全积极的故事,但潜力是如此巨大,我们应该为自己和未来找到如何应对眼前风险的方法。”除了劳动力市场的干扰之外,Altman并未说明智能时代为何不会完全积极,但他最后以一个因技术变革而失去的过时职业的类比结束了文章。
关注【黑客联盟】带你走进神秘的黑客世界