让AI决策会引发核战争?三次险些毁灭世界的历史警示
2024年底,中美达成共识,人工智能(AI)永远不应被赋予发动核战争的决定权。这一卓越的政策决策是在布鲁金斯学会和清华大学国际安全与战略研究中心召集的“中美人工智能与国家安全对话”的五年讨论中奠定的。通过研究冷战时期美苏对抗的几个案例,我们可以看到如果人工智能在那个时期已经存在,并被赋予决定是否发射核武器或先发制人进行预期核攻击的任务,而其决策又出现了错误,那么可能会发生什么。鉴于当时盛行的观念、理论和程序,一个“训练有素”的人工智能系统(可能通过许多反映当前传统智慧的假想场景)可能会决定发射核武器,造成灾难性的后果。
值得庆幸的是,在我将要讨论的例子中——1962年的古巴导弹危机、1983年9月的虚假警报危机和1983年10月的“神箭手”演习——人类比当时的普遍智慧和理论表现出更强的风险意识和更合理的常识。如果认为人类在这种情况下总是会表现出克制,而训练有素的AI系统可以为人类决策提供有益的参考,那未免过于轻率。然而,面对核末日这一真实可能性,人类表现出的深思熟虑和同情心,是那些以冷血“理性”方式训练出来的机器所不具备的,而且可能在未来也不会具备,这确实发人深省。
三次与核末日擦肩而过
古巴导弹危机始于1962年,当时美国情报部门获悉苏联正向古巴运送核导弹和战术核武器,试图改善与美国之间的核平衡。尽管他们不知道苏联在古巴领土上已经部署了多少核武器,但约翰·肯尼迪总统的几乎所有顾问,包括参谋长联席会议,都建议对苏联阵地实施常规空袭。
这种打击很容易导致苏联的报复升级,可能是附近的苏联潜艇指挥官(装备有核弹头鱼雷)对美国军舰发动袭击,也可能是古巴境内的苏联地面部队(可能袭击美国在关塔那摩湾的基地)。肯尼迪选择了海军封锁古巴(防止更多武器通过海路运抵古巴)和与苏联总理尼基塔·赫鲁晓夫进行秘密外交谈判相结合的策略,包括从土耳其撤出美国导弹和永远不入侵古巴。
苏联人接受了这一提议,从古巴撤出导弹和核武器,并停止在菲德尔·卡斯特罗及其政府统治的古巴岛上进一步进行军事集结。
在1983年9月的虚假警报危机中,苏联一名值班军官斯坦尼斯拉夫·彼得罗夫从传感器系统中看到美国正在用五枚洲际弹道导弹(ICBM)攻击苏联,这些导弹可能在20分钟内引爆。
事实上,传感器接收到的是异常云层反射的阳光,传感器不够“聪明”,无法识别反射的真实情况。彼得罗夫意识到,美国对苏联的任何攻击几乎肯定会规模更大——因为小规模攻击只会招致苏联的报复,而对苏联核力量造成实质性破坏的可能性很小——因此他单枪匹马地选择不对美国发动的假想攻击进行“报复”,从而避免局势升级。
在当时的理论认为任何来袭攻击都可能需要立即报复的情况下,人工智能系统是否会得出同样的审慎结论,谁也说不准。在这种情况下,面对实际核战争这种难以想象的可能性,人类本能地、而非按照正式程序随机应变,做出了正确的决定。至少在这个案例中,彼得罗夫的基本人性与品格似乎拯救了世界。
仅仅几个月后,1983年11月,北约在美国与苏联关系非常紧张的一年里进行了一次名为“神箭”的大型军事演习。 3月,罗纳德·里根总统发表了“星球大战”演讲,不久之后,他宣布苏联为邪恶帝国;9月,苏联飞行员击落了误入苏联领空的韩国航空007号航班,机上人员全部遇难。美国当时也在准备在欧洲部署具有核能力的潘兴II型导弹,一旦发射,导弹仅需很短的飞行时间即可抵达莫斯科。
因此,当北约进行“箭术”演习时,苏联领导人担心这可能是为真正的攻击做准备,其目的可能是消灭苏联领导层。演习中,北约部队曾一度模拟准备核攻击,在具有核能力的飞机上放置了假弹头。苏联情报部门目睹了这些准备,但当然无法分辨出这些弹头是假的。
苏联领导人因此“回应”了北约,用他们自己的真正核弹头装备了具有核能力的系统。美国情报部门也目睹了这些准备,但精明的美国空军将军伦纳德·佩鲁茨意识到了事态的发展,并向上级建议美国不要在自己的系统上放置真正的弹头作为回应。这样做是否会引发一方或另一方发动先发制人的攻击,谁也无法预料;然而,由于双方武器距离很近,而且都担心对方发动突然袭击,因此任何此类情况都会变得异常紧张。
人工智能会做得更好吗?
在所有三个案例中,人工智能都可能选择发动核战争。在古巴导弹危机期间,美国官员认为西半球是抵御敌对势力的堡垒,他们一致强烈支持阻止苏联或共产主义势力的入侵。
前一年,美国通过中央情报局试图与古巴流亡者合作推翻卡斯特罗。当然,苏联核武器部署在美国海岸不到100英里的位置,引发了美国对什么可以接受、什么不可以接受的普遍思考。
由于没有任何传感器能够确定苏联核弹头是否不在,根据当时的理论采取“谨慎”的做法,确实是在苏联核弹头投入使用之前将其消除。只有一位非常真实的美国总统——一位在第二次世界大战中目睹战斗,并在前一年看到美国官僚机构在古巴猪湾袭击中搞砸了——才不这么认为。这个例子表明,禁止人工智能引发核战争的规定应包括可能使用常规武器打击具有核能力的武器或武器系统的情形。
1983年9月的虚假警报危机中,只有一位敏锐的人意识到美国仅凭几枚核弹头发动攻击的可能性极小。事实上,如果换一位军官或人工智能控制的指挥中心,他们很可能会认为这五枚洲际弹道导弹是企图对领导人发动斩首式攻击,或者对实际情况得出错误的结论。结果很可能是一场“报复性”打击,而实际上却是第一次打击,这很可能会导致美国做出非常真实的核反应。
在“箭术”演习中,由于美国官员知道他们只是在进行演习,而且苏联人也知道这一点,因此,如果看到苏联人将真正的弹头置于发射位置,许多人都会感到震惊。
大多数人可能会得出结论,苏联人利用北约演习来欺骗北约官员,让他们放松警惕,而苏联人则准备进行一场非常真实的攻击。根据当时盛行的理论和标准程序训练的人工智能系统至少会建议美国进入核战备状态。由于当时两个超级大国都制定了大规模先发制人的计划,旨在最大程度地削弱对方发动有力二次打击的可能性,因此双方都处于最高战备状态的核武器局势可能非常危险。
是的,在这种情况下,人工智能可能会判断出有必要保持克制,并在未来可能发生的类似情况下做出同样的判断,甚至比某些人类更明智。人工智能可以用来检查人类的思维和行为。但这些例子凸显了将人类历史上最重要的决定交给机器有多么危险。中美领导人做出了正确的决定,未来的领导人应该坚持这一决定。
作者:迈克尔·E·奥汉隆,外交政策研究主任、斯特罗布·塔尔博特安全、战略和技术中心主任、非洲安全倡议联合主任
菲利普·H·奈特,国防与战略教席、斯特罗布·塔尔博特安全、战略和技术中心外交政策高级研究员
海外编译精选海外新鲜事