OpenAI与谷歌员工联合签署公开信,呼吁公司重视AI安全

科技有夕小瑶 2024-06-06 08:20:45

OpenAI又双叒叕因为AI安全问题被炮轰了,怎么回事呢?

数小时前,多名OpenAI、谷歌DeepMind的现任及前任员工联合签署公开信,警示AI的潜在安全隐患,呼吁AI公司提供匿名上诉渠道,唾弃OpenAI对安全问题吹哨人的报复。

这封公开信的内容阐明,人工智能的发展可能会带来诸多安全风险,例如加剧社会不平等发展、引发虚假信息的恶意操纵与传播,以及失控的自主AI可能灭绝人类等。

3.5研究测试:hujiaoai.cn4研究测试:askmanyai.cnClaude-3研究测试:hiclaude3.com

而为公开信背书的几位大能,分别是图灵奖得主Yoshua Bengio、人类兼容人工智能中心主任Stuart Russell、以及“人工智能教父”Geoffrey Hinton ……

AI公司的商业化追求导致安全监督不足

在这封联合签署的公开信中,列出了一系列AI的安全隐患。这些隐患包括但不限于:导致社会不平等加剧、虚假信息的恶意传播、威胁人类生存等。而无论是政府、AI公司还是AI专家等等,都意识到了这些隐患。

问题在于,根据签署公开信的OpenAI前任员工介绍,该AI顶流公司的内部文化极为商业:为争取成为把最强AI投向市场的第一名而不计后果。 在此文化影响下,AI的风险在很大程度上被轻视,甚至通过强硬手段,阻止公司员工就AI安全问题发声。

即使OpenAI此前与微软共同开展“部署安全委员会”等协议,旨在公开发布新AI模型之前进行重大风险审查,OpenAI的产品更迭速度也没有因此减慢。与投入更多时间和人力排除AI潜在风险相比,OpenAI仍在急于改进模型并进行商业化推广。

公开信签署人之一、前任OpenAI人工智能治理岗位员工Daniel Kokotajlo表示,从OpenAI辞职的原因是“对OpenAI能否负责任行事失去信心 ”。

同时,公开信中写到:人工智能公司拥有大量非公开信息,包括其系统的能力的局限性、保护措施的充分性以及风险水平。 然而,公司目前只有微弱的义务与政府分享其中一些信息,而没有与民间社会分享。并且不能指望公司自愿分享。

因此,信中向AI公司员工呼吁:在政府能有效对这些公司进行监督管理前,现任以及前任员工就是少数能让公司对公众负责的有效力量。

OpenAI威胁员工,禁止公开发表负面评价

OpenAI及其他AI公司曾因员工发表公司负面评价,而威胁取消其既得权益,并要求员工签署严格的保密协议,限制他们对公司进行负面评价。这些保密协议阻止员工公开表达对AI安全的担忧,并且鉴于整个行业此类案件的历史,这些员工担心公司各种形式的报复。

OpenAI还用剥夺吹哨人前员工股权等强硬手段阻止他们对公司进行负面评价。 对此,Daniel Kokotajlo进行了佐证:

这封公开信共有13名员工签署,包括7名前任OpenAI员工、4名现任OpenAI员工、1名前任谷歌DeepMind员工和1名现任谷歌DeepMind员工。

签署该公开信的所有现任OpenAI员工,全部选择匿名来防止公司报复。

四名现任OpenAI员工匿名签署了此公开信

而在公开信的最后,员工们呼吁:前沿人工智能公司应当为揭露AI安全隐患的吹哨人提供可靠的保护措施,并遵循以下原则。 具体包括:

1.公司不会签订或执行任何禁止因风险相关问题而“贬低”或批评公司的协议 ,也不会通过阻碍任何既得经济利益来报复与风险相关的批评;

2.公司需要提供促进员工向公司董事会、监管机构和具有相关专业知识的独立组织,提出AI风险相关担忧 的可验证匿名程序;

3.公司要支持开放批评的文化,允许员工在保护商业机密和知识产权的前提下,向公众、公司董事会、监管机构或具有相关专业知识的独立组织提出,与其技术相关的风险相关问题 ;

4.在其他程序失败后,对于公开分享与风险相关的机密信息的员工,公司不会进行报复。

公开信链接:https://righttowarn.ai/

而在此次事件发酵后,人们的看法却褒贬不一。有人很欣慰还有一群AI工作者愿意站在公众这一边。有人认为这是一场阴谋论,只是利用人们的担忧去攻击AI;有人认为这件事不会对AI公司造成限制,反而是帮助AI公司进行了一次“炒作”。

对此,你有什么看法?

0 阅读:3

科技有夕小瑶

简介:感谢大家的关注