为什么有道德的AI对CIO很重要?

给科技置顶 2024-11-07 09:13:19

Alphabet前首席负责任技术战略官Salima Bhimani表示,IT领导者需要考虑AI如何使他们的组织和整个人类受益。

Salima Bhimani多年来一直提倡以负责任和合乎道德的方式使用AI,她在2017年至2023年期间担任Alphabet首位首席战略官兼包容性和负责任技术、业务和领导者总监。

Alphabet前首席负责任技术战略官Salima Bhimani

在谷歌母公司Alphabet,她和Waymo、Wing以及X等公司合作,塑造可持续业务和全球影响力。她现在是咨询公司10Xresponsibletech的首席执行官,专注于帮助组织设计、整合和采用符合业务且负责任的AI战略。

在最近的一次采访中,Bhimani谈到了以有道德的方式采用AI的重要性,以及这将如何造福于人类和个体组织。她说,AI和其他先进技术有可能为全人类创造巨大的利益,包括解决健康和信息不平等等棘手问题,但厂商和用户需要以新的方式思考IT。

她说:“我们面前的机会不仅仅是驾驭AI的浪潮,我们还必须考虑我们从未考虑过的那些事情,比如道德,并将其视为帮助我们推动这项技术的机会。”

她认为,在很多情况下,IT领导者和公司专注于创新,包括对用户和客户的利益,但他们应该更广泛地考虑全球影响。

“过去,围绕技术的动机一直是创新,可能是为了服务人类、造福世界和打造优质产品而进行创新。现在,我们必须将创新视为一种真正重塑世界的方式,让世界为每个人服务,这不是一项慈善呼吁,而是呼吁利用技术加速人类向积极的方向发展。”

您专注于让Alphabet和新公司以有道德的方式使用AI,那么您能定义一下“有道德的AI”吗?

对我来说,这个定义有三个重要组成部分。首先是消除危害,从而确保我们正在构建和集成的AI系统不会无意中加剧人们可能面临的现有挑战或造成新的危害。

第二是扩大利益。我们往往将重点放在危害方面,但扩大利益也是有道德AI中一个重要组成部分。我的意思是,如果我们整合AI,我们是否确保它实际上会成为我们员工的合作伙伴,扩大使用范围和在公司内的影响力,而不仅仅是消除职位?我们希望这是一个有益的、广阔的机会。

最后一点是,我们正在与人类建立共生的AI系统。人们说AI是自我构建的东西,这有一定的道理;但实际上,它仍然是由人类构建的。系统与人类的需求和愿望之间存在共生关系,我们需要在持续的基础上有意识地做到这一点。因此,即使我们的AI系统可以使用最初输入的数据来创建新的数据集,我们也希望确保对此进行了治理,并且人们真正参与到这一过程中。

为什么CIO、CAIO和其他IT领导者应该为他们的组织追求有道德的AI?对他们和他们的组织有什么好处?

CIO的角色正在发生变化。过去,CIO的工作重点是保持灯火通明、管理基础设施、确保系统稳定,或者只是确保集成正在进行。而现在,我们谈论的是成为组织内的战略远见者。我们是否在制定和业务目标相一致的AI战略?我们是否在挖掘AI给我们带来的机会?

CIO和CAIO的角色是把业务与技术联系起来,道德部分将变得至关重要。我们如何将这项技术的好处扩展到我们作为企业试图实现的目标?它会给我们带来新的商业机会吗?它会降低风险吗?它会推动创新吗?

另一个问题是,它会吸引顶尖人才吗?一些研究表明,顶尖的AI人才确实有兴趣与考虑道德因素的组织或公司合作。

如果我们正在开发的产品或AI系统会产生偏见,我们可能不得不倒退回去,因为这会造成品牌和声誉问题。现在CIO或者CAIO的覆盖范围非常广,他们不仅要考虑技术与业务的协调,还要考虑社会风险影响以及社会利益和机会。

您是否担心最近对多元化、公平和包容性 (DEI)政策的政治阻力?忽视与AI相关的道德和平等问题,会产生什么影响?

挑战在于,我们从那些通常处于边缘的人的角度考虑道德、责任或DEI,但我认为这实际上不仅对这些人有好处,而且对我们所有人都是有好处的。DataRobot在2022年进行的一项调查显示,算法偏见实际上会导致收入损失62%,客户流失61%,员工流失43%,更不用说法律费用了,这对业务产生影响,人们希望知道正在构建的东西是否构建得很好。

CIO或者IT领导者如何确保他们正在构建或购买的AI被有道德的方式采用了?

他们需要为组织定义有道德的AI。我们可以采用有道德的AI的一般定义,但也有与业务要实现的目标相关的特定定义。而且,需要和这些组织或公司的领导层共同定义,这就是领导层需要对AI采取战略方针的时候,需要非常深入地了解我们愿意做出哪些权衡以确保我们的产品或服务合乎道德。我们需要创建可以跨职能集成的治理模型。

我还认为,对于那些购买了AI以融入其组织的人来说,了解AI知识非常重要。我们的员工知道这会为他们带来什么吗?我们需要确保作为一家公司,我们已经投入了所需的能力和空间让员工能够以最佳方式使用AI。

最后一点是问责制和对现有系统的持续评估。我们需要不断检查:它是否实现了我们想要的有道德的AI这一目标,还是产生了我们没有预料到的结果?

现在似乎有很多关于AI的担忧,从虚假信息到失业,再到AI接替人类。您对AI的主要担忧是什么?

我想到的是失去的市场。我的意思是,我们仍然处于一个存在数字鸿沟的世界。世界上很多人仍然无法访问互联网,这很疯狂,但却是事实。

我们使用的数据中有很多是基于数字足迹的,意味着我们设计和开发AI系统的方式是基于有限的数据,这是一个很大的问题。如果AI系统最终应该服务于世界,那么如果AI系统所基于的数据基本上不包括世界上的大多数地方时,如何服务于世界?

这是我们需要解决的一个大问题,尤其是如果我们真的希望AI对每个人都有用,尤其有很多解决方案仍然来自北美或欧洲。我们这个半球的所有人都肩负着额外的负担和责任,需要真正思考,我们如何与世界各地的群体一起解决这个问题?

然后就是不同参与者之间的真诚合作和沟通,AI现在为我们做了什么,未来会为我们做什么——无论是技术、公司本身、政府、建设者,甚至是用户和消费者。问题是,我们是否相互理解,是否找到了共同点?

监管部分非常非常重要。如果科技公司以一定的速度发展,而政府以另一种速度发展,那就要令人担忧了。

0 阅读:1

给科技置顶

简介:感谢大家的关注