生成式AI的双刃剑:如何应对它对社会经济不平等和政策制定的挑战

独角也有噬元兽 2024-02-21 05:23:13

“强⼤的⼈⼯智能的崛起要么是⼈类有史以来最好的事情,要么是最糟糕的事情。我们还不知道是哪⼀个。”—— 史蒂芬·霍⾦

技术史上的著名学者梅尔⽂·克兰茨伯格(Melvin Kranzberg)在他的领域的主席演讲中定义了“克兰茨伯格定律”,其中第⼀条指出“技术既不好也不坏;技术没有好坏之分”。它也不是中⽴的” 。这⼀原则表明,像⽣成⼈⼯智能这样的技术可能会对社会产⽣消极或积极的影响(或两者兼⽽有之),尽管它们并不是天⽣注定的。我们在此概述其中⼀些影响,希望引导社会利⽤⼈⼯智能的积极影响,同时避免消极影响。⽣成式⼈⼯智能⼏乎将影响社会的⽅⽅⾯⾯。我们推测⼈⼯智能对四个关键领域的社会经济不平等的影响:⼯作、教育、健康和信息。对于每个领域,我们探索当前的研究并为未来的探索提出⼴泛的⽅向。

生成式人工智能(GenAI)是一种能够自动创造新的内容、数据或代码的技术,它利用了深度学习和大数据的能力,为各行各业提供了新的可能性和机遇。但是GenAI技术也带来了一系列的挑战和风险,尤其是对社会经济不平等和政策制定的影响。本文解读一篇由多位来自意大利、美国、英国、澳大利亚和法国等31名学者合作撰写的论文,该论文题为《The impact of generative artificial intelligence on socioeconomic inequalities and policy making》,发表在2023年的《人工智能与社会》期刊上。该论文从多个角度分析了生成式AI的潜在影响,提出了一些研究问题和政策建议,为我们理解和应对这种技术的发展提供了有价值的参考。

论文作者背景

论文的第一作者是瓦莱里奥·卡普拉罗(Valerio Capraro),他是意大利米兰-比科卡大学(University of Milan-Bicocca)的心理学系教授,也是人工智能与社会(AI & Society)期刊的副主编。他的研究兴趣包括人工智能的伦理、社会和政策问题,以及人工智能与人类的合作和决策。他曾在多个国际会议和期刊上发表过相关的论文和报告。

第二作者是奥斯汀·伦奇(Austin Lentsch),他是美国麻省理工学院(MIT)的经济学系博士生,也是人工智能与社会(AI & Society)期刊的助理编辑。他的研究兴趣包括人工智能的经济和社会影响,以及人工智能与社会正义的关系。他曾在多个国际会议和期刊上发表过相关的论文和报告。

第三作者是达伦·阿切莫格鲁(Daron Acemoglu),他是美国麻省理工学院(MIT)的经济学系教授,也是麻省理工学院的终身教授。他的研究兴趣包括经济增长、政治经济学、人工智能和机器人等领域。他曾获得过克拉克奖、约翰·冯·诺伊曼奖等多个国际奖项,也是美国国家科学院、美国艺术与科学院等多个学术机构的成员。

论文的其他作者分别来自美国、法国、西班牙、丹麦、英国、德国、澳大利亚、爱尔兰、意大利、荷兰、奥地利、挪威等国家的不同学术机构和组织,他们的研究兴趣涵盖了人工智能的技术、伦理、社会、政策等多个方面,他们都是各自领域的专家和学者,对本文的主题有着深入的了解和见解。

论文主要内容

论文主要分为四个部分,分别是引言、生成式AI的影响、研究问题和政策建议、结论。

引言部分

在引言部分,作者介绍了生成式AI的定义、特点和发展历程,指出生成式AI是一种能够利用大量的数据和先进的算法,自动创造新的内容、数据或代码的技术,它具有高度的灵活性、创造性和普适性,可以应用于各种领域和场景,如文本、图像、音频、视频、软件等。作者回顾了生成式AI的发展历史,从早期的基于规则的方法,到近年来的基于深度学习的方法,特别是基于变分自编码器(VAE)和生成对抗网络(GAN)的方法,以及最新的基于大语言模型(LM)的方法,如GPT-3、BERT等。作者指出,生成式AI的快速发展,不仅为人类提供了新的工具和机会,也带来了新的挑战和风险,尤其是对社会经济不平等和政策制定的影响,这是本文的主要关注点。

生成式AI的影响

在这一部分,作者分析了生成式AI对社会经济不平等和政策制定的影响,从四个方面进行了讨论,分别是工作、教育、健康和信息。作者认为,生成式AI将对这些领域产生深远的影响,既有积极的一面,也有消极的一面,需要我们认真地权衡利弊,制定相应的策略和措施,以促进公平、包容和可持续的发展。以下是对每个方面的简要概述:

工作

生成式AI将对工作的本质、内容和分布产生重大影响,它可以自动化一些工作任务,创造新的工作,改变工资分配,要求新的技能。生成式AI的自动化能力,将使一些低技能、低收入、重复性高的工作被取代,从而加剧社会经济不平等,影响工人的福利和尊严。同时,生成式AI的创造性能力,将催生一些高技能、高收入、创新性高的工作,为工人提供新的机会和挑战,但也需要工人具备更高的数字化素养和适应性。此外,生成式AI的普适性能力,将改变工作的地理分布,促进远程工作和全球协作,但也可能导致一些地区和群体的边缘化和排斥。因此,我们需要重新思考工作的价值和意义,建立新的劳动市场制度和社会保障体系,提供有效的教育和培训,促进工作的转型和升级。

⽣成式⼈⼯智能最显着的优势之⼀是其解析和聚合⼤量信息的能⼒。此功能可以通过简化在线搜索任务来均衡信息访问并降低研究成本。如果⽤⼾想要使⽤传统搜索引擎完成⼀项复杂的任务,他们必须将该任务分解成多个部分,对每个部分发出搜索查询,阅读搜索引擎返回的⽹⻚,评估所收集信息的代表性,然后汇总结果来解决原始问题。另⼀⽅⾯,⽣成搜索引擎可以聚合这些信息并将其返回给⽤⼾,从⽽需要更少的带宽以及⽤⼾和系统之间的更少的⾏程,这在资源较低的环境中将很有帮助。除了节省时间和成本之外,这些⼯具还可以通过识别值得信赖的资源并通过同时考虑⽐⼈类操作员可以保留的更多信息来提取任何主题的共识来弥补专业知识。这种⽅法可以帮助资源匮乏环境中的⽤⼾和⼩型企业访问传统上仅在资源丰富环境中可⽤的信息。

表1:关于生成人工智能在工作环境中的影响的主要研究方向摘要。

教育

生成式AI将对教育的质量、内容和形式产生重大影响,它可以民主化学习,提供个性化教育解决方案,但也引发数字鸿沟的担忧。生成式AI的智能化能力,可以根据学生的需求、能力和兴趣,提供定制化的学习内容、路径和反馈,提高学习的效率和效果,缩小教育的差距和不平等。同时,生成式AI的创新化能力,可以创造新的教育内容、方法和工具,拓展学习的领域和范围,激发学习的兴趣和动力,培养学习的能力和素养。此外生成式AI的虚拟化能力,可以实现在线教育和混合教育,突破时间和空间的限制,扩大教育的覆盖和影响,促进教育的公平和普惠。生成式AI的应用也引发了数字鸿沟的担忧。生成式AI的应用需要一定的基础设施、设备和网络,这可能导致一些地区和群体的教育机会和资源的不均衡和缺乏。因此,我们需要加强教育的投入和支持,建立新的教育标准和评估,提供有效的教师培训和指导,促进教育的质量和创新。

⽣成式⼈⼯智能的教育⽤途带来了许多挑战。⼀是偏⻅和歧视的持续存在,可能会在个性化学习、⾃动评分和录取过程中强化基于种族或性别的刻板印象。如果⽤于训练⼈⼯智能模型的数据基于过去的⼈类决策(众所周知的有偏⻅的过程),那么这些数据可能会存在偏⻅。⼀个例⼦是在⾕歌翻译等⼯具中观察到的翻译偏⻅,其中性别刻板印象在语⾔翻译中⽆意中延续下来。将短语“她/他是⼀名护⼠”从⼟⽿其语(“⽆性别”)翻译成英语(“有性别”)会产⽣阴性形式(即“她是⼀名护⼠”),⽽短语“她/他是⼀名医⽣”产⽣了男性形式(即“他是⼀名医⽣”;Johnson,2021)。

⽣成式⼈⼯智能可能会增加教师的负担。与⼈⼯智能⼯具减轻教师重复繁重⼯作的想法相反,⼈们越来越担⼼教师必须在“幕后”从事额外的任务(例如,策划和过滤内容、监控学⽣与⼈⼯智能的互动、提供技术⽀持) )以确保⼈⼯智能⼯具能够在复杂的课堂环境中发挥作⽤。这可能会加剧教育⼯作者之间的代沟,因为年轻教师可能⽐年⻓教师更擅⻓新技术。此外,⽣成式⼈⼯智能可能会对学⽣的学习产⽣意想不到的后果例如,如果学⽣过度依赖⼈⼯智能⼯具的⼴泛⽀持,这可能会削弱学⽣独⽴⼯作或思考的能⼒。关于⼈⼯智能⽣成内容的准确性以及学⽣必须掌握的有效使⽤⼈⼯智能系统的新技能(例如评估⼈⼯智能⽣成内容的能⼒)的问题也随之出现。

表2:生成人工智能对教育影响的主要研究方向综述。

健康

生成式AI将对健康的服务、效果和管理产生重大影响,它可以提高病人的预后和康复,提供个性化医疗解决方案,但也引发了公平获取和人际关系的担忧。生成式AI的分析化能力,可以利用大量的医疗数据和生物信息,提供精准的诊断、治疗和预防,提高医疗的效率和质量,降低医疗的成本和风险。同时,生成式AI的定制化能力,可以根据病人的基因、体质和偏好,提供个性化的药物、器械和建议,提高医疗的满意度和效果,增强医疗的针对性和灵活性。此外,生成式AI的智能化能力,可以实现远程医疗和智慧医疗,突破地域和资源的限制,扩大医疗的覆盖和影响,促进医疗的公平和普惠。然而生成式AI的应用也存在一些问题和挑战,如数据的安全和隐私、医疗的可靠性和责任、医患的信任和沟通等。因此我们需要加强医疗的监管和伦理,建立新的医疗模式和机制,提供有效的医护培训和协作,促进医疗的安全和人性。

患者、医疗服务提供者和医疗保健系统管理⼈员可能由于⼀些⼼理障碍⽽对采⽤⼈⼯智能犹豫不决。事实上尽管⼈⼯智能⼯具数量不断增加,但⼈⼯智能对临床实践的影响仍然有限。⼀个关键因素是公众对医疗保健领域⼈⼯智能技术的信任。例如患者可能会因为对⼈⼯智能的误解⽽拒绝采⽤,例如认为⼈⼯智能⽆法像⼈类医⽣⼀样解释⼈的独特性,或者因为很难让⼈⼯智能对错误负责。

导致采⽤犹豫不决的另⼀个因素是⼈⼯智能的不透明性与⼈类决策⽐⼈⼯智能更透明的错觉之间的对⽐。事实上,⼈类医⽣或⼈⼯智能做出的决定可能同样⽆法被患者观察到除了好处之外,患者、医疗服务提供者和医疗保健系统管理⼈员可能由于⼀些⼼理障碍⽽对采⽤⼈⼯智能犹豫不决。事实上,尽管⼈⼯智能⼯具数量不断增加,但⼈⼯智能对临床实践的影响仍然有限。⼀个关键因素是公众对医疗保健领域⼈⼯智能技术的信任。例如,患者可能会因为对⼈⼯智能的误解⽽拒绝采⽤,例如认为⼈⼯智能⽆法像⼈类医⽣⼀样解释⼈的独特性,或者因为很难让⼈⼯智能对错误负责。有理由相信,与⼈类主导的医疗保健相⽐,⼈⼯智能主导的医疗保健将更容易受到现有系统偏⻅或歧视性做法的影响。例如,卫⽣专业⼈员在治疗体重较⾼的患者时存在偏⻅。但由于患者认为他们可以理解⼈类提供者解释的决策,他们最终会惩罚并抵制⼈⼯智能的临床使⽤。最新版本的⼈⼯智能⼯具可能不太容易受到⼈⼯智能神秘性的影响,因为较新的⽣成式⼈⼯智能⼯具的迭代性质可能允许患者以更熟悉的对话形式提出后续问题。现代⽣成⼈⼯智能⼯具⽀持的来回可能会让患者获得更⼤的帮助。

表3:生成人工智能对医疗保健影响的主要研究方向综述。

信息

生成式AI将对信息的获取、处理和传播产生重大影响,它可以提供更加定制化、高效化和民主化的信息服务,但也引发了假信息和思想多样性的担忧。生成式AI的生成化能力,可以根据用户的需求、兴趣和行为,提供更加个性化的信息内容、格式和渠道,提高信息的相关性和吸引力,缩小信息的差距和不平等。同时,生成式AI的优化化能力,可以利用大量的信息数据和算法,提供更加高效的信息搜索、分析和推荐,提高信息的质量和价值,降低信息的成本和障碍。此外,生成式AI的创新化能力,可以创造新的信息内容、媒介和工具,拓展信息的领域和范围,激发信息的创意和动力,培养信息的能力和素养。然而,生成式AI的应用也带来了一些问题和风险,如信息的真实性和可信度、信息的偏见和歧视、信息的多样性和平衡等。因此,我们需要加强信息的教育和素养,建立新的信息标准和评估,提供有效的信息干预和对抗,促进信息的透明和责任。

令⼈担忧的是,新的⽣成式⼈⼯智能技术和复杂的机器学习技术也可能使公司和平台能够收集和部署过多的个⼈信息。这将使得利⽤消费者的偏⻅或脆弱性,通过价格歧视或在未经适当同意的情况下处理和使⽤数据时侵犯消费者隐私来获取更多的消费者剩余,从⽽导致所谓的“监视资本主义时代” (阿塞莫格鲁,2024 年;祖博夫,2023 年)。这些数据垄断中出现了⼀种占主导地位的公司组织模式,其中互联⽹平台通过旨在向⽤⼾最佳营销数字⼴告来赚取收⼊。这种商业策略必然会重视⽤⼾的注意⼒,这导致公司以延⻓⽤⼾参与度的⽅式部署⼈⼯智能和机器学习技术,但这往往会损害⽤⼾的福祉。与此相关的是,能够访问更多数据的公司相对于竞争对⼿可能拥有反竞争优势,使他们能够⾏使市场⼒量来榨取剩余并放松市场上的价格竞争,这对消费者来说是不利的。此外,⽣成式⼈⼯智能激活语⾔模式(包括说服和修辞)的能⼒可以促进更有针对性的⼴告。如果⽣成式⼈⼯智能的通信能⼒与社交媒体平台的数据基础设施相结合以实现社会⼯程⾃动化,并在政治通信等领域具有潜在⽤途,结果将特别令⼈担忧。

表4:生成人工智能对信息影响的主要研究方向综述。

研究问题和政策建议

在这一部分,作者提出了一些研究问题和政策建议,以应对生成式AI对社会经济不平等和政策制定的影响。他们认为,这些问题和建议需要多学科、多领域、多层次的合作和协调,以实现生成式AI的公平和安全的使用。以下是对每个方面的简要概述:

研究问题

作者提出了一些紧迫的研究问题,以深入了解生成式AI的影响,寻找有效的解决方案,促进生成式AI的创新和发展。这些问题涉及到生成式AI的技术、伦理、社会和政策等方面,如:

如何评估和提高生成式AI的质量、可靠性和可解释性?如何保护和利用生成式AI所涉及的数据的安全、隐私和所有权?如何防止和减少生成式AI所导致的假信息、歧视和不公平?如何培养和提高人们对生成式AI的理解、信任和接受?如何设计和实施生成式AI的监管和治理机制和标准?如何平衡和协调生成式AI的利益相关者的需求和利益?如何促进生成式AI的创新和竞争,同时保护和支持生成式AI的创造者和用户?

政策建议

作者提出了一些政策建议,以应对生成式AI对社会经济不平等和政策制定的影响。这些建议涉及到生成式AI的税收、劳动、教育、健康、信息等方面,如:

创造一个更加对称的税收结构,使雇佣和培训劳动力和投资和使用生成式AI的边际税率相等,鼓励生成式AI与人类的互补技术选择。增强劳动者和民间社会对生成式AI变革的发言权,更新健康和安全规则,建立数据工会,保护用户数据的权益和利益。增加对生成式AI与人类互补技术的研究和开发的资金支持,重点关注教育、医疗和现代工匠培训等领域,提高生产力和工资水平。投资专业发展和培训,帮助教育和医疗等专业人员有效地使用生成式AI工具,提高他们的技能和能力。投入策略和资源,以对抗生成式AI产生的假信息,包括开发能够识别生成式AI假信息的工具,启动教育和宣传活动。在政府内部建立生成式AI的专家团队,为各个部门和机构提供咨询和支持,以应对生成式AI的挑战和机遇。

表5:缓解生成性人工智能在工作场所、教育、医疗保健和信息领域可能造成的社会经济不平等的政策建议,而欧盟、美国和英国的现行监管方法并未涵盖这些建议。

结论部分

在结论部分作者总结了生成式AI的影响是既有积极的一面,也有消极的一面,最后的结果取决于我们如何设计和使用这项技术。作者强调了我们在这个历史时刻的责任,以及我们需要关注生成式AI对社会经济不平等和政策制定的影响。作者提出了一些紧迫的研究问题,以及当前欧盟、美国和英国的监管框架的不足之处。作者呼吁建立一个能够跟上生成式AI技术发展的动态监管框架,并提供了一个图表,总结了文章中提出的主要研究方向和政策建议。作者还表达了他们的希望,即这项工作能够促进一个全面的研究议程,并引发公众对生成式AI在塑造我们社会中的作用的深入和包容的讨论,因为我们今天所做的决定将对未来的几代人产生持久的影响。

参考资料:https://arxiv.org/abs/2401.05377

噬元兽(FlerkenS)是一个去中心化的个人AI数字价值容器,同时也是数字经济的新型资产捕捉器和转化器,用数据飞轮为用户提供无边界的数字化、智能化和资产化服务。

噬元兽(FlerkenS)构建AI市场、AI发布器和一个在通用人工智能(AGI)上建设可扩展的系统,AI-DSL让不同类型和领域的AI应用和服务可以相互协作和交互,通过RAG向量数据库(Personal Vector Database)+ Langchain技术方案(Langchain Technology Solution)+大模型的技术实现路径,让用户获得个性化的AI服务,在分布式的网络环境里与AI技术下的服务商实现点到点的连接,建设一个智能体和经济体结合的数智化整体。

波动世界(PoppleWorld)是噬元兽平台的一款AI应用,采用AI技术帮助用户进行情绪管理的工具和传递情绪价值的社交产品,采用Web3分布式技术建设一套采集用户情绪数据并通过TOKEN激励聚合形成情感垂直领域的RAG向量数据库,并以此训练一个专门解决用户情绪管理的大模型,结合Agents技术形成情感类AI智慧体。在产品里植入协助用户之间深度交互提供情绪价值的社交元素,根据用户的更深层化的需求处理准确洞察匹配需求,帮助用户做有信心的购买决定并提供基于意识源头的商品和服务,建立一个指导我们的情绪和反应的价值体系。这是一款针对普通人的基于人类认知和行为模式的情感管理Dapp应用程序。

0 阅读:0

独角也有噬元兽

简介:感谢大家的关注