《自然》杂志邀您一起见证人工智能的五年飞跃

独角也有噬元兽 2024-02-20 22:15:47

Nature杂志是一本国际性的综合性科学期刊,创刊于1869年,是世界上最著名和最有影响力的科学期刊之一。Nature杂志涵盖了自然科学和社会科学的各个领域,包括物理、化学、生物、医学、地球、环境、工程、技术、数学、计算机、教育、经济、政治、心理、历史、文化等。Nature杂志的目标是发布最具创新性和重要性的科学研究,促进科学的交流和进步,为人类的福祉和发展服务。

Nature Machine Intelligence是Nature杂志的一个子刊,专注于机器智能领域的研究和应用,于2019年1月正式上线。Nature Machine Intelligence涵盖了机器智能的各个方面,包括机器学习、计算机视觉、自然语言处理、知识表示、推理、规划、机器人、人工神经网络、深度学习、强化学习、元学习、演化计算、模糊逻辑、人工生命、人工神经元、人工免疫系统等。Nature Machine Intelligence的目标是发布最具创造性和影响力的机器智能研究,探讨机器智能的科学和社会的问题和挑战,为机器智能的发展和应用提供一个平台和桥梁。

为了庆祝Nature Machine Intelligence(自然人工智能)杂志的五周年,该杂志邀请了几位在过去几年发表过评论和观点的作者,让他们回顾和评价他们所写的主题的发展,以及分享他们对AI的其他感兴趣或担忧的话题,以及对AI在2024年和未来五年的期待和希望。《Anniversary AI reflections》这篇综述文章展示了AI领域的多样性和活力,也反映了AI的发展不仅涉及到技术和科学的问题,还涉及到社会和伦理的问题,需要多方面的合作和监督,以确保AI的可持续和负责任的发展。

从左到右:2019 年 3 月封面(图片:Ali Marjaninejad、Darío Urbina-Meléndez、Brian A. Cohn 和 Francisco J. Valero-Cuevas;封面设计:Karen Moore);2020 年 12 月封面(图片:Donguk Kim,Scapien;封面设计:Karen Moore);2021 年 11 月封面(图片:Lonneke Scheffer 和 Rahmad Akbar;封面设计:Lauren Heslop);2022 年 5 月封面(图片:Calogero Maria Oddo,Scuola Superiore Sant'Anna,比萨,意大利,编辑:Alessio Tommasetti,D'Arc.Studio;封面设计:Lauren Heslop);2023 年 1 月封面(图片:Bing Wen Brunton、Floris van Breugel / 华盛顿大学;封面设计:Thomas Phillips)。

大型语言模型在蛋白质设计中的应用

Noelia Ferruz是德国维尔茨堡大学的生物化学教授,他在2022年发表了一篇关于大型语言模型(LLMs)在蛋白质设计中的应用的文章。他介绍了LLMs的原理和技术,以及它们在蛋白质设计中的优势和潜力,同时也讨论了一些未来的研究方向和挑战。

LLMs是一种基于深度学习的AI模型,它们能够从大量的文本数据中学习和生成自然语言,例如GPT-4、BERT等。LLMs的核心是一种叫做变换器(transformer)的神经网络结构,它能够捕捉文本中的长距离依赖和复杂的语义关系。LLMs的应用不仅限于自然语言,还可以扩展到其他序列数据,例如蛋白质序列。蛋白质是生命的基本组成部分,它们的结构和功能取决于它们的序列。通过使用LLMs,科学家可以从大量的蛋白质序列中学习和生成新的蛋白质序列,从而实现对蛋白质的设计和优化。

LLMs在蛋白质设计中的应用有很多,例如可以帮助科学家发现和创建具有特定功能和性质的蛋白质,例如抗体、酶、药物等。LLMs在蛋白质设计中的优势有很多,例如可以减少对实验和计算的需求,可以提高对蛋白质的多样性和创造性,可以增加对蛋白质的可控性和可预测性。LLMs在蛋白质设计中的潜力有很多,例如可以实现对蛋白质的多模态的生成和理解,例如结合图像、文本、声音等。LLMs在蛋白质设计中的挑战有很多,例如如何提高LLMs的质量和可解释性,如何处理LLMs的不稳定性和不一致性,如何保护LLMs的安全和隐私等。

在接下来的五年中,Ferruz预计大型智能代理将会出现,无缝集成到机器人平台中。这些代理将有能力半自主地设计序列、分析序列并不断完善其设计,同时根据反馈提高其能力。这有望显着缩短工程周期并创建高效的设计。Ferruz对AI在蛋白质设计中的发展感到兴奋,他认为AI可以为蛋白质设计提供一个强大的工具,可以实现对蛋白质的快速、精确和创新的设计。他也对AI在蛋白质设计中的未来感到期待,他们希望AI能够与人类的专业知识和创造力相结合,从而实现对蛋白质的更高层次的理解和控制。

多模态学习与图

Marinka Zitnik是美国哈佛大学的计算机科学教授,她在2023年发表了一篇关于多模态学习与图(multimodal learning with graphs)的文章。她介绍了多模态学习与图的概念和方法,以及它们在生物医学领域的应用和价值,同时也展望了一些未来的研究方向和挑战。

多模态学习与图是一种结合了多模态学习和图神经网络的AI技术,它能够同时处理不同类型和来源的数据,例如文本、图像、声音、视频、结构等,从而实现跨模态的学习和推理。多模态学习与图的核心是一种叫做多模态图(multimodal graph)的数据结构,它能够将不同模态的数据表示为节点,将不同模态之间的关系表示为边,从而构建一个复杂的网络。多模态学习与图的应用是一种叫做多模态图神经网络(multimodal graph neural network)的模型,它能够利用图神经网络的能力,从多模态图中提取出有用的特征和信息,从而实现多模态的任务和目标。

多模态学习与图在生物医学领域有着广阔的应用和价值,例如可以帮助科学家发现和理解生命的复杂性和多样性,例如基因、细胞、器官、疾病、药物等。多模态学习与图可以从多种数据源中整合和挖掘生物医学的知识,例如文献、数据库、实验、临床等。多模态学习与图可以实现对生物医学的多模态的分析和预测,例如诊断、治疗、预防、评估等。多模态学习与图可以为生物医学的创新和发展提供一个强有力的工具,例如设计新的分子、发现新的靶点、优化新的方案等。

Zitnik对AI在生物医学领域的发展感到欣喜,她认为AI可以为生物医学的研究和实践提供一个新的视角和方法,可以实现对生命的更深入和更全面的理解和改善。到 2024 年,她预计人工智能代理将会激增。这些将是对话式的、可定制的,并且基于法学硕士、特定领域的工具和人工输入,有时是组合。这些基于代理的框架将参与复杂的任务解决对话,包括可能涉及人类的聊天,并支持不同的对话模式。这样的框架可以构成体现智能的基础,最终可能会导致人工智能独立学习和获取知识的自动驾驶实验室。她也对AI在生物医学领域的未来感到期待,她希望AI能够与生物医学的专家和实践者进行更紧密和更有效的合作和交流,从而实现对生物医学的更高质量和更高效率的贡献。

AI的可解释性和可审计性

Emmie Hine是英国剑桥大学的计算机科学博士生,她在2023年发表了一篇关于AI的可解释性和可审计性的文章。她分析了AI的可解释性和可审计性的定义和重要性,以及它们在不同的场景和领域中的应用和需求,同时也指出了一些实现和提高AI的可解释性和可审计性的方法和挑战。

AI的可解释性是指AI模型能够向人类提供其内部逻辑和工作原理的能力,即让人类能够理解AI是如何做出决策和预测的。AI的可审计性是指AI模型能够向人类提供其行为和结果的证据和依据的能力,即让人类能够验证AI是如何遵守规则和标准的。AI的可解释性和可审计性是AI的重要属性,它们可以增加AI的可信度和可靠性,可以促进AI的合作和交流,可以保护AI的安全和隐私,可以监管和评估AI的质量和影响。

AI的可解释性和可审计性在不同的场景和领域中有着不同的应用和需求,例如在医疗、金融、法律、教育等领域,AI的可解释性和可审计性是必不可少的,因为这些领域涉及到人类的生命、财产、权利等重要的利益,需要AI能够提供清晰和合理的解释和证明,以便人类能够接受和信任AI的建议和服务。而在娱乐、游戏、艺术等领域,AI的可解释性和可审计性则不是那么重要,因为这些领域更注重AI的创造性和趣味性,不需要AI能够提供详细和严谨的解释和证明,只要AI能够提供有趣和有用的内容和体验就可以了。

为了实现和提高AI的可解释性和可审计性,Hine提出了一些方法和挑战。一些方法是基于AI模型本身的,例如使用简单和透明的模型,例如决策树、贝叶斯网络等,或者使用一些可解释性和可审计性的技术,例如注意力机制、对抗性示例、对比性学习等。一些方法是基于AI模型之外的,例如使用一些可视化和交互的工具,例如图表、仪表盘、对话系统等,或者使用一些社会和法律的机制,例如规范、标准、监督、责任等。一些挑战是技术上的,例如如何平衡AI的性能和可解释性,如何处理AI的复杂性和不确定性,如何适应AI的动态性和多样性等。一些挑战是人类上的,例如如何定义和评估AI的可解释性和可审计性,如何考虑人类的认知和情感,如何培养人类的信任和理解等。

“在全球层面,我们应该专注于加强现有的监管机构并完善其职权范围,而不是将时间和精力浪费在中心化的人工智能机构上。这不是一个为期一年的项目,但 2024 年将是为良好的(希望是全球性的)人工智能治理奠定基础的关键一年。”Hine对AI的可解释性和可审计性的发展感到乐观,她认为AI的可解释性和可审计性是AI的基础和保障,可以让AI更加透明和负责,可以让人类更加信任和尊重AI,可以让AI和人类更加和谐和协作。她也对AI的可解释性和可审计性的未来感到期待,她希望AI的可解释性和可审计性能够与AI的其他属性和目标相协调和相支持,从而实现对AI的更高水平和更广范围的可解释性和可审计性。

AI在医疗保健中的可持续性问题

Yiyu Shi是美国圣母大学的计算机科学和工程教授,他在2023年发表了一篇关于AI在医疗保健中的可持续性问题的文章。他分析了AI在医疗保健中的应用和挑战,以及如何通过算法和系统的创新来解决这些问题,同时也分享了一些反馈和展望。

AI在医疗保健中的应用是广泛的,从诊断和治疗到预防和管理。AI可以帮助医生和患者提高效率和准确性,降低成本和风险,改善健康和生活质量。然而,AI在医疗保健中的应用也面临着可持续性问题,即如何在有限的资源和条件下,保证AI的性能和质量,以及如何在不损害人类的价值和利益的前提下,保证AI的道德和公平。

AI在医疗保健中的可持续性问题随着AI的发展和部署而日益突出。特别是在移动和植入式医疗设备上,AI的可持续性问题更加严峻。这些设备通常由电池供电,内存容量和计算能力非常有限,而且需要在实时和连续的情况下运行。这些设备上的AI需要能够在低功耗和低延迟的情况下,提供高精度和高可靠性的输出和行为。这对AI的设计和开发提出了很高的要求和挑战。

为了解决AI在医疗保健中的可持续性问题,Shi提出了一些当前和未来的算法和系统的创新。一些创新是基于AI模型的优化和改进的,例如使用更轻量和更高效的模型,例如神经网络剪枝、量化和压缩,或者使用更智能和更自适应的模型,例如联邦学习、增量学习和元学习等。一些创新是基于AI系统的协同和协调的,例如使用更多的硬件和软件的协处理器,例如FPGA、GPU、ASIC等,或者使用更多的网络和云的服务,例如边缘计算、雾计算、云计算等。

他希望在2024年和未来五年,人工智能能够改变医疗保健行业,实现低成本、自动化和精准的干预。他预测存在三种可能的发展路径:首先设备上的人工智能将能够在植入式和移动医疗设备以及手术设备中容纳更强大的机器学习模型。其次生成式人工智能将能够充当医疗保健提供者的副驾驶和患者的个人健康顾问,以缓解可持续性问题。第三,机器学习的进步将通过人工智能助教以及增强和虚拟现实技术来改变未来医疗保健领域熟练劳动力的培训。Shi对AI在医疗保健中的可持续性问题的发展感到满意,他认为AI在医疗保健中的可持续性问题是AI的机遇和挑战,可以让AI更加适应和应对不同的资源和条件,也可以让AI更加符合和促进人类的价值和利益。他也对AI在医疗保健中的可持续性问题的未来感到期待,他希望AI在医疗保健中的可持续性问题能够与AI的其他能力和目标相协调和相支持,从而实现对AI在医疗保健中的可持续性问题的更高水平和更广范围的解决。

AI的多样性和包容性

Sebastian Porsdam Mann是丹麦哥本哈根大学的法学教授,他在2023年发表了一篇关于AI的多样性和包容性的文章。Sebastian Porsdam Mann讨论了与使用生成人工智能相关的各种道德问题,强调了其产出的道德责任的不对称性。尽管使用生成式人工智能的个人可能要对负面影响承担同样的责任,但他们不太可能因积极成果而获得荣誉,除非他们表现出出色的技能和努力。他们探讨了AI的多样性和包容性的含义和重要性,以及它们在不同的领域和层面中的实现和促进,同时也指出了一些影响和阻碍AI的多样性和包容性的因素和问题。

AI的多样性是指AI的设计和开发中涉及到的人员、数据、方法、目标等的多元化,即让AI能够反映和尊重不同的身份、背景、观点、需求等。AI的包容性是指AI的使用和应用中涉及到的人员、数据、方法、目标等的平等化,即让AI能够服务和利益所有的人群和社区,而不是只有少数的人群和社区。AI的多样性和包容性是AI的重要价值和目标,它们可以增加AI的公平性和正义性,可以促进AI的创新和发展,可以保护AI的安全和可持续性,可以监管和评估AI的质量和影响。

AI的多样性和包容性在不同的领域和层面中有着不同的实现和促进,例如在教育、医疗、金融、法律、媒体等领域,AI的多样性和包容性是必要的,因为这些领域涉及到人类的基本权利和福利,需要AI能够适应和满足不同的人群和社区的需求和期望,而不是忽视或歧视某些人群和社区。而在技术、政策、社会、文化等层面,AI的多样性和包容性是可能的,因为这些层面提供了一些机会和条件,可以让AI的设计和开发中的人员、数据、方法、目标等更加多元和平等,而不是单一和不平等。

Porsdam Mann对AI的多样性和包容性的发展感到乐观,他认为AI的多样性和包容性是AI的优势和机遇,可以让AI更加人性化和社会化,可以让AI更加适应和贴近不同的人群和社区,可以让AI更加受到不同的人群和社区的欢迎和支持。他们也对AI的多样性和包容性的未来感到期待,他们希望AI的多样性和包容性能够与AI的其他价值和目标相协调和相支持,从而实现对AI的更高水平和更广范围的多样性和包容性。

AI的可靠性和鲁棒性

Payel Das和Francesco Stella是美国IBM的研究员,Payel Das强调了将“数据工作”作为人工智能研究的主流和不可或缺的组成部分进行实践缺乏激励和认可。我们通过提供示例并分享我们自己作为人工智能研究人员的经验,讨论了当前过度强调建模和算法工作的文化和务实因素。我们提出了改变现状的建议,将数据工作重新定义为技术上严格的,并将其整合到模型创新中。Francesco Stella证明了 GPT-4 等法学硕士可以在概念和技术层面上指导机器人设计过程,并提出了人机协同设计策略。然后,我们讨论了社会影响,强调跨学科研究的机会,同时提请人们注意有关社区偏见、知识产权和认知任务自动化的担忧。

AI的可靠性是指AI模型能够在给定的条件和约束下,按照预期的方式和目标,持续地提供正确和一致的输出和行为的能力,即让AI能够保证其性能和质量。AI的鲁棒性是指AI模型能够在面对不同的干扰和攻击下,保持其可靠性和有效性,不受其影响和损害的能力,即让AI能够抵抗其威胁和风险。AI的可靠性和鲁棒性是AI的重要特征和指标,它们可以增加AI的信任度和可信度,可以促进AI的合作和交互,可以保护AI的安全和稳定,可以监管和评估AI的责任和义务。

AI的可靠性和鲁棒性在不同的场景和任务中有着不同的要求和挑战,例如在关键的、敏感的、复杂的、动态的、不确定的等场景和任务中,AI的可靠性和鲁棒性是至关重要的,因为这些场景和任务涉及到人类的生命、财产、权利等重要的利益,需要AI能够在任何情况下都能够提供正确和一致的输出和行为,而不是出现错误和失效。而在一般的、简单的、静态的、确定的等场景和任务中,AI的可靠性和鲁棒性则不是那么紧迫的,因为这些场景和任务涉及到人类的娱乐、游戏、艺术等不太重要的利益,需要AI能够在大多数情况下都能够提供正确和一致的输出和行为,而不是完美和无误。

为了提高AI的可靠性和鲁棒性,Das和Stella介绍了一些技术和方法。一些技术和方法是基于AI模型的设计和开发的,例如使用更高质量和更多样性的数据,使用更简单和更透明的模型,使用更严格和更全面的测试和验证,使用更灵活和更自适应的学习和更新等。一些技术和方法是基于AI模型的使用和应用的,例如使用更多的反馈和监督,使用更多的解释和可视化,使用更多的冗余和备份,使用更多的协作和协调等。

Das认为到 2024 年及以后,他预计人工智能系统和架构将从高效的学习者演变为专家系统。同时他希望他们表现出良好的习惯,包括事实检查和更新、反思性思维、持续学习以及在不确定性下以稳健和一致的方式采取行动。由于数据将继续推动这些先进人工智能系统的创新,我希望能够更好地认识数据工作,并在人工智能研究和应用的各个层面对数据、建模和性能之间复杂的关系进行更多的研究。

Stella认为基础模型是人工智能领域最近最令人兴奋的发展之一。它们的发展和民主化正在开辟新的研究途径,改变机器人互动和理解周围世界的方式。他预计人工智能在设计的创意和概念方面的作用将继续增强,从而实现更高效和创新的解决方案。同时在未来几年,他希望有关负责任发展的伦理考量和讨论能够转移到人工智能研究的前沿。技术开发需要以面向公众的透明讨论为指导,考虑社会、环境和道德层面的潜在负面后果。

AI的探索和好奇心

Pierre-Yves Oudeyer是法国国家信息与自动化研究所的研究员,他在2023年发表了一篇关于人工智能领域构建类人开放式学习代理的两种关键新兴方法。第一个是自动学习——通过创造和追求自己的目标来学习的能力——最近在发展型人工智能中显示出了有希望的结果。第二个受到早期发展心理学(特别是列夫·维果茨基)的启发:它研究人工智能代理如何内化社交互动,特别是语言,作为获取新认知功能的认知工具。他解释了什么是探索和好奇心,以及它们在AI中的作用和意义,同时也展示了一些基于探索和好奇心的AI的例子和应用,以及一些未来的研究方向和挑战。

探索和好奇心是指对未知的事物和现象的兴趣和追求,以及为了满足这种兴趣和追求而进行的行动和活动。探索和好奇心是人类和动物的基本的心理和行为特征,它们可以促进学习和发现,可以增加知识和经验,可以提高适应性和创造性。探索和好奇心在AI中的作用和意义是显而易见的,例如可以帮助AI模型更好地理解和探索其环境和任务,可以提供AI模型更多的数据和反馈,可以实现AI模型更智能和更自主的学习和行为。

基于探索和好奇心的AI是一种利用探索和好奇心作为驱动力和指导原则的AI,它能够根据自身的状态和目标,自动地选择和执行最有利于其学习和发现的行动和活动。基于探索和好奇心的AI的例子和应用有很多,例如使用强化学习和内在动机来实现自我驱动的学习,例如DeepMind的Agent57,使用生成对抗网络和创造性评估来实现自我生成的内容,例如OpenAI的DALL-E,使用元学习和好奇心正则化来实现自我适应的学习,例如Facebook的Meta-Curiosity等。

Oudeyer对AI的探索和好奇心的发展感到兴奋,他认为AI的探索和好奇心是AI的灵魂和动力,可以让AI更加活跃和有趣,可以让AI更加主动和灵活,可以让AI更加接近和模仿人类和动物的学习和行为。他也对AI的探索和好奇心的未来感到期待,他希望AI的探索和好奇心能够与AI的其他能力和目标相协调和相支持,从而实现对AI的更高水平和更广范围的探索和好奇心。

“我希望广大人工智能领域的人们花更多的精力来构建真实的、积极的、以人为本的应用程序,而不是花在争论有关“超级智能”的科幻想法上。”Oudeyer表示。

参考资料:https://www.nature.com/articles/s42256-023-00784-5

噬元兽(FlerkenS)是一个去中心化的个人AI数字价值容器,同时也是数字经济的新型资产捕捉器和转化器,用数据飞轮为用户提供无边界的数字化、智能化和资产化服务。

噬元兽(FlerkenS)构建AI市场、AI发布器和一个在通用人工智能(AGI)上建设可扩展的系统,AI-DSL让不同类型和领域的AI应用和服务可以相互协作和交互,通过RAG向量数据库(Personal Vector Database)+ Langchain技术方案(Langchain Technology Solution)+大模型的技术实现路径,让用户获得个性化的AI服务,在分布式的网络环境里与AI技术下的服务商实现点到点的连接,建设一个智能体和经济体结合的数智化整体。

波动世界(PoppleWorld)是噬元兽平台的一款AI应用,采用AI技术帮助用户进行情绪管理的工具和传递情绪价值的社交产品,采用Web3分布式技术建设一套采集用户情绪数据并通过TOKEN激励聚合形成情感垂直领域的RAG向量数据库,并以此训练一个专门解决用户情绪管理的大模型,结合Agents技术形成情感类AI智慧体。在产品里植入协助用户之间深度交互提供情绪价值的社交元素,根据用户的更深层化的需求处理准确洞察匹配需求,帮助用户做有信心的购买决定并提供基于意识源头的商品和服务,建立一个指导我们的情绪和反应的价值体系。这是一款针对普通人的基于人类认知和行为模式的情感管理Dapp应用程序。

0 阅读:0

独角也有噬元兽

简介:感谢大家的关注