模仿人类说话声和语调?当AI越来越像真人,或许本质是个聊天工具

艺术设计留学课程 2024-03-30 02:47:35

ELIZA效应

The ELIZA Effect

如今,像OpenAI的ChatGPT、微软的必应聊天(Bing Chat)或谷歌的巴德(Bard)这样的对话式人工智能的使用越加广泛,使用过程也十分有趣,部分原因是它们越发像人类——以这种方式与AI聊天,感觉就像在与一个真实的人交谈。

有些人甚至认为,他们对某些聊天机器人产生了依恋感,还有一些人非常相信人工智能的能力以至于他们开始对自己的感知能力有了担忧。

然而对于科技公司来说,他们显然不认为让机器人看起来像人类有什么问题:Meta刚刚宣布了一套完整的人工智能,用户可以与之互动并从中学习。但仅仅因为聊天机器人有人类的感觉,并不意味着它们就是好的人工智能产品。

不要将我们固有的将人类特征归因于人工智能(AI)模型的能力与真正的技术突破混淆。一个名为ELIZA的模拟虚拟心理治疗师为当前的人工智能热潮提供了宝贵的经验。

01

一个具有欺骗性的聊天机器人

ELIZA是由麻省理工学院(mit)教授约瑟夫·魏岑鲍姆(Joseph Weizenbaum)在20世纪60年代开发的。

ELIZA会扮演一个基于文本的治疗师的角色。它会问:你有什么烦心事吗?然后,它会在用户的回答中识别一个关键字(我感到悲伤),并在诸如“你感到悲伤重要吗?”或者你为什么感到悲伤?当ELIZA无法在其简单的词汇表中识别关键字时,它会用一个通用短语来回应:请继续,或者你认为这是什么联系?

通过沟通其作为心理治疗师的角色,ELIZA设置了会话上下文和用户的期望。这种对话环境与简单的编程逻辑相结合,使用户将ELIZA视为人类。他们向虚拟心理治疗师透露了很多秘密。事实上,约瑟夫·维岑鲍姆的秘书非常喜欢这个项目,甚至要求与ELIZA进行私人谈话。ELIZA似乎能倾听人们的心声,并理解他们的问题。

但是ELIZA什么也不懂。事实上,ELIZA不如人类,甚至不如鹦鹉。基于类似人类对话的上下文,用户倾向于将自己的语言和感受归因于程序。ELIZA只是在用户面前举着一面镜子,把他们的想法和感受反射给他们。

用户着迷于看到自己的某些方面反映在他们身上。事实上,他们甚至可以在一个程序中找到实用程序,该程序只是返回他们的意见和感受,重新措辞和重构。

02

ELIZA效应对人工智能的影响

一个系统是否会让人误以为它是真人,只是触及了人工智能的表面。

为了制造有影响力的、易于使用的产品,仅仅创造出假装人性化的程序是不够的。设计师、工程师和用户体验研究人员需要知道为什么用户会有这样的行为,为什么他们会在产品中找到乐趣,为什么他们会有特定的体验。

坊间报道称,人工智能的对话性质可能会使人们难以从聊天机器人那里获得可操作的有用信息;人类的外表可能会阻止用户学习如何最好地从产品中获得效用。我们需要做更多的研究来验证这一假设,并了解对话界面在多大程度上影响了用户从产品中获得效用的能力。

03

UX研究对AI开发至关重要

几十年来,用户体验专业人士一直在做的事情就是改进界面,使其变得令人愉快和易于使用。

用户体验领域建立的许多基本用户体验概念和研究方法直接适用于人工智能开发,比如舒适和宽大可以大大提高产品的用户体验。

然而,在进行人工智能产品的研究时,用户体验专业人员必须建立明确的产品目标。比如,是为了鼓励情感联系或理解的感觉,还是提高知识工作者的生产力?用户体验研究人员有能力客观地评估不同人工智能界面方法的优缺点,并且可以通过专注于用户体验来做到这一点。

Ref:https://www.nngroup.com/articles/eliza-effect-ai/

本文由WELLDESIGN独家编辑,未经授权请勿转载。

0 阅读:0

艺术设计留学课程

简介:感谢大家的关注