物理科技生物学-PHYICA

葛西寿美研究人类如何向具体化的虚拟代理发展信任

技术工程 2021-11-04 21:56:54

Examining how humans develop trust towards embodied virtual agents参与者在开始实验之前,先熟悉介绍中的两个代理。信用:莫拉迪内扎德&索洛维。具体化虚拟代理(EVAs),以图形方式表示显示类似人类行为的3D虚拟角色,可以在各种设置中有价值的应用。例如,它们可以用来帮助人们练习语言技能,或者作为老年人和有心理或行为障碍的人的伴侣。德雷克塞尔大学和伍斯特理工学院的研究人员最近进行了一项研究,调查了信任在人类和外星人互动中的重要作用。他们的论文发表在斯普林格的《国际社会机器人杂志》上,可以为更容易被人类接受和接受的进化机器人的发展提供信息。

“我们的实验是在两个虚拟代理的帮助下以两个问答环节的形式进行的(每个环节一个代理),”进行这项研究的研究人员之一雷扎·莫拉迪内扎德告诉TechXplore。

在莫拉迪内扎德和他的导师艾琳·索洛维博士进行的实验中,一组参与者被要求回答两组选择题,并与一名经济增加值合作。研究人员使用了两种评价方法,称为代理人甲和代理人乙,参与者被分配给每组问题一个不同的代理人。

实验中使用的试剂表现不同;一个是合作,另一个是不合作。然而,当一些参与者在回答一组问题时与合作代理互动,在回答另一组问题时与不合作代理互动时,其他参与者在两种情况下被分配一个合作代理,或者在两种情况下被分配一个不合作代理。

“在我们的参与者选择一个答案之前,当他们的光标在每个答案上时,代理人表现出一种特定的面部表情,从点头表示同意的微笑到皱眉和摇头表示同意,”莫拉迪内扎德解释道。“参与者注意到,高度积极的面部表情并不总是正确答案的指标,尤其是在‘不合作’的情况下。”

这项由莫拉迪内扎德和索洛维博士进行的研究的主要目的是为了更好地理解人类对撤离者产生信任的过程。过去的研究表明,用户对计算机系统的信任程度会因他们对其他人的信任程度而异。

“例如,对计算机系统的信任通常在一开始就很高,因为它们被视为一种工具,当一种工具出现时,你会期望它按照预期的方式工作,但对信任人类来说,犹豫更高,因为存在更多的不确定性,”莫拉迪内扎德说。“然而,如果一个计算机系统犯了一个错误,对它的信任会迅速下降,因为它被视为一个缺陷,预计会持续下去。另一方面,就人类而言,如果已经建立了信任,那么几个违规的例子并不会显著损害信任。”

由于撤离者与人类和传统计算机系统具有相似的特征,莫拉迪内扎德和索洛维博士想知道人类是如何对他们产生信任的。为了做到这一点,他们密切观察了参与者对评估的信任是如何随着时间的推移而演变的,从他们参加实验之前到他们完成实验时。

“这是使用三个相同的信任调查完成的,要求参与者对两个代理(即代理A和代理B)进行评级,”莫拉迪内扎德说。“第一项基线调查是在介绍环节之后进行的,参与者看到了界面、代理和面部表情,但没有回答任何问题。第二次是在他们与其中一名特工合作回答了第一组问题之后。”

在第二项调查中,研究人员还要求参与者评价他们对第二个代理的信任,尽管他们还没有与之互动。这使他们能够在与第一个代理交互之前,探索参与者与第一个代理的交互是否影响了对第二个代理的ir信任。

“同样,在第三次信任调查(在第二组之后,与第二个代理合作)中,我们也包括了第一个代理,看看参与者与第二个代理的互动是否改变了他们对第一个代理的看法,”莫拉迪内扎德说我们还在实验结束时对参与者进行了更开放的采访,让他们有机会分享自己对实验的见解。"

Examining how humans develop trust towards embodied virtual agents Moradinezhad(左)正准备在电脑上完成一项任务,而索洛维博士(右)正在调整额头上的fNIRS传感器。传感器数据由fNIRS计算机(在后台)读取并存储,以供进一步分析。信用:莫拉迪内扎德&索洛维。总的来说,研究人员发现,参与者在与合作代理人一起回答的一组问题中表现得更好,并对se代理人表达了更大的信任。他们还观察到,当参与者首先与合作代理人互动,然后与不合作代理人互动时,参与者的信任会发生有趣的变化。

“在‘合作-不合作’的情况下,第一个代理是合作的,这意味着它在80%的时间里帮助了参与者,”莫兰迪内扎德说。“第一次会议结束后,参与者对代理人的可信度进行了调查,他们对第一个代理人的评分相当低,甚至有时与其他参与者对不合作代理人的评分相当。这与其他研究的结果一致,这些研究称,人类对自动化有很高的期望,甚至80%的合作性都可能被认为是不可信的。”

尽管参与者在第一次问答环节中与合作代理人合作后对他们的评价很差,但如果他们在第二次环节中与不合作的代理人合作,他们对这些代理人的看法似乎会发生变化。换句话说,体验表现出合作和不合作行为的代理人似乎会引发对合作代理人更大的赞赏。

“在开放式访谈中,我们发现参与者希望代理人一直帮助他们,当对于一些问题,代理人的帮助导致错误答案时,他们认为他们不能信任代理人,”莫兰迪内扎德解释道然而,在与第二个代理合作并意识到一个代理可能比第一个代理差得多之后,正如一位参与者所说,他们“更喜欢”与第一个代理合作。这表明信任是相对的,教育用户了解这些代理的能力和缺点至关重要。否则,他们可能会完全忽略代理并自己执行任务(我们的一名参与者的表现明显比小组中的其他人差)。"

研究人员观察到的另一个有趣的模式是,当参与者在两次问答中与合作代理互动时,他们对第一个代理的评分明显高于第二个代理。这一发现部分可以用一种被称为“首要偏见”的心理过程来解释。"

“首要偏见是一种认知偏见,倾向于回忆和偏爱一个系列中最早介绍的项目,”莫兰迪内扎德说。“对于我们的观察,另一个可能的解释是,由于参与者在第二组问题上的表现平均较低,他们可能会认为代理在帮助他们方面做得更差。这是一个指标,表明在某些条件下(例如,根据其出现的顺序或手头任务的难度),即使具有完全相同的性能比率,也可以从可信度的角度来看待类似的代理。”

总的来说,这些发现表明人类用户对EVAs的信任是相对的,并且可以基于各种因素而改变。因此,机器人专家不应该假设用户可以准确地估计一个代理的可靠性水平。

“根据我们的发现,我们认为向用户传达代理的局限性是很重要的,以向他们表明他们可以被信任的程度,”莫兰迪内扎德说。“此外,我们的研究证明,通过用户与另一个代理的交互,可以校准用户对一个代理的信任。"

未来,莫兰迪内扎德和索洛维博士收集的发现可以为社交机器人的实践提供信息,并为开发人类用户认为更可靠的虚拟代理铺平道路。研究人员现在正在进行新的研究,探索人类和撤离者之间互动的其他方面。

“我们正在构建机器学习算法,可以预测用户是否会为任何给定的问题选择代理建议的答案,”Morandinezhad说。“理想情况下,我们希望开发一种能够实时预测这种情况的算法。这将是向适应性、情感感知智能代理迈出的第一步,智能代理可以从用户过去的行为中学习,准确预测他们的下一个行为,并根据用户校准他们自己的行为。"

在他们之前的研究中,研究人员表明,参与者的注意力水平可以使用功能性近红外光谱(fNIRS)来测量,这是一种非侵入性的脑机接口(BCI)。其他团队还开发了能够根据fNIRS测量的大脑活动给出反馈的代理。在他们未来的工作中,莫兰迪内扎德和索洛维博士计划进一步研究fNIRS技术增强与虚拟代理交互的潜力。

“将大脑数据整合到当前系统中,不仅可以提供关于用户的额外信息,以提高机器学习模型的准确性,还可以帮助代理检测用户注意力和参与度的变化,并根据这些变化调整其行为,”莫兰迪内扎德说因此,帮助用户进行关键决策的经济增加值能够根据用户的心理状态调整其建议和帮助的程度。例如,当它检测到用户处于正常状态时,它会提出较少的建议,每个建议之间的延迟更长,但是如果它检测到用户感到压力或疲劳,它会增加建议的数量和频率。"

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/3428.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~