物理科技生物学-PHYICA

研究人员发现,公众对人工智能的信任因应用而异

技术工程 2022-03-08 21:54:11

Measuring trust in AI一个示例图表,显示了受访者对人工智能不同应用的四个道德场景中每一个的八个主题的评分。Credit: 2021 Yokoyama等在人工智能(AI)在社会上日益凸显的推动下,东京大学的研究人员调查了公众对AI伦理的态度。他们的发现量化了不同的人口统计学和伦理情景如何影响这些态度。作为这项研究的一部分,该团队开发了一种类似于评级系统的八边形视觉指标,这可能对希望知道公众如何看待他们的工作的人工智能研究人员有用。许多人觉得技术的快速发展经常超过隐含地指导和规范它的社会结构,如法律或伦理。人工智能尤其体现了这一点,因为它在许多人的日常生活中变得如此普遍,似乎是一夜之间。这种扩散,加上与更熟悉的技术相比,人工智能相对复杂,可能会滋生对这一关键技术的恐惧和不信任。谁不信任人工智能,在哪些方面是对人工智能技术的开发者和需求者有用的问题,但这类问题不容易量化。

东京大学的研究人员,由卡弗利宇宙物理和数学研究所的上原广美·横山教授领导,着手量化公众对人工智能伦理问题的态度。该团队通过对调查的分析,特别试图回答两个问题:态度如何根据向被调查者呈现的场景而改变,以及被调查者自身的人口统计如何改变态度。

伦理无法真正量化,因此为了衡量对人工智能伦理的态度,该团队采用了许多人工智能应用程序共有的八个主题,这些主题提出了伦理问题:隐私、问责制、安全和安保、透明度和可解释性、公平和不歧视、人类对技术的控制、职业责任和人类价值观的促进。该小组称之为“八边形测量”,灵感来自哈佛大学研究员杰西卡Fjeld及其团队2020年的一篇论文。

Measuring trust in AI公众迫切关注的各种人工智能场景共有的八个主题。Credit: 202 1横山等人给了调查对象一系列四个场景,根据这八个标准进行判断。每个场景都着眼于人工智能的不同应用。它们是:人工智能生成的艺术、客户服务人工智能、自动武器和犯罪预测。

受访者还向研究人员提供了自己的信息,如年龄、性别、职业和教育水平,以及通过一组附加问题来衡量他们对科学技术的兴趣程度。这些信息对于研究人员了解人们的哪些特征与某些态度相对应是至关重要的。

“先前的研究表明,女性、老年人和那些拥有更多学科知识的人对风险的看法更负面。鉴于人工智能已经变得如此普遍,我本希望在这次调查中看到一些不同的东西,但令人惊讶的是,我们在这里看到了类似的趋势,”横山说。“然而,我们看到的是不同场景是如何被感知的,与其他三种场景相比,人工智能武器的想法受到了更多的质疑。”

该团队希望这一结果能够导致一种通用的尺度来衡量和比较人工智能的伦理问题。这项调查仅限于日本,但该团队已经开始在其他几个国家收集数据。

“有了通用的尺度,研究人员、开发人员和监管机构可以更好地衡量特定人工智能应用或影响的接受程度,并采取相应的行动,”助理教授Tilman Hartwig说。“我在开发场景和调查问卷时发现,人工智能中的许多主题都需要重要的解释,比我们意识到的要多。这表明,在人工智能方面,感知和现实之间存在巨大差距。”

这项研究发表在《国际人机交互杂志》上。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/11942.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~