物理科技生物学-PHYICA

人类已经准备好利用仁慈EMAZ-374的人工智能

技术工程 2021-11-30 21:55:51

Humans are ready to take advantage of benevolent AI自动驾驶巴士,位于莱茵州的蒙海姆。信用:IMAGO / Jochen Tack人类期望AI是仁慈的,值得信赖的。一项新的研究表明,与此同时,人类不愿意与机器合作和妥协。他们甚至剥削他们。想象一下,在不久的将来,当你在一条狭窄的道路上行驶时,突然另一辆车从前方的弯道中出现。这是一辆无人驾驶汽车。你会坚持自己的路权,还是让它过去?目前,我们大多数人在涉及其他人的情况下表现得很友好。我们会对自动驾驶汽车表现出同样的善意吗?

LMU慕尼黑大学和伦敦大学的一个国际研究小组利用行为博弈论的方法进行了大规模的在线研究,以了解人们与人工智能系统的合作行为是否会像与人类同胞的合作行为一样。

合作将一个社会维系在一起。它经常要求我们与他人妥协,接受他们让我们失望的风险。交通就是一个很好的例子。当我们让别人从我们面前经过时,我们会损失一点时间,当别人没有回报我们的好意时,我们会感到愤怒。我们会对机器做同样的事情吗?

发表在《科学》杂志上的这项研究发现,人们在第一次相遇时,对人工智能的信任程度与人类相同:大多数人都希望遇到愿意合作的人。不同之处在于之后。人们更不愿意回报人工智能,而是利用它的仁慈为自己谋利。回到交通的例子,一个人类司机会让位于另一个人类,但不会让位于自动驾驶汽车。这项研究将这种不愿与机器妥协的态度视为对人工智能交互未来的新挑战。

“我们把人们放在第一次与人工智能交互的人的位置上,因为这可能发生在路上,”行为游戏理论家、LMU慕尼黑哲学家、该研究的第一作者尤吉斯·卡普斯博士解释道。“我们模拟了不同类型的社交聚会,并找到了一个一致的模式。人们期望人工智能能像人类一样合作。然而,他们并没有像人类一样回报他们的善心,更多地利用人工智能。”

从博弈论、认知科学和哲学的角度来看,研究人员发现“算法利用”是一种强有力的现象。他们在将近2000名人类参与者的九个实验中重复了他们的发现。每个实验检查不同种类的社会互动,并允许人类决定是否妥协和库珀吃或自私的行为。其他玩家的期望也被测量。在一个著名的游戏《囚徒困境》中,人们必须相信其他角色不会让他们失望。他们与人类和人工智能一样接受风险,但更经常地背叛人工智能的信任,以获得更多的钱。

“合作是靠相互打赌来维持的:我相信你会对我好,你也相信我会对你好。我们这个领域最大的担心就是人们不会相信机器。但我们证明他们有!”LMU大学的社会神经科学家巴哈多·巴赫拉米博士是这项研究的高级研究员之一。“不过,他们可以让机器停机,这就是最大的区别。他补充说:“人们即使报了罪,也不会报多少罪。

偏见和不道德的人工智能已经成为许多头条新闻——从2020年英国考试的惨败到司法系统——但这项新研究提出了一个不可忽视的警告。该行业和立法者努力确保人工智能是仁慈的。但是仁慈可能会适得其反。如果人们认为人工智能被编程为对他们仁慈,他们就不会那么愿意合作。一些涉及自动驾驶汽车的事故可能已经展示了现实生活中的例子:司机在路上认出一辆自动驾驶汽车,并期望它让路。与此同时,自动驾驶汽车期待驾驶员之间达成正常的妥协。"

算法利用会带来进一步的后果。“如果人类不愿意让一辆有礼貌的自动驾驶汽车从辅道上加入,那么自动驾驶汽车应该不那么有礼貌,更有攻击性,这样才能有用吗?”尤吉斯·卡普斯问道。

“仁慈和值得信赖的AI是每个人都为之兴奋的流行语。但是修复人工智能并不是全部。如果我们意识到我们面前的机器人无论如何都会合作,我们就会利用它来满足自己的私利,”该研究的哲学家和资深作者奥菲利娅·德罗伊教授说,他还与挪威奥斯陆和平研究所合作,研究将自主机器人士兵与人类士兵融合在一起的伦理含义。

“妥协是让社会运转的油。对我们每个人来说,这看起来只是一个小小的利己行为。对于整个社会来说,这可能会产生更大的影响。如果没有人让自动驾驶汽车加入交通,它们会在路边制造自己的交通堵塞,而不会让交通变得更容易”。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/4921.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~