物理科技生物学-PHYICA

研究探索提高樱井汽车公众对人工智能的信任

科学新闻 2021-11-11 00:03:49

兰卡斯特大学 信用:Pixabay/CC0公共域 公众不需要知道人工智能是如何工作的来信任它

他们只需要知道某个具备必要技能的人正在检查人工智能,并且有权在它造成或可能造成伤害时给予制裁

医生

兰开斯特大学数据科学高级讲师布兰·诺尔斯说:“我确信公众无法确定个人人工智能的可信度……但我们不需要他们这么做。”

保持人工智能的诚实不是他们的责任

" 今日(三月八日)李博士

诺尔斯在美国计算机学会公平、责任和透明会议上发表了一篇研究论文《权威的认可:促进公众对人工智能的信任》

这篇论文是由约翰·T

国际商用机器公司的理查兹

J

纽约约克镇高地沃森研究中心

该论文指出,公众通常不信任人工智能,这既源于多年来对人工智能的描述,也源于人们越来越意识到人工智能几乎没有什么有意义的监督

作者认为,对人工智能系统如何工作的更大透明度和更容易理解的解释,被认为是增加信任的一种手段,并没有解决公众的关切

他们说,“监管生态系统”是人工智能向公众负责并赢得公众信任的唯一途径

“公众通常不关心食品、航空和药品的可信度,因为他们相信有一个系统来监管这些东西,并惩罚任何违反安全协议的行为,”博士说

理查兹

博士补充道

诺尔斯:“与其要求公众获得技能,就哪些人工智能值得他们信任做出明智的决定,不如要求公众获得同样的保证,即他们可能遇到的任何人工智能都不会对他们造成伤害

" 她强调了人工智能文档在实现这一值得信赖的监管生态系统中的关键作用

作为一个例子,本文讨论了国际商用机器公司在人工智能概况介绍方面的工作,这是一种旨在捕捉人工智能开发和测试的关键事实的文档

但是,尽管这种文档可以提供内部审计师和外部监管机构所需的信息,以评估对值得信赖的人工智能的新兴框架的合规性

诺尔斯告诫不要依赖它来直接培养公众信任

“如果我们没有认识到监管人工智能可信度的负担必须由高技能的监管者承担,那么人工智能文档的未来很有可能是另一种条款和条件式的同意机制——没有人真正阅读或理解的东西,”她说

这篇论文呼吁人工智能文档应被正确理解为一种授权专家评估可信度的手段

“人工智能在我们的世界里有影响真实的人的物质后果;我们需要真正的责任感,以确保遍布我们世界的人工智能有助于让这个世界变得更好

诺莱斯

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/kexuexinwen/3913.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~