物理科技生物学-PHYICA

专家认为,伦理黑客团体需要防止人工智能日益逼近的“信任危机”

技术工程 2022-02-21 21:54:10

ethical hackerCredit:Unsplash/CC0 Public Domain人工智能行业应该创建一个全球黑客和“威胁建模者”社区,致力于对新AI产品的潜在危害进行压力测试,以便在为时已晚之前赢得政府和公众的信任。这是一个国际风险和机器学习专家团队提出的建议之一,该团队由剑桥大学存在风险研究中心(CSER)的研究人员领导,他们撰写了一份新的“行动呼吁”,今天发表在《科学》杂志上。

他们表示,构建智能技术的公司应该利用“红队”黑客攻击、审计追踪和“偏见奖励”(为揭露道德缺陷支付报酬)等技术,在向更广泛的公众发布人工智能之前证明自己的完整性。

否则,随着公众对从无人驾驶汽车和自动驾驶无人机到传播错误信息和引发政治动荡的秘密社交媒体算法等各种事物的关注不断增加,该行业在日益支撑我们社会的系统中面临“信任危机”。

据第一作者、CSER的沙哈尔·艾文博士说,人工智能系统的新颖性和“黑箱”性质,以及在市场竞争中的激烈竞争,阻碍了审计或第三方分析的发展和采用。

专家们认为,提高可信度的激励措施不应仅限于监管,还必须来自一个尚未完全理解公众信任对其自身未来至关重要的行业内部——信任正在瓦解。

新的出版物提出了一系列“具体”措施,他们说人工智能开发人员应该采取这些措施。

“创建赢得公众信任的人工智能所需的流程存在重大差距。这些差距中的一些导致了有问题的行为,这种行为现在玷污了整个领域,”阿维恩说。

“我们开始看到公众对技术的强烈反对。这种“技术冲击”可以包罗万象:要么所有人工智能都是好的,要么所有人工智能都是坏的。

“政府和公众需要能够容易地区分值得信任的人、卖蛇油的人和一无所知的人,”艾文说。“一旦你能做到这一点,就有真正的动力值得信赖。但尽管你无法区分它们,但偷工减料的压力很大。”

合著者、CSER研究员海顿·贝尔菲尔德说:“大多数人工智能开发人员都想负责任、安全地工作,但目前还不清楚他们能采取什么具体措施。我们的报告填补了其中一些空白。”

人工智能“红色团队”的想法——有时被称为白帽黑客——来自网络安全。

“红队是扮演恶意外部代理人角色的道德黑客,”阿维恩说。“他们将被召集来攻击任何新的人工智能,或者制定如何将其用于恶意目的的策略,以揭示任何弱点或潜在的危害。”

虽然一些大公司有内部能力“红队”——这也伴随着它自己的道德冲突——但该报告呼吁建立一个第三方社区,一个能够独立询问新人工智能并分享任何发现以造福所有开发者的社区。

一个全球资源还可以为小型初创公司和研究实验室提供高质量的红色团队,开发可能变得无处不在的人工智能。

这份新报告是对去年由59名专家组成的小组发布的更详细建议的简明更新,它还强调了偏见和安全“奖励”的潜力,以提高人工智能的开放性和公众信任。

这意味着从经济上奖励任何发现人工智能缺陷的研究人员,这些缺陷有可能损害公众信任或安全——例如用于医疗或招聘目的的算法中的种族或社会经济偏见。

今年早些时候,推特开始向那些能够识别图像裁剪算法偏差的人提供奖励。

研究人员说,公司将从这些发现中受益,并在它们被公开披露之前有时间解决它们。阿维恩指出,目前,这种“推动和刺激”大多是由学者和调查记者在有限的、临时的基础上完成的。

该报告还呼吁由可信的外部机构进行审计——并呼吁就如何记录人工智能制定开放标准,以使这种审计成为可能——以及致力于共享“事件”的平台:可能对人类造成伤害的不受欢迎的人工智能行为的案例。

研究人员表示,这些因素,加上外部审计失败的有意义的后果,将极大地促进“信任生态系统”。

贝尔菲尔德说:“有些人可能会质疑我们的建议是否与商业利益相冲突,但其他对安全至关重要的行业,如汽车或制药行业,可以完美地管理它。

“生活和生计越来越依赖于不接受审查的人工智能,这是信任危机的一个处方。是时候让这个行业超越善意的道德原则,实施现实世界的机制来解决这个问题了,”他说。

艾文补充道:“我们感谢合作者,他们强调了一系列旨在应对这些挑战的举措,但我们需要政策和公众支持来为人工智能创造一个信任的生态系统。”

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/10786.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~