物理科技生物学-PHYICA

探索更广泛的影响需求对人工智能治理的影JUSD-505响

技术工程 2021-10-16 21:54:35

Exploring the impact of broader impact requirements for AI governance Credit: Prunkl等随着机器学习算法和其他人工智能(AI)工具越来越普及,一些政府和机构已经开始引入旨在确保其设计和实施符合伦理的法规。例如,去年,神经信息处理系统(NeurIPS)会议对所有提交人工智能相关研究的作者提出了一项新的伦理相关要求。牛津大学人工智能伦理研究所、计算机科学系和人类未来研究所的研究人员最近发表了一篇观点论文,讨论了神经网络会议提出的要求的可能影响和含义。这篇发表在《自然机器智能》上的论文还推荐了一系列措施,这些措施可能会最大限度地提高这些要求的成功几率。

开展这项研究的研究人员之一Carina E. Prunkl告诉TechXplore,“去年,NeurIPS引入了一项要求,要求提交论文的作者在论文中包含更广泛的影响陈述。“很多人——包括我们在内——都大吃一惊。作为回应,我们决定就这一主题写两篇文章:一篇是关于研究人员如何开始思考其研究的更广泛影响并撰写更广泛影响声明的指南,另一篇是这篇观点文章,它实际上是关于提取这种更广泛影响要求的一些潜在影响。”

预测和总结给定研究的可能影响是一项高度复杂和具有挑战性的任务。如果给定的技术工具或技术可以在广泛的环境中有各种各样的应用,这可能会更具挑战性。

在他们的论文中,普鲁恩克和她的同事基于研究结果,这些研究检查了不同的治理机制,以描述神经突起引入的需求可能带来的好处、风险和挑战。此外,他们提出了一系列可以缓解潜在挑战的战略,将这些战略分为四个关键类别:透明度、指导、激励和审议。

“我们的总体目标是通过提高对一些潜在陷阱的认识,为正在进行的关于社区主导的治理机制的讨论做出贡献,并为改进这一过程提供建设性的建议,”Prunkl说。“我们从研究其他治理举措的效果开始讨论,比如机构审查委员会,这些举措性质相似,也涉及研究人员撰写关于其研究影响的声明。”

Prunkl和她的同事考虑了以前的人工智能治理计划,这些计划要求研究人员准备关于其工作影响的声明,并强调了关于这些声明的一些经验教训。然后,他们讨论了神经科医生的更广泛影响的潜在利益和风险。最后,他们为会议组织者和整个ML社区准备了一份建议列表,这可能有助于他们提高此类声明对AI发展产生积极影响的可能性。

“我们列出的一些好处是改善了对人工智能潜在有害影响的预测和缓解,以及改善了研究团体和政策制定者之间的沟通,”普伦克尔说。“如果不谨慎实施,存在陈述质量低下、道德被视为一种例行公事,甚至道德被轻视的风险,因为这表明事实上有可能以这种方式充分预测影响。”

为了评估和预测给定技术的更广泛影响,研究人员最好具有伦理学或社会学等学科的背景,并对理论框架和以前的经验结果有丰富的知识。在他们的论文中,Prunkl和她的同事概述了过去治理计划失败或负面影响的一系列可能的根本原因。这些原因包括在试图确定特定研究或技术工具的更广泛影响时遇到的固有困难,以及机构或社会压力和缺乏帮助研究人员撰写声明的一般准则。

“我们的主要建议集中在四个关键主题上:第一,提高透明度和设定预期,包括目的、动机和预期的沟通,以及如何评估这些声明的程序透明度,”普伦克尔说。“第二,提供指导,既包括如何撰写这些陈述的指导,也包括对推荐人如何评价的指导。”

在他们的论文中,普朗克尔和她的同事也强调了制定激励措施的重要性。准备高质量的陈述可能既昂贵又耗时,因此他们认为机构应该引入激励机制,鼓励更多的研究人员投入大量时间和精力来思考他们工作的影响。

“一个解决方案是将对陈述的评估整合到同行评审过程中,”普鲁恩克解释道。"其他选择包括设立指定的奖项,并鼓励作者引用其他影响声明."

普伦克尔和她的同事们强调的第四个主题与公共和社区审议有关。这最后一点超出了b roader影响声明的范围,研究人员认为这应该是任何旨在管理人工智能的干预的基础。他们特别强调需要更多的论坛,让人工智能社区能够讨论旨在解决人工智能风险的潜在措施。

“寻找能有效确保AI安全、负责任开发的治理解决方案,是目前最紧迫的挑战之一,”Prunkl说。“我们的文章强调,需要批判性地思考这种治理机制,并仔细思考可能出现的风险和挑战,这些风险和挑战可能会破坏预期的收益。最后,我们的文章强调了对此类治理机制进行社区审议的必要性。”

Prunkl和她的同事希望,他们准备的建议清单将有助于会议组织者,他们计划引入更广泛的影响要求,以应对与人工智能发展相关的可能挑战。研究人员目前正计划加强他们与ML研究人员的合作,以进一步帮助他们准备研究影响声明。例如,他们计划与研究人员共同设计会议,共同创造资源,帮助团队准备这些陈述,并确定他们工作的更广泛影响。

“围绕影响声明的辩论确实凸显了在应该采用哪些治理机制以及如何实施这些机制方面缺乏共识,”Prunkl说。“在我们的文件中,我们强调需要围绕这种机制继续进行建设性的讨论。针对这一需求,作者之一卡罗琳·艾舍斯特(与索伦·巴罗卡斯、罗西·坎贝尔、黛博拉·拉吉和斯图尔特·拉塞尔一起)组织了一次神经科学研讨会,主题是“引导人工智能研究的更广泛影响”"

在艾舍斯特和她的同事组织的研讨会上,与会者讨论了神经突起的影响声明和伦理审查,以及围绕负责任的研发理念的更广泛的问题。此外,组织者还探讨了ML研究生态系统中的不同方在引导更广泛的影响声明的准备过程中可以发挥的作用。

未来,普朗克尔和她的同事计划创造更多机会,就人工智能治理相关问题进行建设性的审议和讨论。他们希望ML社区和其他参与AI使用的各方将继续合作,建立旨在有效解决ML研究中可能出现的问题的规范和机制。此外,研究人员将进行进一步的研究,旨在分析影响陈述和对这些陈述的一般态度。

“分析会议预印本影响声明的工作已经浮出水面,既令人鼓舞,也令人担忧,”普伦克尔说。“现在,会议论文的最终版本已经公开,我们/GovAI/我们的研究小组已经开始分析这些陈述,以了解研究人员在实践中如何响应这一要求。除此之外,还需要做更多的工作来了解ML研究人员目前对这一要求的态度。ElementAI研究人员的工作发现了NeurIPS作者的混合反应;虽然有些人认为这个过程很有价值,但其他人提到了我们论文中强调的许多挑战,例如,将这一要求描述为“已经超负荷工作的研究人员肩上的又一个负担。”"

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/2129.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~