物理科技生物学-PHYICA

机器学习如何做到赤坂喜代公平和准确

技术工程 2022-01-27 21:55:19

Machine learning can be fair and accurate在旨在用于社会决策的机器学习系统中实现准确性和公平性是可能的,但是设计这些系统需要冒险走简单而明显的道路。信用:卡耐基梅隆大学的研究人员正在挑战一个长期以来的假设,即在使用机器学习做出公共政策决策时,准确性和公平性之间存在权衡。随着机器学习在刑事司法、招聘、医疗保健和社会服务干预等领域的使用增加,人们越来越担心这种应用是否会引入新的或扩大现有的不平等,特别是在少数种族和经济弱势群体中。为了防止这种偏差,对机器学习系统的数据、标签、模型训练、评分系统和其他方面进行了调整。潜在的理论假设是,这些调整会降低系统的准确性。

一个CMU研究小组的目标是在最近发表在《自然机器智能》杂志上的一项新研究中消除这一假设。计算机科学学院机器学习系和亨氏信息系统和公共政策学院的教授Rayid GhaniML的研究科学家基特·鲁道夫;和SCS博士后研究员Hemank Lamba在现实应用中测试了这一假设,发现在一系列政策领域的实践中,这种权衡可以忽略不计。

“你其实可以两者兼得。你不必牺牲准确性来建立公平公正的系统,”加尼说。“但它确实要求你刻意设计公平公正的制度。现成的系统行不通。”

加尼和鲁道夫专注于需求资源有限的情况,机器学习系统被用来帮助分配这些资源。研究人员研究了四个领域的系统:根据一个人重返监狱的风险,优先考虑有限的精神健康护理外展,以减少再次监禁;预测严重的安全违规行为,以更好地部署一个城市的有限住房检查员;模拟学生不能及时高中毕业的风险,以确定最需要额外支持的学生;并帮助教师达到众筹目标,满足课堂需求。

在每种情况下,研究人员都发现,针对准确性优化的模型——机器学习的标准实践——可以有效预测感兴趣的结果,但在干预建议方面表现出相当大的差异。然而,当研究人员对旨在提高公平性的模型输出进行调整时,他们发现基于种族、年龄或收入的差异——取决于具体情况——可以在不损失准确性的情况下消除。

加尼和鲁道夫希望这项研究将开始改变研究人员和决策者的想法,因为他们正在考虑在决策中使用机器学习。

鲁道夫说:“我们希望人工智能、计算机科学和机器学习领域停止接受这种在准确性和公平性之间进行权衡的假设,并开始设计最大限度地兼顾两者的系统。“我们希望政策制定者将机器学习作为他们决策的工具,以帮助他们实现公平的结果。”

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/8989.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~