物理科技生物学-PHYICA

审计高风险人工智能的有意义的标准

技术工程 2022-04-12 21:55:16

AI Credit: Pixabay/CC0公共领域很多机构在招聘的时候,会使用人工智能工具扫描简历,预测与工作相关的技能。高校使用人工智能自动给论文评分,处理成绩单和审查课外活动,以预先确定谁可能是“好学生”有这么多独特的用例,重要的是要问:人工智能工具能成为真正公正的决策者吗?为了应对招聘、大学招生、预测性警务、健康干预等工具中存在的不公平和偏见,明尼苏达大学最近为人工智能工具开发了一套新的审计指南。发表在《美国心理学家》上的审计指南是由明尼苏达大学心理学副教授理查德·兰德斯和普渡大学的塔拉·贝伦德开发的。他们应用心理学和教育研究人员长达一个世纪的研究和专业标准来衡量个人特征,以确保人工智能的公平性。

研究人员为人工智能审计制定了指导方针,首先通过三个主要焦点来考虑公平和偏见的想法:

个人如何决定一个决定是否公平和公正社会、法律、伦理和道德标准如何呈现公平和偏见显示个人技术领域——如计算机科学、统计学和心理学——从内部定义公平和偏见使用这些镜头,研究人员提出了心理审计作为评估人工智能系统的公平和偏见的标准化方法,这些系统在高风险应用领域对人类进行预测,如招聘和大学招生。

审计框架有12个组件,分为三个类别,包括:

与人工智能的创建、处理和预测相关的组件与人工智能如何使用、其决策影响谁以及为什么相关的组件与总体挑战相关:使用人工智能的文化背景、对受其影响的人的尊重以及人工智能供应商用来支持其主张的研究的科学完整性“人工智能的使用,尤其是在招聘中,是一项数十年的老实践,但人工智能复杂性的最新进展给人工智能开发者带来了一点‘狂野西部’的感觉,”兰德斯说。“现在有大量的初创公司不熟悉使用算法雇人的现有道德和法律标准,他们有时会因为对既定做法的无知而伤害人们。我们开发了这个框架,以帮助通知这些公司和相关监管机构。”

研究人员建议,他们开发的标准既要由内部审计师在高风险预测人工智能技术开发期间遵守,也要由独立的外部审计师在开发之后遵守。任何声称对如何对待人们提出有意义的建议的系统都应该在这个框架内进行评估。

“工业心理学家在高风险评估的评价方面有独特的专业知识,”Behrend说。“我们的目标是让基于人工智能的评估的开发者和用户了解现有的公平和有效性要求,并指导未来保护工人和申请人的政策的制定。”

人工智能模型发展如此之快,以至于很难找到最合适的方法来审计特定类型的人工智能系统。研究人员希望为特定的用例开发更精确的标准,与全球其他有兴趣在这些情况下将审计作为默认方法的组织合作,并在更广泛的范围内为人工智能创造更美好的未来。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/14419.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~