墨尔本大学泰朱·哈里·克里希纳 信用:Pixabay/CC0公共域 根据一项新的研究,限制女性招聘机会的人类性别偏见被用于简历分类的人工智能所模仿和加剧
这项由联合银行委托进行的研究分析了一个由40名招聘人员组成的小组在男女性别互换的情况下提交完全相同的简历时的反应
然后将这个过程应用到不同的招聘算法中,看看人工智能是否复制了人类的偏见
研究发现,人力资源招聘小组展示了无意偏见的最强例子,他们总是更喜欢男性候选人的简历,而不是女性候选人的简历
该报告的合著者、来自该大学政策实验室的性别政策研究员、副教授利亚·鲁普潘纳说,我们知道在流感大流行期间,失业的女性比男性多
“不幸的是,对于数据和财务方面的角色,女性的简历在我们的人类小组成员中排名比男性低,尽管她们拥有相同的资格和经验,”鲁普潘纳教授说
人工智能和数字伦理中心的报告合著者和数字伦理研究员
马克·昌说,研究人员随后开发了算法来复制人类小组的偏好
学分:墨尔本大学 研究表明,即使是基本的算法也可以模仿潜意识中的人类性别偏见,而不考虑候选人的优点
“即使候选人的名字被删除,大赦国际也根据历史上倾向于男性候选人的招聘模式来评估简历
例如,给予有多年连续工作经验的候选人优势会自动使那些因为照顾他人而请假的女性处于劣势
张说
「此外,如果更先进的认可机构是在一个没有透明度或人为监管的『黑箱』内运作,任何最初的偏见都有被放大的危险。」
" 联合银行总经理迈克·兰丁说,随着人工智能的使用变得越来越普遍,理解现有的偏见是如何影响本应公正的模型是很重要的
学分:墨尔本大学 “我们需要注意,我们不能通过强化对女性适合何种工作的过时态度,来逆转几十年来在女性经济独立和安全方面取得的进展,”兰丁表示
该报告提出了一些措施,可以减少这些过程中的偏见,包括人力资源专业人员的培训计划和旨在减少性别偏见的透明招聘算法
来源:由phyica.com整理转载自PH,转载请保留出处和链接!