物理科技生物学-PHYICA

人工智能的未来需要社会学的指相叁かすみ导

科学新闻 2021-10-22 00:04:49

作者:埃米莉·斯托尔,德雷塞尔大学 信用:Unsplash/CC0公共领域 在与其他公司的竞争中,人工智能设计缺乏对人类数据的深刻理解,以及人类数据与公平的关系

两位德雷克塞尔大学的社会学家建议我们更加关注人工智能的社会影响,因为它比以往任何时候都更频繁地出现

“冠状病毒大流行加快了人工智能和自动化的使用,以取代人类工作者,作为将面对面互动相关风险降至最低的努力的一部分,”凯利·乔伊斯博士说

D

,艺术与科学学院教授,德雷克塞尔科学、技术与社会中心创始主任

“我们越来越多地看到算法加剧现有不平等的例子

随着教育、医疗、战争和工作等机构采用这些系统,我们必须纠正这种不平等

" 在索丘斯的一篇新发表的论文中,乔伊斯、苏珊·贝尔

D

文理学院的教授和他的同事们对推动美国人工智能快速发展而不加速开发伦理技术所需的培训和开发实践表示担忧

本文提出了人工智能社会学的研究议程

乔伊斯解释说:“社会学对人类数据和长期不平等之间关系的理解,对于人工智能系统促进平等是必要的。”

我们如何定义AI? 人工智能这个术语有许多不同的用法,早期的解释将这个术语与能够自己学习和行动的软件联系在一起

例如,自动驾驶汽车可以学习和识别路线和障碍物——就像机器人吸尘器可以完成房屋的周边或布局一样,智能助手(Alexa或Google Assistant)可以识别用户的语调和偏好

“人工智能有一个灵活的定义范围,有助于解释它的吸引力,”乔伊斯说

“它的广泛,但未指明的意义使促进者能够对其潜在的积极社会影响提出面向未来的,经验上未经证实的,约定俗成的主张

" 乔伊斯、贝尔和他的同事解释说,近年来,编程社区主要关注开发机器学习作为人工智能的一种形式

“人工智能”一词在研究人员中比“人工智能”更常用,尽管人工智能仍然是公司、研究所和倡议使用的面向公众的术语

乔伊斯解释说:“最大似然法强调训练计算机系统识别、分类和预测现有数据集分析的结果。”

人工智能从业者、计算机科学家、数据科学家和工程师正在训练系统识别、分类和预测现有数据集分析的结果

人类输入现有数据来帮助训练人工智能系统做出自主决策

这里的问题是人工智能从业者通常不理解关于人类的数据几乎总是关于不平等的数据

“人工智能从业者可能不知道关于X (e

g

邮政编码、健康记录、高速公路的位置)也可以是关于Y (e

g

该论文的第一作者乔伊斯说

“例如,他们可能认为邮政编码是一种中性的数据,以平等的方式适用于所有人,而不是理解邮政编码由于种族隔离也经常提供关于种族和阶级的信息

随着最大似然系统的开发和部署,这种缺乏理解导致了不平等的加速和加剧

" “识别弱势群体和生活机会之间的相关性,人工智能系统接受这些相关性作为因果关系,并使用它们来决定未来的干预措施

乔伊斯解释说:“通过这种方式,人工智能系统不会创造新的未来,而是复制存在于特定社会世界的持久不平等。”

AI是否受到系统性种族主义和人类偏见的危害? 有与算法、数据和代码相关的政治

以搜索引擎谷歌为例

虽然谷歌的搜索结果可能看起来是中性或单一的输出,但谷歌的搜索引擎再现了日常生活中的性别歧视和种族主义

贝尔解释说:“搜索结果反映了制定算法和代码的决定,这些反映了谷歌员工的立场。”

“具体地说,他们关于什么是性别歧视或种族主义的决定反映了普遍存在的种族主义和性别歧视的更广泛的社会结构

反过来,关于什么是性别歧视或种族歧视的决定“训练”了一个语言学习系统

尽管谷歌指责用户造成了性别歧视和种族歧视的搜索结果,但根源在于用户的输入

" 贝尔指出,“与谷歌搜索结果的中立性形成鲜明对比的是,社会压迫和不平等被嵌入其中并被放大

" 作者指出的另一个例子是人工智能系统,该系统使用来自患者电子健康记录的数据来预测适当的治疗建议

虽然计算机科学家和工程师在设计人工智能系统时经常考虑隐私,但理解人类数据的多维度通常不是他们训练的一部分

有鉴于此,他们可能会假设EHR的数据代表了关于治疗和结果的客观知识,而不是从社会学的角度来看待它,即认识到EHR的数据是不全面和不准确的

“当使用社会学方法时,”乔伊斯解释道,“你明白病人的结果不是中立或客观的——这些与病人的社会经济地位有关,并且通常告诉我们更多关于阶级差异、种族主义和其他种类的不平等,而不是特定治疗的有效性

" 这篇论文提到了一些例子,比如一个算法建议黑人患者比同样病情的白人患者接受更少的医疗保健,一份报告显示,面部识别软件识别有色人种和女性的可能性更小,表明人工智能可以加剧现有的不平等

贝尔说:“对数据的社会学理解很重要,因为在人工智能社会技术系统中对人类数据的不加批判的使用往往会复制甚至加剧已经存在的社会不平等。”

“虽然生产人工智能系统的公司隐藏在算法或平台用户制造种族主义、性别歧视结果的说法背后,但社会学的研究表明,人类决策是如何在编码过程的每一步发生的

" 在论文中,研究人员证明了社会学学术可以与其他重要的社会科学研究相结合,以避免人工智能应用中的一些陷阱

乔伊斯说:“通过检查人工智能社会技术系统的设计和实施,社会学工作将人类劳动和社会背景纳入视野。”

基于社会学对组织环境在形成结果中的重要性的认识,本文表明资金来源和制度环境都是人工智能系统开发和使用的关键驱动因素

AI需要社会学的指导吗?研究人员说是的

乔伊斯、贝尔和他的同事认为,尽管将社会世界的知识纳入社会技术系统的努力是出于好意,但人工智能科学家对社会的理解仍然有限——优先考虑那些可能有助于执行人工智能引擎任务的东西,但消除了社会不平等的复杂性和嵌入性

“社会学的深层结构方法也与强调个人选择的方法形成对比,”乔伊斯说

“政治自由主义最普遍的比喻之一是,社会变革是由个人选择驱动的

按照逻辑,作为个人,我们可以通过制造和选择更好的产品、实践和政治代表来创造更公平的未来

当技术世界的工程师和伦理学家强调消除个人层面的人类偏见和提高敏感性训练作为解决人工智能系统不平等的一种方式时,技术世界倾向于维持类似的个人主义观点

" 乔伊斯、贝尔和他的同事邀请社会学家使用该学科的理论和方法工具来分析人工智能系统何时以及如何使不平等更加持久

研究人员强调,人工智能社会技术系统的创建不仅仅是技术设计的问题,还提出了关于权力和社会秩序的基本问题

“社会学家接受培训,以确定不平等是如何嵌入社会各个方面的,并指出结构性社会变革的途径

因此,社会学家应该在人工智能未来的想象和塑造中发挥主导作用,”乔伊斯说

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/kexuexinwen/2548.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~