物理科技生物学-PHYICA

联合国敦促暂停使用危及致命玩笑2人权的人工智能

技术工程 2022-01-18 21:53:57

UN urges moratorium on use of AI that imperils human rights在2020年12月9日星期三的档案照片中,联合国人权事务高级专员米歇尔·巴切莱特在瑞士日内瓦联合国欧洲总部的新闻发布会上发言。这位联合国人权事务负责人呼吁暂停使用对人权构成严重威胁的人工智能技术,包括在公共场所跟踪人的面部扫描系统。米歇尔·巴切莱特还表示,各国应该明确禁止不符合国际人权法的人工智能应用。应该禁止的应用程序包括政府社交评分& quot根据人们的行为来判断他们的系统和某些基于人工智能的工具,这些工具根据种族或性别对人们进行分类。联合国人权事务高级专员呼吁暂停使用对人权构成严重威胁的人工智能技术,包括在公共场所跟踪人的面部扫描系统。联合国人权事务高级专员米歇尔·巴切莱特周三也表示,各国应明确禁止不符合国际人权法的人工智能应用。

应该被禁止的应用包括政府的“社会评分”系统,该系统根据人们的行为来判断他们,以及某些基于人工智能的工具,这些工具根据种族或性别将人们分为不同的群体。

巴切莱特在一份声明中说,基于人工智能的技术可以是一股向善的力量,但如果在使用时没有充分考虑到它们如何影响人们的人权,它们也可能“产生负面甚至灾难性的影响”。

她的评论伴随着一份新的联合国报告,该报告调查了国家和企业是如何匆忙应用影响人们生活和生计的人工智能系统,而没有建立适当的保护措施来防止歧视和其他伤害的。

“这不是没有人工智能,”人权办公室专题参与主任佩吉·希克斯在日内瓦提交报告时告诉记者。“这是要认识到,如果人工智能要用于这些人权——非常关键的——活动领域,就必须以正确的方式进行。我们只是还没有建立一个框架来确保这一点。”

巴切莱特没有呼吁彻底禁止面部识别技术,但他表示,政府应该停止实时扫描人们的特征,直到他们能够证明该技术是准确的,不会歧视,并符合某些隐私和数据保护标准。

虽然报告中没有提到具体国家,但中国是推出面部识别技术的国家之一,特别是在新疆西部地区的监控中,那里居住着许多少数民族维吾尔人。该报告的主要作者表示,点名特定国家不属于他们的任务范围,这样做甚至可能适得其反。

希克斯说:“在中国的情况下,就像在其他情况下一样,我们担心针对特定社区的透明度和歧视性应用。

她列举了美国和澳大利亚人工智能被错误应用的几个法庭案例..

该报告还对试图通过分析人们的面部表情或身体动作来推断他们的情绪和精神状态的工具表示警惕,称这种技术容易受到偏见、误解和缺乏科学依据的影响。

报告称:“公共当局使用情绪识别系统,例如,在警察拦截或逮捕时挑选个人,或者在审讯期间评估陈述的真实性,都有可能损害隐私权、自由权和公平审判权等人权。

该报告的建议呼应了西方民主国家许多政治领导人的想法,他们希望挖掘人工智能的经济和社会潜力,同时解决人们对工具可靠性日益增长的担忧,这些工具可以跟踪和分析个人,并就谁能获得工作、贷款和教育机会提出建议。

欧洲监管机构已经采取措施控制风险最高的人工智能应用。欧盟官员今年概述的拟议法规将禁止人工智能的一些用途,如实时扫描面部特征,并严格控制其他可能威胁人们安全或权利的用途。

美国总统拜登的政府也表达了类似的担忧,尽管它还没有概述削减这些担忧的详细方法。一个新成立的名为贸易和技术委员会的组织,由美国和欧洲官员共同领导,寻求合作为人工智能和其他技术政策制定共同的规则。

限制人工智能最危险用途的努力得到了微软和其他美国科技巨头的支持,他们希望指导影响该技术的规则。希克斯说,微软已经与联合国人权办公室合作,并为其提供资金,以帮助改善其对技术的使用,但该报告的资金来自人权办公室的经常预算。

西方国家一直站在对歧视性使用人工智能表示关切的前列。

美国商务部长吉娜·雷蒙多(Gina Raimondo)在6月份的一次虚拟会议上表示:“如果你想到人工智能可能被以歧视性的方式使用,或者进一步强化歧视性倾向,那就相当可怕了。“我们必须确保不让这种情况发生。”

她与欧盟委员会负责数字时代的执行副主席玛格丽特·维斯塔格(Margrethe Vestager)进行了交谈,维斯塔格建议,在“像我们这样的民主国家”,一些人工智能应用应该完全禁止。她引用了社交评分和“在公共场所广泛、全面地使用远程生物识别”,社交评分可以切断某人在社会中的特权。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/8345.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~