基于提交回复的可争议性如何运作的总结。学分:DOI:10.1145/3449180 2020年,由于新冠肺炎对学生亲自参加考试的限制,英国学校考试监管机构Ofqual使用了一种算法来确定他们最后一年的成绩。学生们不喜欢。
在对社会经济歧视的抗议和担忧之后,算法评分被取消,取而代之的是教师评估评分。对算法评分系统的一个关键批评是,学生没有对他们的分数提出上诉的程序。
这不是一个孤立的事件或新问题。
2014年,七名教师和休斯顿教师联合会成功地辩称,使用算法绩效衡量系统来终止他们的教学合同违反了他们享有正当程序的宪法权利。他们辩称,由于“缺乏足够的信息”,他们无法“有意义地质疑”他们的终止
创建该算法系统的公司声称,它使用的公式、源代码、决策规则和假设都是专有的商业秘密,因此不能提供给教师。
这让老师们不清楚该系统考虑了哪些因素,以及他们的成绩分数是如何计算的。
除了算法的不透明性之外,还有许多其他的挑战。例如,实际上可以争论的问题往往不清楚。
人们应该能够质疑用于做出决策的数据吗?如果算法遵循它被编程遵循的过程,基于什么理由可以对决定提出异议?或者算法的使用首先应该是有争议的?
近年来,针对人工智能的使用,已经制定了许多指导方针和原则。其中许多提到了挑战、上诉或质疑算法决策的能力,但它们对应该提供什么类型的流程提供了有限的指导。
与欧盟《一般数据保护条例》相关的指南建议,争议需要在决策后进行内部审查。
在人机交互中,可争论性的概念被视为一个更具交互性的过程——在这个过程中,受决策影响的人可以与决策系统进行交互,以形成决策。
考虑到这些不同的竞争方法,我们的团队希望更多地了解利益相关方(包括公众和决策者,如企业和政府)对竞争能力的期望。
我们的研究分析了针对澳大利亚政府2019年发布的一份讨论文件——人工智能:澳大利亚的伦理框架——而提交的材料。
这是此类框架中第一个专门将“可争论性”作为原则的框架,其定义为:“当一个算法影响一个人时,必须有一个有效的过程来允许该人质疑该算法的使用或输出。”
从我们对提交材料的分析来看,将“可争议性”作为其本身的原则得到了普遍支持,尽管有些人认为将其视为“公平”或“问责制”等更高层次原则的一个方面更好
虽然可争议性被视为一种保护形式,但许多人质疑它的实用性,因为它目前不可执行。
还有人承认,受算法决策影响的不同人会有不同的竞争能力。这意味着任何争论过程都应该尽可能清晰和容易理解,而不是用来规范算法决策的唯一工具。
许多呈件要求政府在一些重要的政策问题上给予更多的澄清和指导。例如,谁能对一个决定提出异议?有什么可争议的?评审过程应该如何运行?
还有公司的照片。科罗拉多大学法学院副教授玛戈·卡明斯基指出,缺乏对争议的指导可能会对受影响的人不利:
“这就提出了一个问题,即一家利益并不总是与用户一致的公司是否能够提供足够的流程和财务结果。卡明斯基副教授说:“在充实这一争论的权利方面,还有很大的政策发展空间。
许多提交材料概述了类似于目前用于审查人类决策的过程。然而,人类决策与算法决策的工作方式大不相同。
因此,重要的是要考虑设计用来检查人为偏差和错误的现有流程是否足以审查算法决策。
一些提交材料还强调需要一个人来审查决定。但是这又引起了人们对人类评论可扩展性的担忧——对于一个团队来说,这可能是太多的工作要做。
不要纯粹依赖事后决策评审过程,建立算法决策系统从概念上考虑可争议性是有价值的。
一种方法——欧洲研究员马可·阿尔玛达的“通过设计的可争议性”——强调了参与式设计的价值:最有可能受到决策系统影响的人参与了系统本身的设计。
这种过程将有助于突出系统的问题,并有可能减少未来争论的需要。
拥有与系统交互、检查其所考虑的信息、在需要时进行更正或提出争议的能力,可以帮助人们了解系统如何工作,并对结果进行一定程度的控制,这也可能减少对事后争论过程的需求。
最终,算法决策与人类决策有很大不同。我们需要仔细考虑如何设计系统,不仅支持竞争能力,还能减少任何人首先对决策提出质疑的需求。
来源:由phyica.com整理转载自PH,转载请保留出处和链接!