物理科技生物学-PHYICA

谁做最后决定?人工智能驱动虚空奇点卡组的灾难管理

地球 2022-01-04 00:00:10

作者:苏黎世联邦理工学院科琳·乔·汉森 信用:雷橙 在灾难面前保护公民往往需要做出深远的决定

欢迎任何帮助——包括来自大赦国际的帮助

加州和澳大利亚最近发生的事件表明,野火越来越失去控制

然而,消防队员仍在不懈地与火焰抗争——如今,他们拥有的不仅仅是水和可控燃烧

长期以来,以地理信息系统、网络摄像头和无人机的形式,数字化一直是他们武器库的一部分

这些已经成为预测和控制野火的关键工具,然而它们产生的大量数据很快将人类的专业知识推向了极限

“当你处理大量数据时,人工智能总是有用的,”本杰明·沙尔特说,他是联邦理工学院安全研究中心风险和弹性研究小组的负责人

最近,他和他的同事凯文·科勒合作分析了人工智能在民事保护中的应用

“能够使用算法进行预测是非常令人兴奋的,”科勒说

火线朝哪个方向?我们应该把下一次受控燃烧设置在哪里?通过处理所有可用的数据,基于人工智能的建模工具可以帮助回答这些问题

这些数据可能包括天气预报、干旱持续时间、风向——甚至是火灾中可用的潜在燃料量

由此产生的预测可以使灾难应对更加有效

在最好的情况下,它们甚至可以作为一种预防形式

民事保护对人工智能的使用特别敏感,因为这往往是一个生死攸关的问题——每一分钟都很重要

专家们通常被期望做出具有深远影响的快速决策,因此他们感谢任何能够以更可靠的数据支持这些决策的帮助

然而,最终决定的质量总是取决于数据的质量

“不管我的算法多么聪明,如果我不能为灾难提供正确的数据,它在紧急情况下就没什么用了,”科勒警告说

即使是最高质量的数据也永远无法完全取代专家多年来获得的经验,所以到底是人还是机器应该做出最终决定的问题非常复杂

总的来说,这种算法可能会产生比人类同类算法更低的经济损失或更少的人员伤亡,但它也可能在我们认为不可接受的个别情况下做出决定

“对我来说很明显,作为一个社会,我们将继续与将决策权交给自动机器的想法作斗争,”沙尔特说

信任的问题 那么在什么时候我们会愿意让机器自己做决定呢?沙尔特和科勒同意这取决于上下文:“民事保护有时是生死攸关的事情

人类应该在这些决策中发挥作用——这不是机器做出完全自主决策的地方

" 一个关键因素是人们对算法的信任度

信任为接受铺平了道路,当我们能够清楚地跟踪一个算法在做什么时,这两者都会得到增强

例如,当医生理解一个算法的决策逻辑时,他们更有可能信任它并将其融入到他们的工作中

许多研究已经证实了这一点——但是沙尔特听起来很谨慎:“透明度和可解释性并不总是增加安全性

“甚至在有些情况下,透明度可能是不利因素,包括网络犯罪和恐怖主义等人为危害

“如果你确切地揭示了一种算法是如何检测出可疑行为模式的,那么敌对行为者就有更大的几率故意超越它,”沙尔特警告说

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/diqiu/7295.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~