物理科技生物学-PHYICA

公共卫生建模算法开发过程中引入的公平什么软件可以看电视频道性原则

技术工程 2021-12-29 21:54:03

icons healthCredit:pix abay/CC0 Public Domain在美国,一个人出生的地方、他的社会和经济背景、他度过形成期的社区以及他变老的地方,这些因素在任何给定年份占死亡人数的四分之一到60%,部分原因是这些力量在心脏病、癌症、意外伤害、慢性下呼吸道疾病和脑血管疾病的发生和结果中起着重要作用——这是死亡的五个主要原因。虽然关于这些“宏观”因素的数据对于跟踪和预测个人和社区的健康结果至关重要,但将机器学习工具应用于健康结果的分析师往往依赖于“微观”数据,这些数据局限于纯粹的临床环境,并由医院内部的医疗保健数据和流程驱动,从而将可能揭示医疗保健差异的因素蒙在鼓里。

NYU·坦登工程学院和NYU全球公共卫生学院(NYU·GPH)的研究人员在《自然·机器智能》中以一种新的视角“公共和人口健康中的机器学习和算法公平性”,旨在激活机器学习社区,以解释“宏观”因素及其对健康的影响。NYU坦登大学计算机科学与工程副教授、NYU大学公共卫生学院生物统计学副教授鲁米·楚阿拉跳出了临床“框框”的思维,超越了个体因素的严格限制,找到了一种新的方法,整合了更大的相关数据网络,用于个人和社区健康结果的预测建模。

“对导致和减少公平的原因的研究表明,为了避免造成更多的差异,考虑上游因素也是至关重要的,”Chunara解释说。她指出,一方面,在图像分析、射线照相和病理学等领域,医疗保健领域的人工智能和机器学习实施方面的大量工作,另一方面,强烈的意识和宣传集中在结构性种族主义、警察暴行和围绕新冠肺炎大流行出现的医疗保健差异等领域。

“我们的目标是利用这项工作和医疗保健领域数据丰富的机器学习的爆炸式增长,创建一个超越临床环境的整体视图,整合关于社区和环境的数据。”

Chunara和她的博士生Vishwali Mhasawade和Yuan Zhao分别在NYU坦登和NYU GPH,利用社会生态模型,一个框架来理解个人的健康、习惯和行为是如何受到国家和国际层面的公共政策以及社区和社区内卫生资源的可用性等因素的影响。该团队展示了如何在算法开发中使用该模型的原理,以展示如何更公平地设计和使用算法。

研究人员将现有的工作组织成任务类型的分类,机器学习和人工智能用于这些任务,涵盖预测、干预、识别效果和分配,以展示如何利用多层次视角的例子。在这篇文章中,作者还展示了同样的框架如何适用于数据隐私、治理和最佳实践的考虑,以将医疗负担从个人转移到改善公平。

作为这种方法的一个例子,同一团队的成员最近在AAAI/ACM人工智能、伦理和社会会议上提出了一种使用“因果多级公平”的新方法,这是一个更大的相关数据网络,用于评估算法的公平性。这项工作建立在“算法公平”领域的基础上,迄今为止,该领域仅限于关注性别和种族等个人层面的属性。

在这项工作中,Mhasawade和Chunara使用来自因果推理的工具形式化了一种理解公平关系的新方法,综合了一种方法,通过这种方法,研究者可以评估和解释敏感宏观属性的影响,而不仅仅是个体因素。他们为他们的方法开发了算法,并提供了适用的设置。他们还用数据说明了他们的方法,显示了如果敏感属性没有被考虑,或者没有适当的上下文被考虑,仅仅基于与诸如种族、收入和性别等标签相关的数据点的预测的价值是有限的。

“和医疗保健一样,算法的公平性往往集中在标签上——男性和女性、黑人和白人等等。——没有从因果的角度考虑多层影响来决定预测中什么是公平和不公平的,”Chunara说。“我们的工作提供了一个框架,不仅考虑算法的公平性,还考虑我们在算法中使用什么类型的数据。”

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/6920.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~