Loading...
机构名称:
¥ 2.0

人工智能 (AI) 工具越来越多地用于为医疗保健、就业、社会福利和政府政策等不同领域的决策提供信息,这对残疾人来说是一个严重的风险,因为事实证明,残疾人在 AI 实施中会面临偏见。虽然在分析和减轻算法偏见方面已经开展了大量工作,但人们对 AI 应用中偏见出现的更广泛机制尚不甚了解,这阻碍了从源头上解决偏见的努力。在本文中,我们说明了 AI 辅助决策中的偏见如何源于一系列特定的设计决策,如果单独考虑,每个设计决策似乎都是独立且无偏见的。这些设计决策包括基本问题的表述、选择用于分析的数据、AI 技术的用途以及除核心算法设计之外的操作设计元素。我们借鉴了不同决策环境中常见的三种历史残疾模型,以说明残疾定义的差异如何导致设计的每个方面都做出截然不同的决策,进而导致 AI 技术具有各种偏见和下游影响。我们进一步表明,由于整个 AI 设计过程缺乏透明度和残疾人参与,基础设计阶段对残疾的不恰当定义可能造成的潜在危害进一步加剧。我们的分析提供了一个框架,用于在决策环境中批判性地审查 AI 技术,并指导残疾相关 AI 分析的设计实践的发展。我们提出这篇文章是为了提出关键问题,以促进由残疾人主导的设计和参与式发展,从而在残疾相关环境中产生更公平、更公正的 AI 技术。

人工智能技术中的残疾模型和偏见机制

人工智能技术中的残疾模型和偏见机制PDF文件第1页

人工智能技术中的残疾模型和偏见机制PDF文件第2页

人工智能技术中的残疾模型和偏见机制PDF文件第3页

人工智能技术中的残疾模型和偏见机制PDF文件第4页

人工智能技术中的残疾模型和偏见机制PDF文件第5页