抽象不平等的诊断准确性是基于AI的模型的广泛关注点。然而,当前的偏差表征是狭窄的,并且无法说明上游数据收集的系统偏见,从而将AI性能的不平等现象与偏见混合在一起,这是由于数据集本身的分布差异。此差距具有广泛的含义,导致降低偏见的策略无效。我们介绍了一种新颖的回顾性模型评估程序,该程序识别并表征了解释人口级诊断差异的受保护群体之间的分布差异的贡献。在三个大规模的胸部射线照相数据集中,我们一直发现年龄和混淆图像属性(例如病理类型和大小)的分布差异有助于跨种族亚组的模型性能较差。通过系统地将观察到的不足诊断偏见归因于由于数据收购过程中的偏差或数据集偏见而引起的分布差异,我们提出了一种通用方法,用于解散不同类型的数据集偏置如何相互作用和化合物以造成可观的AI性能差异。我们的方法是可以采取行动的,可以帮助设计针对特定亚群的基础模型的目标干预措施,而不是忽略上游数据偏见不平等AI性能的系统贡献的方法。
•前MLS周期的偏差不同•平流层臭氧偏见在2004年8月以后非常稳定•对流层臭氧受仪器变化的影响大于总柱或平流层臭氧•在2018年之后增加北极的臭氧偏见(Driffing Noaa-19)•2005 - 2018年对流层臭氧的稳定性能
摘要 一些人工智能 (AI) 系统会表现出算法偏见,即它们可能会产生基于社会身份不公平地歧视人们的输出。关于这个主题的许多研究都集中在基于性别或种族身份而使人们处于不利地位的算法偏见上。相关的伦理问题非常重要且众所周知。针对人们社会身份其他方面(例如政治倾向)的算法偏见在很大程度上仍未被探索。本文认为,针对人们政治倾向的算法偏见可能以与算法性别和种族偏见相同的方式出现。然而,它与它们有一个重要区别,因为(在民主社会中)有强烈的社会规范反对性别和种族偏见。但这并不适用于政治偏见。因此,政治偏见可以更有力地影响人们,这增加了这些偏见嵌入算法的可能性,并且使得算法政治偏见比性别和种族偏见更难发现和根除,尽管它们都会产生类似的危害。由于一些算法现在还可以轻易地在违背人们意愿的情况下识别他们的政治倾向,这些问题变得更加严重。因此,算法政治偏见带来了巨大而独特的风险,人工智能社区应该意识到并加以审视。
摘要 本研究评估了对话式人工智能 (CAI) 在纠正认知偏差和识别人机交互中的情感方面的有效性,这对于数字心理健康干预至关重要。认知偏差——系统性偏离规范思维——会影响心理健康,加剧抑郁和焦虑等状况。治疗聊天机器人可以使认知行为疗法 (CBT) 更易于获得且更实惠,提供可扩展和即时的支持。该研究采用结构化方法,使用基于临床的虚拟案例场景模拟典型的用户-机器人交互。在两类认知偏差中评估了表现和情感识别:心智理论偏差(人工智能拟人化、对人工智能的过度信任、归因于人工智能)和自主性偏差(控制错觉、基本归因错误、公正世界假设)。使用定性反馈机制和序数量表来量化基于准确性、治疗质量和对 CBT 原则的遵守情况的反应。通过脚本交互评估治疗机器人(Wysa、Youper)和通用 LLM(GTP 3.5、GTP 4、Gemini Pro),由认知科学家和临床心理学家双重审查。统计分析表明,治疗机器人在偏见纠正方面始终优于非治疗机器人,并且在 6 种情感识别偏见中有 4 种表现出色。数据表明,非治疗聊天机器人在解决某些认知偏见方面更有效。关键词:认知偏见、对话式人工智能、聊天机器人、数字心理健康、偏见纠正、情感识别 * 通讯作者。电子邮件:marcin.rzadeczka@umcs.pl,邮寄地址:Wydział Filozofii i Socjologii UMCS, pl。Marii Curie-Skłodowskiej 4, pok。204, 20-031 卢布林数据和协议:https://data.mendeley.com/datasets/h2xn2bxz5r/1 预印本 doi:https://doi.org/10.48550/arXiv.2406.13813
各个部门[1],[2],[3]。AI是指机器,尤其是计算机系统[1],[3]的人类智能过程的模拟。这些过程包括学习,推理,解决问题,感知和语言理解[1],[3]。另一方面,ML是AI的一个子集,它为系统提供了从经验中学习和改进而无需明确编程的能力[1],[2],[3]。AI和ML渗透了各个部门,革命性的过程和系统[1],[2],[3]。本研究论文将重点关注AI/ML具有重大影响的四个关键部门:招聘过程,医疗保健,金融系统,自动驾驶系统和自动驾驶汽车[3] [6]。令人惊讶的是,这些部门在AI/ML模型中不能免疫偏见,这可能具有深远的影响[4],[5]。这些偏见的探索构成了这项研究的症结。这些技术有可能带来巨大的好处,例如提高效率,提高决策和增强用户体验[1],[2],[3]。但是,它们也提出了新的挑战,例如AI/ML模型中存在偏见的风险[4],[5]。本文将详细探讨这些问题,重点是理解这些偏见的来源以及如何缓解它们[4],[5]。
当人类受到算法决策系统的约束时,他们可以在战略上相应地调整其行为(“游戏”系统)。虽然越来越多的关于战略分类的文献使用了游戏理论建模来理解和减轻这种游戏,但这些现有作品考虑了完全理性代理的标准模型。在本文中,我们提出了一个战略分类模型,该模型考虑了人类对算法的反应中的行为偏见。我们展示了分类器的误解(特别是其特征权重)如何导致偏见和理性代理的响应之间的不同类型的差异,并确定何时在不同特征中过度投资或不投资的行为剂。我们还表明,与完全理性的战略代理人相比,具有行为偏见的战略代理人可能受益或(也许是出乎意料的)损害公司。我们通过用户研究补充了我们的分析结果,这些结果支持我们在人类对算法反应中行为偏见的假设。一起,我们的发现强调了在设计AI系统时需要解决人类(认知)偏见的必要性,并提供了对循环中战略性人类的解释。
出版指标仍然是科学成功的公认标记,并对职业发展和因此保留率有重要影响。出版系统中的任何偏见都有可能在发行记录不当的个人中达到最终。我们的报告发表在化学科学性别偏见中?在整个出版管道中确定了微妙的偏见,并制定了承诺,以进一步确保我们监督的出版物尽可能无偏见,并代表了化学科学研究社区。我们在科学出版报告中的新作用框架旨在消除化学科学出版的偏见。它绘制了在科学出版过程的各个阶段改善纳入和多样性的结果所需的渐进式行动。
决策的定义 184 经典决策理论 185 规范决策模型 185 描述决策模型 187 启发式和偏见 189 信息处理框架 189 启发式的使用 192 获取和使用线索的启发式 192 假设生成中的启发式 193 假设评估和选择中的启发式 194 行动选择中的启发式和偏见 195 自然决策 196 基于技能、规则和知识的任务绩效 198 自然决策的其他观点 200 现实世界决策的综合模型 202 改进人类决策 204 重新设计以支持绩效 205 培训 205 决策辅助 207 问题解决 211 问题解决的特征 212 问题解决中的错误和偏见212
• 准确性和信任:有偏见的算法也会导致不准确的结果。如果生成式人工智能系统接受反映历史偏见的数据训练,它将在其输出中延续这些偏见。这可能会导致不可靠的结果,并导致对整个生成式人工智能的信任丧失。这是一个比喻:想象一个法官总是对穿某种颜色衬衫的人判处更严厉的刑罚。这位法官的决定是不公平和不准确的。如果不解决生成式人工智能算法的偏见,它们也会陷入同样的陷阱。通过考虑和减轻生成式人工智能中的偏见,我们可以确保这些强大的工具公平有效地用于每个人。您可能想阅读这篇关于文化偏见和人工智能的发人深省的文章。人工智能和美国微笑。人工智能如何通过……歪曲文化 | 作者:jenka | Medium