许多人认为,算法未能辜负其Prom-ISE来反映用户偏好并改善社会福利1 - 4。概率不是技术。现代算法是精致且准确的。对无代表性样本的培训算法会导致该问题,但即使对算法进行了培训,也会发生故障。也不是由利润动机引起的问题。营利性公司设计算法是为用户付出代价的,但即使是非营利组织和政府,也没有缺少5个。所有算法均基于用户正在做的心理模型。该模型的基本约束是可预测算法的可测量变量的狭窄。我们建议算法无法反映用户偏好并增强其福利,因为算法依赖于显示的偏好来做出预测。设计人员以错误的假设构建算法,即用户行为(显示的偏好)告诉我们(1)用户在理性上偏爱的内容(规范性偏好)和(2)什么将增强用户福利。依靠这个95年历史的经济模型,而不是用户表现出有限合理性的更现实的假设,而是导致设计师对用户行为进行培训算法。揭示的偏好可以识别未知的偏好,但是揭示的偏好是对用户的规范偏好和价值的衡量的不完整(有时会引起误导)6。具有讽刺意味的是,现代算法是建立在对揭示偏好中的过时且无可辩驳的承诺之上的。
摘要:近年来,机器学习算法已迅速升至几个领域的决策过程的顶部。然而,这些算法很容易确认已经存在数据的偏见,从而导致偏见和不公平的选择。在这项工作中,我们研究了机器学习的偏见,并提供了促进公平和道德算法设计的策略。然后,本文强调了公平意识到的机器学习算法的价值,该算法的目的是通过在培训和评估程序中包含公平性约束来减少偏见。重新持续,对抗性培训和重新采样是可以用来克服偏见的一些策略。可以通过促进正义,透明度和包容性来发展更好地服务社会和尊重道德理想的机器学习系统。本文为研究人员,从业者和决策者提供了基础,以通过一致的努力来转发道德和公平的机器学习原因。
相关文献和行业出版社表明,基于人工智能(AI)的决策系统可能会偏向性别,这反过来影响个人和社会。信息系统(IS)领域已经认识到基于AI的结果及其影响的丰富贡献;但是,缺乏关于基于AI的决策系统中性别偏见的管理及其不利影响的研究。因此,基于AI的决策系统中对性别偏见的关注正在引起关注。,需要更好地了解促成因素和有效方法来减轻基于AI的决策系统中的性别偏见。因此,这项研究通过对现有文献进行系统文献综述(SLR),并为基于AI的决策系统中的性别偏见的管理提供了系统文献综述(SLR)。SLR结果表明,基于AI的决策系统中对性别偏见的研究尚未确定,强调了未来的巨大潜力是该领域的研究,正如本文所阐明的那样。基于这篇综述,我们将基于AI的决策系统中的性别偏见概念化为社会技术问题,并提出了一个理论框架,该框架提供了技术,组织和社会方法以及四个命题以及可能减轻偏见效应的四个主张。最后,本文考虑了关于组织背景下基于AI的决策系统中性别偏见的未来研究。
摘要:人工智能 (AI) 和机器学习 (ML) 正在通过增强个性化学习和学术支持来改变高等教育,但它们也带来了重大的道德挑战,特别是在固有偏见方面。这篇评论批判性地审视了人工智能在高等教育中的整合,强调了其创新教育范式的潜力和解决道德影响以避免延续现有不平等的必要性。研究人员采用了一种方法论,以案例研究和文献为主要数据收集方法,重点研究通过技术解决方案、多样化数据集和严格遵守道德准则来减轻偏见的策略。他们的研究结果表明,在高等教育中建立道德的人工智能环境势在必行,需要政策监管、治理和教育方面的全面努力。该研究强调了跨学科合作在解决人工智能偏见复杂性方面的重要性,强调了政策、监管、治理和教育在创建道德人工智能框架方面发挥的关键作用。最后,该论文提倡持续保持警惕并采取积极主动的策略,以确保人工智能对教育环境做出积极贡献,并强调需要建立强有力的框架,将道德考虑融入人工智能系统的整个生命周期,以确保其负责任和公平地使用。
对于开发人员来说,这是一种更实用的方法,可以更全面地了解其 AI 中的偏见风险。它还可以更轻松地识别潜在偏见。通过检查输出来检测偏见很难,而且通常不合适或无用。通过检查其潜在来源来检测偏见(就像该工具所做的那样)既更容易也更有用。可以预先管理或消除偏见,从而产生更好、更合乎道德的 AI,并节省开发人员的时间。
案例 A:诊断人工智能中的性别偏见 在不同子群上训练算法可以揭示分类不平衡。最近的一篇论文 (4) 研究了训练集不平衡对基于图像的计算机辅助诊断的影响。作者使用最先进的分类器,使用性别平衡分别为 0/100%、25/75%、50/50%、75/25% 和 100/0% 的女性/男性的训练集,研究了基于胸部 X 光的 12 种不同胸部疾病的诊断。正如预期的那样,当诊断人工智能专门用于诊断女性时,它在女性身上的表现更好,反之亦然。然而,对于某些疾病(例如气胸),专门用于诊断女性的诊断人工智能实际上在诊断男性方面比诊断女性方面要好。将训练集中的部分女性替换为男性会强调这种差异,但事实仍然存在:对女性表现最好的算法在诊断男性方面比对女性表现更好。同时,这是对男性表现最差的算法。
艺术被视为人类特权的最后堡垒之一,是研究人类与人工智能 (AI) 之间关系的有效模型。最近的研究调查了人们对人造艺术品和人工智能艺术品的反应,报告了对后者存在负面偏见或没有差异的证据。在这里,我们调查了作者的先验知识是否可以通过操纵人类作者和人工智能作者的预先分配来影响两幅抽象画的审美欣赏。在艺术博览会的生态环境中,参与者被要求明确评价他们的审美欣赏,同时在观察两幅画的过程中记录心理生理测量——皮肤电活动 (EDA) 和心率 (HR)。展示顺序在参与者和艺术品之间是平衡的。结果表明,当人类宣布的画作首先展示时,对人工智能宣布的画作的审美判断较低,而相反的展示顺序判断则相等。此外,虽然没有发现 HR 的调节,但 EDA
4. 汇总偏差:当数据集来自整个人口时,可能会对个人或小群体得出错误的结论。这种偏差最常见的形式是辛普森悖论(Blyth,1972),当只考虑整个人口的汇总数据时,小群体数据中观察到的模式就会消失。最著名的例子来自 1973 年加州大学伯克利分校的录取(Bickel 等人,1975)。根据汇总数据,女性申请者被拒绝的次数似乎明显多于男性。然而,对部门级数据的分析显示,大多数部门男性的拒绝率更高。汇总数据未能揭示这一点,因为女性申请总体录取率低的部门的比例高于申请录取率高的部门的比例。
摘要 文化和背景可能导致评估不准确,包括传统测试和替代性评估。标准化测试旨在测量智力和一般知识,但它们是基于多数群体的知识和价值观而制定的,这可能会对少数群体产生偏见,包括性别、种族、社区地位以及具有不同语言背景、社会经济地位和文化的人。虽然替代性评估被认为在文化上更加公平,但它们仍然不是完全公平的。创造力与智力同样重要,创造力评估措施是基于个体文化而制定的。为了减少偏见,我们建议在传统测试和替代性评估中增加创造力评估。 关键词:评估,文化偏见,创造力,标准化测试,文化效度