哲学家 David Danks 和 Alex London 在讨论算法偏见和自主系统时将偏见定义为对标准的偏差 [14]。偏见可以说是两个组成部分的函数——标准和对标准偏差的衡量。因此,任何自主系统产生的结果与其预期目的(即系统标准)明显不同的情况都属于偏见 [14]。虽然偏见有很多种,但我们感兴趣的是那些通过放大种族、性别和性取向等类别的现有社会不平等对社会产生负面影响的偏见类型。我们将人工智能中的这些偏见称为社会偏见。许多围绕人工智能使用的问题已经浮出水面,包括人工智能的伦理、人工智能和机器学习中的偏见以及政策和法规 [15、16、17]。虽然每个主题都需要深入分析,但我们的重点是人工智能和机器学习系统中表现出的社会偏见。
近年来,人工智能 (AI) 与医疗保健的融合被誉为革命性力量,尤其是在癌症检测领域。头条新闻宣称 AI 系统在识别肿瘤方面的表现优于人类放射科医生,并预示着未来癌症诊断将更快、更准确、更普遍。然而,当我们站在这场由 AI 驱动的医疗革命的风口浪尖时,至关重要的是要看清炒作背后的真相,并解决一个重大挑战:AI 驱动的癌症检测系统中的偏见。AI 技术越来越多地用于从乳房 X 光检查、CT 扫描图像或活检图像中识别早期癌症。深度学习算法的应用范围正在不断扩大,新方法在癌症筛查、诊断、风险预测、预后、治疗策略、反应评估和随访方面表现出了卓越的能力 [1]。这些进步为早期发现癌症、改善治疗决策和计划以及降低发病率和死亡率带来了希望。
决策系统的自动化导致了人工智能 (AI) 使用中的隐藏偏见。因此,解释这些决策和确定责任已成为一项挑战。因此,出现了一个新的算法公平性研究领域。在这个领域,检测偏见并减轻偏见对于确保公平和无歧视的决策至关重要。本文的贡献包括:(1) 对偏见进行分类,以及偏见与人工智能模型开发的不同阶段(包括数据生成阶段)的关系;(2) 修订公平性指标以审核数据和用它们训练的人工智能模型(在关注公平性时考虑不可知模型);(3) 对减轻人工智能模型开发不同阶段(预处理、训练和后处理)偏见的程序进行新的分类,并增加有助于生成更公平模型的横向行动。
语音助手和人工智能很可能将社会刻板印象与男性和女性联系起来。这是因为男性是人工智能创造者的大多数,而人工智能反映了他们的短语和信念 (Leavy, 2018)。此外,人工智能可以学习的文献中也内置了这些刻板印象 (Leavy, 2018)。在 Susan Leavy 所做的一项研究中,以下是人工智能对男性和女性最常见的描述:
在本出版物中,人工智能 (AI) 一词是指一大类基于软件的系统,它们从环境中接收信号并采取行动,通过生成输出(例如内容、预测、建议、分类或影响其所交互环境的决策等)来影响该环境 [63]。机器学习 (ML) 更具体地指的是“使计算机能够在没有明确编程的情况下学习的研究领域” [64],或利用数据来学习和应用模式或辨别统计关系的计算机程序。常见的 ML 方法包括但不限于回归、随机森林、支持向量机和人工神经网络。ML 程序可能用于或可能不用于预测未来事件。ML 程序还可用于为其他 ML 程序创建输入。AI 在其范围内包括 ML。虽然 AI 前景广阔,但通过放大现有偏见,自动分类和在大型数据集内发现的便利性可能会给个人和社会带来重大负面影响。偏见可能是有意或无意地引入人工智能系统的,也可能是在人工智能应用于某个应用程序时出现的。某些类型的人工智能偏见是有目的且有益的。例如,人工智能应用程序所依赖的机器学习系统通常会模拟我们的隐性偏见,以创造积极的在线购物体验或识别感兴趣的内容 [65, 66]。推荐系统以及其他建模和预测方法的激增也有助于揭露这些过程中存在的许多负面社会偏见,这些偏见可能会降低公众信任 [67–70]。人工智能并不是在真空中建立或部署的,它与社会现实中的歧视或不公平做法隔绝。将人工智能理解为社会技术系统,就是承认开发技术的过程不仅仅是数学和计算结构。人工智能的社会技术方法考虑了从数据集建模的价值观和行为、与之交互的人类以及涉及其委托、设计、开发和最终部署的复杂组织因素。
[1] Ryan S. Baker。2024。大数据和教育(第8版)。宾夕法尼亚州费城宾夕法尼亚大学。 [2] Ryan S. Baker和Aaron Hawn。2022。教育算法偏见。国际人工智能杂志教育杂志(2022),1-41。[3] Solon Barocas,Andrew D Selbst和Manish Raghavan。2020。反事实解释和主要原因背后的隐藏假设。在2020年公平,问责制和透明度会议的会议记录中。80–89。[4] Alex J Bowers和Xiaoliang Zhou。2019。曲线下的接收器操作特征(ROC)区域(AUC):一种评估教育结果预测指标准确性的诊断措施。受风险的学生教育杂志(JESPAR)24,1(2019),20-46。[5] Oscar Blessed Deho,Lin Liu,Jiuyong Li,Jixue Liu,Chen Zhan和Srecko Joksimovic。2024。过去!=未来:评估数据集漂移对学习分析模型的公平性的影响。IEEE学习技术交易(2024)。[6] Olga V Demler,Michael J Pencina和Ralph B D'Agostino Sr. 2012。滥用DELONG测试以比较嵌套模型的AUC。医学中的统计数据31,23(2012),2577–2587。[7] Batya Friedman和Helen Nissenbaum。1996。计算机系统中的偏差。信息系统(TOIS)的ACM交易14,3(1996),330–347。[8]乔什·加德纳,克里斯托弗·布鲁克斯和瑞安·贝克。2019。225–234。通过切片分析评估预测学生模型的公平性。在第9届学习分析与知识国际会议论文集。[9]LászlóA Jeni,Jeffrey F Cohn和Fernando de la Torre。2013。面对不平衡的数据:使用性能指标的建议。在2013年,俄亥俄州情感计算和智能互动会议上。IEEE,245–251。 [10] Weijie Jiang和Zachary a Pardos。 2021。 在学生等级预测中迈向公平和算法公平。 在2021年AAAI/ACM关于AI,伦理和社会的会议上。 608–617。 [11]RenéFKizilcec和Hansol Lee。 2022。 教育算法公平。 在教育中人工智能的伦理学中。 Routledge,174–202。 [12]JesúsFSalgado。 2018。 将正常曲线(AUC)下的面积转换为Cohen的D,Pearson的R PB,Ordds-Ratio和自然对数赔率比率:两个转换表。 欧洲心理学杂志适用于法律环境10,1(2018),35-47。 [13] Lele Sha,Mladen Rakovic,Alexander Whitelock-Wainwright,David Carroll,Victoria M Yew,Dragan Gasevic和Guanliang Chen。 2021。 在自动教育论坛帖子中评估算法公平性。 教育中的人工智能:第22届国际会议,AIED 2021,荷兰乌得勒支,6月14日至18日,2021年,第I部分。 Springer,381–394。 2024。 2023。 2018。IEEE,245–251。[10] Weijie Jiang和Zachary a Pardos。2021。在学生等级预测中迈向公平和算法公平。在2021年AAAI/ACM关于AI,伦理和社会的会议上。608–617。[11]RenéFKizilcec和Hansol Lee。2022。教育算法公平。在教育中人工智能的伦理学中。Routledge,174–202。[12]JesúsFSalgado。2018。将正常曲线(AUC)下的面积转换为Cohen的D,Pearson的R PB,Ordds-Ratio和自然对数赔率比率:两个转换表。欧洲心理学杂志适用于法律环境10,1(2018),35-47。[13] Lele Sha,Mladen Rakovic,Alexander Whitelock-Wainwright,David Carroll,Victoria M Yew,Dragan Gasevic和Guanliang Chen。2021。在自动教育论坛帖子中评估算法公平性。教育中的人工智能:第22届国际会议,AIED 2021,荷兰乌得勒支,6月14日至18日,2021年,第I部分。Springer,381–394。2024。2023。2018。[14]Valdemaršvábensk`Y,MélinaVerger,Maria Mercedes T Rodrigo,Clarence James G Monterozo,Ryan S Baker,Miguel Zenon Nicanor LeriasSaavedra,SébastienLallé和Atsushi Shimada。在预测菲律宾学生的学习成绩的模型中评估算法偏见。在第17届国际教育数据挖掘会议上(EDM 2024)。[15]MélinaVerger,SébastienLallé,FrançoisBouchet和Vanda Luengo。您的模型是“ MADD”吗?一种新型指标,用于评估预测学生模型的算法公平性。在第16届国际教育数据挖掘会议上(EDM 2023)。[16] Sahil Verma和Julia Rubin。公平定义解释了。在国际软件公平研讨会的会议记录中。1-7。[17] Zhen Xu,Joseph Olson,Nicole Pochinki,Zhijian Zheng和Renzhe Yu。2024。上下文很重要,但是如何?课程级别的性能和公平转移的相关性在预测模型转移中。在第14届学习分析和知识会议论文集。713–724。[18] Andres Felipe Zambrano,Jiayi Zhang和Ryan S Baker。2024。在贝叶斯知识追踪和粗心大意探测器上研究算法偏见。在第14届学习分析和知识会议论文集。349–359。
摘要近年来,使用肠降血糖素类似物的使用已成为一种有效的方法,可以实现2型糖尿病(T2D)患者的胰岛素分泌和体重减轻。结合和刺激多个受体的激动剂表现出了特殊的希望。然而,包括恶心和腹泻在内的关闭目标效应仍然是使用这些药物的并发症,并且越来越多地寻求具有优化的药理学特征和/或偏置信号传导的修改版本。在这里,我们描述了与胰甘氨酸样肽-1(GLP-1)和葡萄糖依赖性胰岛素多肽(GIP)受体(GLP-1R和GIPR)结合的分子的合成和特性。HISHS-2001显示GLP-1R的亲和力增加,并且倾向于减少该受体与FDA批准的双GLP-1R/GIPR激动剂Tirzepatide的内在化和回收利用。HISHS-2001还显示出对cAMP的产生与β-arrestin 2募集的偏见明显更大。相比之下,在GLP-1R处,GαS募集较低,而GIPR则较高。对肥胖的高血糖DB/db小鼠的施用,Hishs-2001增加了循环胰岛素的增加,同时降低了体重和HBA1C,其功效与Tirzepatide的疗效相似,剂量较低。因此,HISHS-2001代表具有改进药理特征的新型双受体激动剂。
A:社会偏见。统计偏见只有清楚这些偏见如何在社会偏见中表现出来。2。将如何确定偏见?是否有任何特定的指标,工具或数据集将用于定义和衡量偏见?a:由表演者定义这些内容3。对模型的大小或类型是否有任何约束(例如,诸如GPT或较小域特异性模型(如Llama-7b)等大型模型)?A:无约束4。我们是否允许将多种技术(例如模块化附加组件和概念空间分析)组合到混合方法中?A:是5。提议的解决方案是否应该完全新颖,还是可以接受现有方法的适应?a:优选创新的解决方案。如果提出的解决方案是增量的,则必须对解决方案的影响做出强有力的理由6。是否偏爱可以在多个域上推广的方法或用于单个域的高度专业化?A:没有偏好
conoraw@princeton.edu First Version: March 2019 This Version: November 2020 We thank Pol Antràs, David Autor, Costas Arkolakis, Gideon Bornstein, Laura Castillo-Martinez, Jonathan Dingel, Pierre-Olivier Gourinchas, Gordon Hanson, J. Bradford Jensen, Thomas Kemeny, Chris Moser, Michael Peters, Esteban Rossi-Hansberg和Steve Redding对有见地的评论和Serena Sampler提供了出色的研究帮助。此处表达的任何意见和结论都是作者的观点,不一定代表美国人口普查局的观点。所有结果均已审查,以确保未披露机密信息。Eckert和Walsh感谢普林斯顿大学的国际经济学部分,其中一些工作已经完成。本文的当前版本取代了“熟练的可交易服务:美国高技能劳动力市场的转型”。
欧盟委员会于 2021 年 4 月提出的人工智能法案 (AIA) 提案反映了对人工智能的政策和立法关注度的提高。2 该提案包含与保护基本权利相关的条款。这些规定包括风险管理要求(第 9 条),包括关于基本权利的要求,以及对高风险人工智能系统的一致性评估(第 43 条)。值得注意的是,关于本报告的重点,拟议的 AIA 还包括处理敏感数据以检测、监控和纠正可能导致歧视的偏见的法律基础(第 10 条 (5))。在撰写本报告时,围绕拟议的 AIA 的谈判正在进行中。基本权利保护在围绕 AIA 的谈判和讨论中发挥着重要作用。3