尽管机器学习算法对个性化医学有希望,但其临床采用仍然有限。导致这种限制的一个关键因素是样本选择偏见(SSB),它是指研究人群不太代表目标人群,从而导致偏见且潜在的有害决定。尽管在文献中众所周知,但SSB在医疗保健机器学习中几乎没有研究。此外,现有技术试图通过平衡研究和目标人群之间的分布来纠正偏见,这可能导致预测性能的丧失。为了解决这些问题,我们的研究通过检查SSB对机器学习算法的性能的影响来说明与SSB相关的潜在风险。最重要的是,我们根据目标人群识别而不是偏见校正提出了一个新的研究方向,以解决SSB。具体而言,我们提出了两个用于解决SSB的独立网络(T-NET)和一个多任务网络(MT-NET),其中一个网络/任务标识了代表研究人群的目标亚群,第二个网络/任务对已识别的亚种群进行了预测。与研究人群相比,SSB可以通过合成和半合成数据集的突出显示,SSB可以导致目标人群的算法的性能大幅下降,并且目标亚群的绩效差异很大,而目标亚群的绩效差异很大,而该目标亚群体代表了所选的患者和研究人群的非秘密患者。此外,我们提出的技术证明了各种环境的鲁棒性,包括不同的数据集大小,事件速率和选择率,表现优于现有的偏见校正技术。
这项研究将批判性地研究嫉妒的西格蒙德·弗洛伊德阴茎的概念,他被怀疑在看到女性性器官的存在方面具有倾斜的观点,此外还表现出妇女在社会机构中的第二性(第二个生物)的地位。本研究使用定性方法与文献方法。结果表明,弗洛伊德概念中存在一些性别偏见,即((1)解剖学诸如(1)解剖学之类的人类心理性偏见是命运的。 (2)雄性超级甲甲基的发展胜于女性; (3)女性比男性更容易成为神经质; (4)一些女性刻板印象是阴茎嫉妒的残余作用; (5)俄狄浦斯和伊莱克特拉综合体的理论。这项研究对于克服心理学中女性的雌雄同体和代表性的问题很重要,认识到男女思维方式和知识的差异,并通过伊斯兰心理学的角度考虑生活经历。还发起了科学女权主义方法的诞生
到9岁时,已经证明女孩表现出无意识的信念,即女性偏爱语言而不是数学。这些隐性信念越强,女孩和女性在学校追求数学表现的可能性就越小。这种无意识的信念也被认为在抑制妇女从事科学,技术,工程和数学(STEM)领域的职业方面发挥作用。
不仅包括隐性偏见或个人歧视,还包括鼓励和助长这种歧视的规则和实践结构。1 结构性种族主义的一个定义是“社会通过相互加强的住房、教育、就业、收入、福利、信贷、媒体、医疗保健和刑事司法系统助长种族歧视的全部方式”。3 衡量种族主义具有挑战性。它不仅可能是主观的,而且还可能带有政治色彩,并且基于难以收集的数据。尽管如此,为了监测变化和设定目标,有一个可衡量的结果至关重要。出于这个原因,出现了许多衡量种族主义的方法,包括感知歧视量表。3
人口测序技术的快速进步导致了人类基因组变异的广泛目录,从而显着增强了我们诊断,治疗和预防遗传疾病的能力。从历史上看,基因组研究主要集中在欧洲人群上,在我们对遗传变异及其影响的理解中引入了偏见1。尽管最近朝着包括更多样化的队列的转变开始减轻这些偏见,但许多序列资源仍然主要是欧洲。增加的基因组包容性不仅对于促进健康公平2至关重要,而且对于丰富了我们对人类生物学的理解3至关重要。通过检查更广泛的遗传多样性,我们可以更深入地了解不同人群中遗传疾病的复杂机制。
我们对他人的印象的能力取决于在不确定性下提供的信息,因此我们使用启发式法来做出判断和决定(Tversky and Kahneman,1974)。这种印象形成与刻板印象有关:例如,图像可以而且经常体现和永久化性别刻板印象(Coltrane and Adams,1997; Len-Ríos等,2005; Rodgers and Thorson,2000)。男女的视觉代表塑造了我们对性别角色的心理表征,并可以加强或稳定它们 - 数字和模拟媒体,例如报纸,杂志,电视和社交媒体,可以在刻画中归因于严格的作用,在刻画中归因于妇女的性行为,并在男性中比男性更大(Courtney and Lockere and Lockeretz and lockeretz and Milers and Mirers; and and and and and and; and; and; and; and; and; Biocca,1992; Zotos and Tsichla,2014年)。,但在男人和女人的描绘中,即使是简单的风格差异也可能已经巧妙地延续了性别偏见(Archer等,1983; Blumberg,2008; Grau和Zotos,2016)。例如,在线媒体中,女性政治家的代表性影响了选民对她们感知的能力和讨人喜欢的影响(Bligh等,2012),面部突出的变化导致女性对智力的评价较低(Archer等,1983)。自动处理大量潜在偏见的信息一直是近年来在交流研究中特别感兴趣的话题(Goldman,2008; Noble,2018; O'Neil,2017)。这些决定的输出塑造了我们的社会现实(Just and Latzer,2017; Noble,2018)及其对公民和机构的影响数字文化和新媒体研究正在将数据移至其学术叙事的中心;具体而言,媒体平台(例如社交媒体和搜索引擎)的数据现在被视为文化研究对象(Schäfer和van es,2017年)。在这个新范式的背景下,算法的转换和问责制的问题通常是关于平台利用的辩论的最前沿,尽管通常由于其“黑匣子”依赖性,异质性和嵌入性而无法理解,因此在更广阔的系统中(Crawford,2016年Crawford,2016; Kitchin; Kitchin,2017; kitchin; kitchin,2017; reshle; kitchin; kitchin; kitchin; kitchin; kitchin; 2017; reshle;搜索引擎提供商,例如Google或Bing,由于其作为守门人的角色而受到了学术审查:他们通过过滤和排名在网上可用的信息来源来决定内容的相关性(Laidlaw,2010; Schulz等,2005; Wallace,2018)。
在机器翻译的域内,性别偏差被定义为MT系统产生翻译的趋势,这些翻译反映或永久化了基于文化和社会偏见的刻板印象,不平等或假设(Friedman和Nis-Senbaum,1996; Savoldi等,20221)。Given that the presence of such bias can lead to harmful con- sequences for certain groups — either in repre- sentational (i.e., misrepresentation or underrepre- sentation of social groups and their identities) or allocational harms (i.e., allocation or withholding of opportunities or resources to certain groups) — (Levesque, 2011; Crawford, 2017; Lal Zimman and Meyerhoff, 2017; Régner et Al。,2019年),这对于彻底调查和减轻其发生至关重要。尽管如此,解决性别偏见是一项多方面的任务。性别偏见是所有生成NLP模型中普遍存在的问题,而LLM也不例外
随着人工智能的快速发展和越来越重要的突出性,至关重要的是要认识到,尽管AI持有众多机会的承诺,但它也带来了重大风险。AI系统可能会受到一系列威胁,包括与安全性和安全性有关的威胁。此外,他们有可能为环境和人权问题做出贡献和加剧。在这些风险中,AI系统中偏见的存在尤其令人担忧。偏见深深地嵌入了人性和社会结构中,使它们在社会中的存在不可避免。尽管某些偏见可能是中性或上下文适当的,但AI系统中的有害偏见可能会导致对个人,群体以及普遍存在的人的不公平待遇或歧视,也会导致更广泛的社会不平等。在许多情况下,AI系统的应用导致了不公正的结果甚至彻底歧视。一个重要的例子是荷兰儿童福利丑闻,荷兰税和海关管理局将算法用作较大系统的一部分,该系统不成比例地针对申请育儿福利的低收入和中等收入家庭。诸如“外国名字”和“双重国籍”之类的因素导致了算法的不公平目标,导致种族谱,虚假指控欺诈和对受影响家庭的严重罚款(大赦,2021年)。尽管此丑闻涉及复杂的因素相互作用,而不仅仅是一个有偏见的AI系统,但它强调了偏见的AI所产生的深远影响,突出了迫切需要解决这些问题,因为AI继续发展并融入了我们日常生活的更多方面。
我们对他人的印象的能力取决于在不确定性下提供的信息,因此我们使用启发式法来做出判断和决定(Tversky and Kahneman,1974)。这种印象形成与刻板印象有关:例如,图像可以而且经常体现和永久化性别刻板印象(Coltrane and Adams,1997; Len-Ríos等,2005; Rodgers and Thorson,2000)。男女的视觉代表塑造了我们对性别角色的心理表征,并可以加强或稳定它们 - 数字和模拟媒体,例如报纸,杂志,电视和社交媒体,可以在刻画中归因于严格的作用,在刻画中归因于妇女的性行为,并在男性中比男性更大(Courtney and Lockere and Lockeretz and lockeretz and Milers and Mirers; and and and and and and; and; and; and; and; and; Biocca,1992; Zotos and Tsichla,2014年)。,但在男人和女人的描绘中,即使是简单的风格差异也可能已经巧妙地延续了性别偏见(Archer等,1983; Blumberg,2008; Grau和Zotos,2016)。例如,在线媒体中,女性政治家的代表性影响了选民对她们感知的能力和讨人喜欢的影响(Bligh等,2012),面部突出的变化导致女性对智力的评价较低(Archer等,1983)。自动处理大量潜在偏见的信息一直是近年来在交流研究中特别感兴趣的话题(Goldman,2008; Noble,2018; O'Neil,2017)。这些决定的输出塑造了我们的社会现实(Just and Latzer,2017; Noble,2018)及其对公民和机构的影响数字文化和新媒体研究正在将数据移至其学术叙事的中心;具体而言,媒体平台(例如社交媒体和搜索引擎)的数据现在被视为文化研究对象(Schäfer和van es,2017年)。在这个新范式的背景下,算法的转换和问责制的问题通常是关于平台利用的辩论的最前沿,尽管通常由于其“黑匣子”依赖性,异质性和嵌入性而无法理解,因此在更广阔的系统中(Crawford,2016年Crawford,2016; Kitchin; Kitchin,2017; kitchin; kitchin,2017; reshle; kitchin; kitchin; kitchin; kitchin; kitchin; 2017; reshle;搜索引擎提供商,例如Google或Bing,由于其作为守门人的角色而受到了学术审查:他们通过过滤和排名在网上可用的信息来源来决定内容的相关性(Laidlaw,2010; Schulz等,2005; Wallace,2018)。
本文表明,一次学习几个艰巨的任务可能比单独学习这些相同的任务更容易。实际上,训练信号提供的每个任务提供的信息都是针对其他任务的域特异性电感偏差。经常以相关任务学习。当不这样做时,创建其他任务是直接的。对于许多领域,通过收集额外的教学信号获得归纳偏见可能比从人类专业知识中获得的特定领域偏见的传统方法更实用。我们称这种方法称为多任务处理(MTL)。由于诱导学习者的大部分力量直接遵循其归纳偏见,因此多任务学习可能会产生更多的力量学习。提供了多任务连接主义学习的经验示例,其中通过同时培训一个网络来改进学习,同时培训一个网络。多任务决策树感应也概述了。