抽象以广泛使用技术和数据驱动算法为特征的智能社会的兴起有望改善我们的生活。但是,这项技术对在线文化的丰富性和多样性构成了潜在的威胁。本文探讨了Echo Chamber和算法偏见的现象,研究了它们如何促进在线体验的均质化。社交媒体算法个性化内容提要,向用户提供了增强其现有信念的信息。这创建了Echo Chambers,从不同的角度隔离了用户。算法偏差,源于用于训练这些算法的数据,可能会进一步加剧此问题。这项研究的主要数据来自以前的研究(辅助数据),该研究的重点是与在线文化相关的研究。论文调查了Echo Chambers和算法偏见对智能社会中在线文化的影响。它探讨了这些因素如何限制接触各种思想和观点,这可能导致在线体验。通过研究Echo Chambers,算法偏见和在线文化在智能社会中的同质化之间的相互作用,该论文旨在为对技术对我们在线体验的影响有更细微的了解。
大语言模型(LLM)通常会产生偏见的输出,其中包含令人反感,有毒或刻板印象的文本。现有的LLM对准方法,例如根据人类反馈(RLHF)学习的强化学习,从而根据当前模型输出的奖励信号来减轻偏见,而无需考虑偏见的来源。在这项工作中,为了探索偏见的形成,我们从因果的角度重新审视了LLMS的文本生成。我们确定了包含文本短语语义相关性的预训练数据和输入提示,因为LLMS和模型输出之间的两个混杂因素会导致偏见。受到因果观点的启发,我们利用RL对齐中的奖励模型作为一种仪器变量来对LLMS进行因果干预。利用初始LLM和Intervened LLM之间的奖励差异作为介入反馈来指导RL FINETUNT,我们提出了C ausality-a ausa a aus a Ware a Ware a Ware a strignment(CAA),用于LLM DEMIAS。在两个具有三个不同对齐目标的文本生成任务上的经验证明了我们在对齐LLMS时的方法,以产生较小的偏见和更安全的输出。
用于光线充足,面向面的条件可能由客户在不理想的条件下应用,从而导致总体和特定子组的降解。第二,我们生活在AI行动主义时代,研究人员,记者和其他外部各方可以独立审核商业或开源API的模型,并在研究社区和主流媒体中发布其发现。在没有更严格的AI和ML监管的情况下,这种行动主义是推动开发ML模型和工具的组织变革的最强大力量之一。它具有利用分布式研究人员的分布团队,在部署的模型和系统中寻找各种各样的问题。不幸的是,ML开发人员与其批评家之间的动态目前具有一些对抗性语气。通常会私下进行外部审计,并在与建立模型和系统的组织进行咨询之前公开播出。该组织可能会忍受批评,并在内部试图解决确定的偏见或问题,但通常与外部审计师几乎没有直接互动。随着时间的流逝,软件和安全社区已经开发了“错误赏金”,以尝试将系统开发人员及其批评家(或黑客)之间的类似动态转变为更具活跃和生产力的目的。希望是,通过故意邀请外部各方在其系统中找到软件或硬件错误,并且通常会为此提供货币激励措施,更健康,更快地响应的生态系统将发展。ML社区自然要考虑一种类似的“偏见赏金”方法来及时发现和修复具有偏见或其他不良行为的模型和系统。不是在软件中找到错误,而是邀请外部各方找到偏见,例如,(人口统计或其他)训练有素的模型表现不佳的输入子组,并以此为其奖励。的确,我们已经开始在此类事件中看到早期的现场实验[6]。在这项工作中,我们提出和分析了针对现有训练的模型F(x)进行偏置赏金的原则性算法框架。我们的框架具有以下属性和功能:
conoraw@princeton.edu First Version: March 2019 This Version: November 2020 We thank Pol Antràs, David Autor, Costas Arkolakis, Gideon Bornstein, Laura Castillo-Martinez, Jonathan Dingel, Pierre-Olivier Gourinchas, Gordon Hanson, J. Bradford Jensen, Thomas Kemeny, Chris Moser, Michael Peters, Esteban Rossi-Hansberg和Steve Redding对有见地的评论和Serena Sampler提供了出色的研究帮助。此处表达的任何意见和结论都是作者的观点,不一定代表美国人口普查局的观点。所有结果均已审查,以确保未披露机密信息。Eckert和Walsh感谢普林斯顿大学的国际经济学部分,其中一些工作已经完成。本文的当前版本取代了“熟练的可交易服务:美国高技能劳动力市场的转型”。
到9岁时,已经证明女孩表现出无意识的信念,即女性偏爱语言而不是数学。这些隐性信念越强,女孩和女性在学校追求数学表现的可能性就越小。这种无意识的信念也被认为在抑制妇女从事科学,技术,工程和数学(STEM)领域的职业方面发挥作用。
学习和深度学习算法的构建方式会在各种环境中(包括工作场所和医疗保健系统)对个人造成偏见和歧视性结果。具体来说,本文将探讨算法偏见,分析它如何侵犯个人根据 1964 年《民权法案》享有的权利 6 并提出可能的补救措施。第二部分将提供算法的描述性背景。然后,第三部分将解释算法偏见。第四部分将讨论种族和性别歧视的历史,并指出它是如何导致今天的算法偏见的。第五部分将描述算法偏见如何通过人类偏见或过度代表或代表性不足的数据收集影响当今社会在就业和医疗保健领域。第六部分将探讨 1964 年《民权法案》对算法偏见的法律影响。最后,第七部分将推荐其他补救措施来消除算法偏见。
摘要本研究提供了对投资者行为及其与尼泊尔金融市场投资决策背景下的各种行为偏见的关键见解。使用结构化问卷从260个单独的投资者收集数据,并应用了层次回归分析来检验假设。该研究确定了影响投资决策的重大偏见,包括锚定偏见,过度自信和放牧。此外,还研究了金融素养作为调节因素的作用,揭示了其对减少这些偏见影响的重要影响。调查结果强调了尼泊尔新兴市场中独特的投资模式,与发达金融市场的既定规范形成鲜明对比。这些结果对于政策制定者,监管机构和股票市场当局来说是有价值的,可以解决投资者行为,增强金融教育并促进知情决策。关键字:投资者行为,行为偏见,金融素养,尼泊尔。
Sherbrooke大学是一家讲法语的机构,以其人类维度,创新的操作风格和与专业人士的合作而闻名。Sherbrooke大学欢迎来自全球102个国家和地区的31,700多名学生。该系由24位积极参与以下研究领域的教授组成:人工智能,生物信息学,健康信息学,人类计算机互动,成像和数字媒体科学等。NLP实验室专注于理解和生成与社会问题有关的各种学科中的文本。其工作包括对可恶内容的识别和缓解,对假新闻的检测,对社交网络表达的立场的分析以及基于神经体系结构的NLP模型中的偏见的解释性和降低。
个人将自己的个人经历和偏见带入与AI系统的互动。9的研究表明,对自动驾驶汽车和自动驾驶汽车技术的更熟悉和直接经验使个人更有可能支持自动驾驶汽车开发并认为安全使用安全。相反,行为科学研究表明,缺乏技术知识会导致恐惧和拒绝,而对特定技术的熟悉程度只会导致其能力过度自信。10越来越多的“无人驾驶”汽车的情况说明了用户的个人特征和体验如何塑造其相互作用和自动化偏见。此外,正如在照明下对特斯拉的案例研究一样,即使是旨在减轻自动化偏见风险的系统改进,面对一个人的偏见,有效性可能有限。
医生之间的无意识偏见会严重影响患者护理,从而导致治疗和结局的差异。这是研究的一些关键见解:1。对治疗决策的影响:无意识的偏见可以塑造医师的行为和决策,通常没有意识。例如,研究表明,与白人患者相比,医生可能更有可能向男性患者推荐某些治疗男性患者,或者与白人患者相比,对黑人或西班牙裔患者提供较少的止痛药物,即使临床表现相似。2。患者 - 医学家相互作用:偏见也会影响医生与患者之间的相互作用的质量。具有高度隐性偏见的医师可能会花费更少的时间与来自少数群体的患者的时间更少,并且提供支持较少的支持。这可能会导致患者认为他们的护理不太患者为中心,这可能会影响他们对治疗计划的信心并遵守医疗建议。3。健康差异:隐性偏见导致更广泛的健康差异。例如,与白人患者相比,患有急性冠状动脉综合征的黑人患者接受适当的疗法的可能性较小。同样,由于隐式性别
