● HW1:研究过程中的道德规范 - 这项作业将向学生介绍开展公平和道德研究的概念。重点将放在对 IRB 本质的历史理解上。学生将完成 CITI 人类受试者研究培训作为其作业的一部分。● HW2:数据和预测中的偏见 - 学生将学习将基本的数据挖掘技术应用于数据。学生将设计和对大型数据集进行统计测试。这些测试将围绕公平概念以及如何利用技术来识别不公平进行设计。● HW3:NLP 中的偏见 - 学生将学习命名实体识别中的性别偏见。解决这项作业需要基本的自然语言处理技术,包括基于转换器的语言模型,如 BERT。● HW4:网络中的偏见——在这项作业中,学生将学习和应用基本的网络技术来发现网络中的性别偏见。女性在网络中的代表性是更多还是更少?她们是否倾向于占据比男性更高或更低的中心位置?注意:在书面和编程作业中,描述和分析的完整性和清晰度与最终的正确答案一样重要。仅发送单个最终值(即使正确)是不够的。请参阅下表:
本文介绍了一种新颖的“公平性”数据集,以衡量 AI 模型对不同年龄、性别、表观肤色和环境光照条件的稳健性。我们的数据集由 3,011 名受试者组成,包含 45,000 多个视频,平均每人 15 个视频。这些视频是在美国多个州录制的,参与者是不同年龄、性别和表观肤色组的成年人。一个关键特征是每个受试者都同意参与并使用他们的肖像。此外,我们的年龄和性别注释由受试者自己提供。一组训练有素的注释者使用 Fitzpatrick 皮肤类型量表标记受试者的表观肤色 [ 6 ]。此外,还提供了在低环境光下录制的视频的注释。作为衡量跨某些属性的预测稳健性的应用,我们评估了最先进的表观年龄和性别分类方法。我们的实验从公平对待来自不同背景的人的角度对这些模型进行了彻底的分析。
摘要 本章主张采用结构性不公正方法来治理人工智能。结构性不公正包括分析和评价两个部分。分析部分包括社会科学中众所周知的结构性解释。评价部分是一种正义理论。结构性不公正是一个强大的概念工具,它使研究人员和从业者能够识别、表达甚至预测人工智能偏见。本章以人工智能中因结构性不公正而产生的种族偏见为例。然后,本章介绍了哲学家 Iris Marion Young 提出的结构性不公正概念。此外,本章还认为结构性不公正非常适合作为一种人工智能治理方法,并将这种方法与从危害和利益分析或价值陈述开始的替代方法进行了比较。本章表明,结构性不公正为多样性、公平和包容性的价值观和关注提供了方法论和规范基础。本章最后对“结构”和责任的概念进行了展望。结构的概念是正义的核心。一个开放的理论研究问题是人工智能本身在多大程度上是社会结构的一部分。最后,责任的实践是结构性不公正的核心。即使他们不能对结构性不公正的存在负责,每个人和每个组织都有责任在未来解决结构性不公正问题。
❚❤✐S♣♣❛❛✐❛✐ t❤❡❡❝♦♥♦♠✐❝ ♦❢S♦♥T❡R❛❝T✐♦♥♥S✳❙❡❝♦♥❞✱✐T❡①❛♠✐♥♥t❤❡❝♦♥❞✐T✐♦♥S❢♦R♥❣♥❣♥ ❡✣❝✐❡♥❝②❛♥❞❡q✉✐t②✐♥s✉❝❤❛❜r♦❛❞✏S♦♦♦♥♦♥♦♠②♠♦♥❞❝♥♠♦取批次♦♠ ❡✣❝✐❡♥聚♥♥t❤❡st❛♥❞❛♥♥♥❡R❛❧❡Q✉✐❧✐❜R✐✉Q✉✐❧✐❜r✐✉♠♠♦♦♦♦♥T❤❡❡❝♦♥♥♦♥♦♥♠■ s♦♠♦❢T❤❡♠♦StS✐❣♥✐✜❝❛♥T♦ST♦♠♠R❣❡❞❢R❣❡❞❢R♦♠T❤❡❞✐S❝✐S❝✐S❝✐♥❧✐♥❡♦♦♥♦♥♦♥♦?♥wimsst ❢✉♥❞❛♥T❛❧T❤❡♦r❡♠S♦♦♥♦♥♦♠✐❝S✮✱S✮✱T❤❡R♦❧❡♦❢♦❢❛❛♥✐♥❝♦♦♦♦r❞✐♥♥❛♥❛♥♥♥♦♥♦♥♦♥♦♠♠t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐t✐✈✐ t❤❡r❡❧❛t✐♦♥❜❡♥♥❡✣❝✐❡♥❝②❛♥❞❡×t②✱t❤❡✇❡❧❢❛r❡❡✛❡❝ts♦❢♣R♦✜T✲T✲♠❛①✐♠♠♦♥♥❛♥❛♥❞♥❞♥T❡R❡Str❡st❡T❡t❡t❡t❡t❡t❡t❡t❡t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐t✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐T✐❧✐② ♦❢r❡❞✐str✐❜✉t✐♦♥✱T❤❡S♦✉R❝❡S♦❢♠❛r❦❡t❞✐S❝S❝S❝S❝S❝S❝S❝M✐♥❛♦♥♥✱❛♥❞♥❞♥❞T❤❡❡①♦♦✐T❛t❛t❛t❛t❛♦♥♥♦♥♦❢ ❢R♦♠Tr❛❞❡✳❚❤❡S❡✐S❡✐S❡✐S❡✐S❡✐T✐♦♥S❝♦♥ST✐T✉T❡❛T❡❛♥✐♥✐♥RT❛♥T♥T♠♦T✐✈❛T✐♦♥♥R♦R♦R♦r♦r♦✉RS♦✉
公平,多样性和包容性(EDI)差距一直存在于科学,技术,工程和数学(STEM)领域,如歧视,刻板印象和不平等现象所表明的那样,历史上和持久边缘化群体面临的不平等现象。认识到这一差距,导致一个跨学科团队开发了基础电子学习模块,标题为“具有包容性和尊重的互动(FIRE)的基金会,以在不列颠哥伦比亚大学的Okananagan校园内在STEM本科课程中交付的EDI能力。火由通过学习管理系统Canvas提供的在线,异步,自学模块组成。试点测试的反馈消防模块表明STEM学生发现这些模块是相关和有益的。在整个火灾的开发过程中,我们了解了将课程与机构价值观保持一致的重要性,在跨学科团队中工作并进行迭代修改。消防模块的开发和初步可行性的文档旨在帮助正在开发自己的EDI教学材料的其他机构或组织。
机器学习技术越来越多地用于高风险决策,例如大学录取,贷款归因或累犯预测。因此,至关重要的是,确保人类用户可以审核或理解所学的模型,不要创建或再现歧视或偏见,并且不会泄露有关其培训数据的敏感信息。的确,可解释性,公平性和隐私是负责任的机器学习开发的关键要求,在过去的十年中,这三者进行了广泛的研究。但是,它们主要被孤立地考虑,而在实践中,它们相互相互作用,无论是积极还是负面的。在本次调查文件中,我们回顾了有关这三个Desiderata之间相互作用的文献。更确切地说,对于每种成对相互作用,我们总结了认同的协同作用和紧张局势。这些发现突出了几种基本的理论和经验性冲突,同时还指出,当一个人旨在保留高水平时,共同考虑这些不同的要求是具有挑战性的。为了解决这个问题,我们还讨论了可能的调解机制,表明仔细的设计可以成功处理实践中这些不同的问题。
可在 CC0 许可下使用。本文是美国政府作品。根据 17 USC 105,它不受版权保护,并且还提供预印本(未经同行评审认证)是作者/资助者,他已授予 medRxiv 永久展示预印本的许可。此版本的版权持有者于 2022 年 12 月 20 日发布。;https://doi.org/10.1101/2022.12.19.22283681 doi:medRxiv 预印本
摘要算法求程(AR)通过提供可行的建议来解决自动决策中的不利结果。但是,当前的最新方法忽略了特征的相互依赖性,并且不考虑时间维度。为了填补这一空白,时间卡是一种整合时间信息的开创性方法。基于这种表述,这项工作调查了公平的背景,特别关注对边缘化人群群体的影响。由于漫长的等待时间会极大地影响社区的财务,教育和个人生活,探索与时间相关的因素如何影响这些群体的公平待遇对于建议潜在的解决方案以减少对少数人口的负面影响至关重要。我们的发现为对个人需求敏感的更公平的AR技术奠定了基础,最终提出了更公平的建议。
近年来,区块链技术已成为一种工具,具有提高农业供应链中透明度,公平性和可持续性的潜力。这项研究通过解决区块链技术在咖啡链中有助于公平性的潜力的问题,有助于对采用区块链的含义的持续论述。从一个理论框架开始,该框架概念化了Agrifood公平及其与区块链的关系,研究进行了探索,探索了由25个咖啡烘焙师公司商业化的47种咖啡产品中采用的区块链公平性相关信息。目的是评估与烘焙公司和产品相关的特定特征如何影响通过区块链披露的公平相关信息的数量和质量。数据详细说明包括线性多元回归处理信息与咖啡烘焙公司和产品有关的信息,以及评估通过区块链传达的公平信息类型。通过建立这些特征与特定类型的公平性之间的相关性,这项研究表明,某些公司的特征(例如公司的规模和承诺和某些咖啡产品的特征),例如产品讲故事,证书的存在和存在的咖啡包装上的区块链信息 - 咖啡包装上的相关信息与公平信息相关信息,可在Blockchain平台上显示出可用的最终用户。这表明区块链技术可以帮助提高供应链的透明度,并将公平相关信息传达给最终用户。在采用以可持续性为导向措施和适当的公司政策的公司中,其有效性尤其重要。在这些情况下,区块链可以提高面向公平的过程的可见性。
残疾或感到自在。根据法律,员工有权确定有残疾或不识别残疾。但是,根据《 2010年平等法》,“残疾”的法律定义意味着神经化工人可以满足条件;并免受工作中的歧视。这是逐案。