摘要AI中的公平性话题,如命运(AI)社区中的命运(公平,问责制,透明度和道德规范)所引起的,在过去几年中引发了有意义的讨论。但是,从法律的角度来看,特别是从欧盟法律的角度来看,仍然存在许多公开问题。算法公平旨在减轻设计级别的结构不平等,而欧洲非歧视法是针对部署AI模型后的个体歧视案例量身定制的。AI ACT可能会通过将非歧视责任转移到AI模型的设计阶段来弥补这两种方法迈出巨大的一步。基于对AI法案的综合阅读,我们对法律以及技术执行问题发表评论,并提出对偏见检测和偏见校正的实际含义,以指定并符合特定的技术要求。
我写信是为了分享有关学校和其他接受美国教育部 (Department) 联邦财政援助的机构的联邦民权义务的信息,以确保根据《1964 年民权法案》第六章及其实施条例 (Title VI) 不因种族、肤色或国籍(包括共同祖先或族裔特征)而受到歧视。这些保护延伸到学生和学校社区成员,他们由于共同祖先或族裔特征而被视为犹太人、以色列人、穆斯林、阿拉伯人、锡克教徒、南亚人、印度教徒、巴勒斯坦人或任何其他信仰或血统。本指南回应了最近向教育部民权办公室 (OCR) 提交的越来越多的投诉,这些投诉指控在为学前班至 12 年级学生以及学院和大学提供服务的学校中存在基于这些原因的歧视,1 以及公众对此类歧视的报告。需要明确的是,第六章对基于种族、肤色和国籍的歧视的保护包括反犹太主义和其他基于共同祖先或族裔特征的歧视形式。 OCR 大力执行这些保护措施。
新兴奖学金表明,欧盟的法律歧视法律概念 - 以保护特征为由给予不同的待遇 - 可能适用于各种算法决策背景。这具有重要的含义:与间接歧视不同,直接歧视框架中通常没有“客观理由”阶段,这意味着直接歧视性算法的部署通常是非法的。在本文中,我们专注于在算法上下文中最有可能直接歧视的候选人,称为固有的直接歧视,其中代理与受保护的特征无疑地联系在一起。我们借鉴了计算机科学文献,暗示在算法背景下,“基于治疗的理由”需要从两个步骤中理解:代理能力和代理使用。只有在两个要素才能指出的情况下才能指出歧视是“基于”受保护的特征。我们分析了我们提议的代理能力和代理使用测试的法律条件。基于此分析,我们讨论了可以开发或应用以确定算法决策中固有直接歧视的技术方法和指标。
“红线”等政策的遗产是分区城市创建种族分离的社区并限制某些人口更健康的社区的过程 - 尽管数十年来是非法的,但仍对有色社区产生了持久和长期的负面影响。32尽管不再被贷款人明确地认为“危险”,但它们仍然被视为贫困或有风险的投资。这些歧视性实践中的某些实践与强调红线等政策相同的种族主义所延续。其他人是由于已深入编码信用评分系统的偏见而导致的,这使得生活在这些社区中的潜在租房者和购房者似乎不值得信誉,并且可以推动歧视。33如果没有获得良好的信用,租金,购买或维护健康的房屋可能会很困难,并且受影响的社区可能会更迅速地失修。
摘要:早期阿尔茨海默病 (AD) 和额颞叶痴呆 (FTD) 具有相似的症状,这使其诊断和制定特定治疗策略变得复杂。我们的研究评估了多种特征提取技术,用于从脑电图 (EEG) 信号中识别 AD 和 FTD 生物标志物。我们开发了一种优化的机器学习架构,该架构集成了滑动窗口、特征提取和监督学习,以区分 AD 和 FTD 患者以及健康对照 (HC)。我们的模型具有 90% 的滑动窗口重叠度、SVD 熵用于特征提取和 K 最近邻 (KNN) 用于监督学习,在区分 AD 和 HC、FTD 和 HC 以及 AD 和 FTD 方面分别实现了 93% 和 91%、92.5% 和 93% 以及 91.5% 和 91% 的平均 F1 分数和准确率。特征重要性阵列是一种可解释的 AI 特征,它突出显示了有助于识别和区分 AD 和 FTD 生物标志物的脑叶。这项研究引入了一种使用 EEG 信号检测和区分 AD 和 FTD 的新框架,满足了对早期准确诊断的需求。此外,还记录了滑动窗口、多特征提取和机器学习方法对 AD/FTD 检测和区分的比较评估。
使用算法个性化价格不再是一种边缘现象,而是许多在线市场中主要的商业实践,在许多在线市场中,跟踪消费者每次点击都是行业标准。看似无关,几十年来,消费者保护法一直基于以下前提:消费者缺乏有意义的交易权力,无法就合同条款进行讨价还价。本文提出,根据消费者的行为,越来越多地使用算法来设定个性化价格,这为消费者提供了通过算法超过价格和收回市场能力来“讨价还价”的道路。为了支持这一点,本文介绍了在线实验室环境中进行的新型预注册,兼容的随机实验的结果,该实验测试了消费者是否以及如何在给出机会时用算法超过价格,以多个回合为参与者提供10美元的礼品卡,以10美元的价格购买Algorithm,以基于参与者的购买决定,这是一项基于Algorithm的价格,该赠品是基于参与的购买效果。这项研究进一步探讨了使用来自在线消费市场中通常部署的消费者和数据保护法的工具来调节算法定价的潜力:披露授权,防止数据收集的权利(“ cookies Laws”)(“ cookies Laws”)(“ cookies Laws”)以及防止数据保留的权利(“擦除法律”或“擦除法律”或“遗留在“遗忘”))。我们发现明确的证据表明,参与者在战略上避免了他们本来会诱发随后的回合降低价格的购买,以及一些证据表明,这种行为有时以避免有效购买的代价是出于避免有效购买的代价,而当提供的价格低于分配给礼品卡的价值参与者。We found that both these effects increased in magnitude and statistical significance in the presence of disclosure, as well as clear evidence that participants offered data protection rights used them strategically: preventing retention or collection of their data in rounds in which they purchased the gift card, so as to prevent a subsequent price increase, and allowing it in rounds in which they declined to purchase, so as to signal a low WTP and benefit from a price decrease in the next round.
bio:FabianLütz是洛桑大学(UNIL)的博士候选人,他专门研究欧洲法律,性别平等和非歧视法,AI法规和算法歧视。他在法国学习法律(许可证和德国的Maîtriseen Droit),德国(第一和第二法律州考试)和比利时获得了法律学士学位。在布鲁日的欧洲学院欧洲法律和经济分析中。从2015年到2020年,吕兹先生在欧洲委员会的性别平等部门担任法律官员。以前,他曾在比利时和德国的律师事务所工作。他已经广泛发表关于性别平等,人工智能和算法歧视,并在学术会议上定期讲话。最近,他在《牛津大学人权与人工智能》出版社(2023)中写了有关人工智能和基于性别的歧视的一章(Quintavalla Alberto,tempman jeroen))。