已经开发了各种指标和干预措施,以识别和减轻机器学习系统的不公平输出。虽然个人和组织有义务避免歧视,但使用公平感知的机器学习干预措施也被描述为欧洲联盟(EU)非歧视法的“算法正面”。作为欧盟法院在评估积极行动的合法性方面一直是严格的,这将对希望实施公平ML干预措施的人施加重大的法律负担。在本文中,我们建议算法公平干预措施通常应被解释为防止歧视的一种手段,而不是衡量积极行动的方法。具体来说,我们建议此类别错误通常归因于中立性谬误:关于(公平意识)算法决策的中立性的错误假设。我们的发现提出了一个问题,即在算法决策的背景下,是否有歧视歧视的负义务是否足够。因此,我们建议从义务转向“不损害”的积极义务,以积极地“不伤害”作为算法决策和公平的ML间隔的更为适当的框架。
- 哪些参数?例如回声和重复时间,切成订单/时间,… - 哪个单位?秒还是毫秒?- 哪个名字?te / tr,echot / echot / prot,techo / trepeTition,…traw raw json文件,“飞行”与“提取并保存一边”?
已经开发了各种指标和干预措施,以识别和减轻机器学习系统的不公平输出。虽然个人和组织有义务避免歧视,但使用公平感知的机器学习干预措施也被描述为欧洲联盟(EU)非歧视法的“算法正面”。作为欧盟法院在评估积极行动的合法性方面一直是严格的,这将对希望实施公平ML干预措施的人施加重大的法律负担。在本文中,我们建议算法公平干预措施通常应被解释为防止歧视的一种手段,而不是衡量积极行动的方法。具体来说,我们建议此类别错误通常归因于中立性谬误:关于(公平意识)算法决策的中立性的错误假设。我们的发现提出了一个问题,即在算法决策的背景下,是否有歧视歧视的负义务是否足够。因此,我们建议从义务转向“不损害”的积极义务,以积极地“不伤害”作为算法决策和公平的ML间隔的更为适当的框架。
我强调了一个在机器学习的科学应用中普遍存在的问题,它可能导致严重扭曲的推论。我称之为预测-解释谬误。当研究人员使用预测优化模型进行解释而不考虑相关权衡时,就会出现这种谬误。这是一个问题,至少有两个原因。首先,预测优化模型通常会故意产生偏差和不切实际,以防止过度拟合。在其他情况下,它们的结构非常复杂,很难或不可能解释。其次,在相同或相似数据上训练的不同预测模型可能会以不同的方式产生偏差,因此它们可能预测得同样好,但给出的解释却相互矛盾。在这里,我以非技术性的方式介绍了预测和解释之间的权衡,并提供了来自神经科学的说明性示例,最后讨论了一些可用于限制问题的缓解因素和方法。
魏森鲍姆一生中的大部分时间都在警告人们将人类特质投射到人工智能上会带来危险。本论文同样通过主要关注人工智能拟人化的一些负面伦理后果,对人工智能的拟人化进行了研究。对这些后果进行详尽的分析几乎是不可能的,但通过关注拟人化作为一种炒作形式和谬论,本文表明了拟人化如何夸大了人工智能系统的能力和性能,以及扭曲了对它们的一系列道德判断。本文的结构如下。在第一部分,本文解释了拟人化的含义,以及这种现象在人工智能领域的一些表现方式。本文重点指出拟人化是围绕人工智能的炒作的一个组成部分。在这种情况下,炒作被理解为对人工智能能力和性能的歪曲和夸大,而炒作的组成部分则被理解为炒作的一部分。在第二部分中,本文表明拟人化通过其谬误性扭曲了道德判断。它通过关注人工智能的四个核心道德判断来说明这一点:关于其道德品质和地位的判断,以及关于对人工智能的责任和信任的判断。第三部分通过提供简短的总结和结论结束了这项工作。* Adriana Placani adrianaplacani@fcsh.unl.pt
我们拥有的光伏或风能设施越多,我们排放的温室气体就越少,因为石油、化石气体或煤炭的燃烧将被我们现在从 NRSRE 获得的能源所取代。这在原则上听起来合乎逻辑,但事实却不支持这一点,因为每增加一台新的风力涡轮机和太阳能电池板都会导致一家煤电厂关闭,或一家石化厂停止使用石油,或一家化石气体化肥厂消失。事实上,任何国家或全球统计数据都可以告诉我们,无论伪可再生能源设施的平行增长如何,化石燃料消费仍在继续增长。要使这一第一个假设成为现实,必须有一些法规强制减少化石燃料总消费量,使其减少程度大于安装 NRSRE 所需的化石燃料消费量,但目前还没有这样的法规。而且,如果有一天有这样的立法和类似的减排,那么正是法律强制的减排才是打击 CC 的,而不是所谓的可再生能源的部署,而可再生能源的部署至少
机构联系人:Denise L. Bonilla 昆虫学家,牛瘟蜱项目协调员 兽医服务 动物和植物卫生检验局 美国农业部 2150 Centre Avenue Fort Collins, CO 80526 根据联邦民权法和美国农业部 (USDA) 民权法规和政策,禁止美国农业部、其机构、办公室和员工以及参与或管理美国农业部计划的机构在任何由美国农业部实施或资助的计划或活动中基于种族、肤色、国籍、宗教、性别、性别认同(包括性别表现)、性取向、残疾、年龄、婚姻状况、家庭/父母状况、从公共援助计划获得的收入、政治信仰或对先前民权活动的报复或报复进行歧视(并非所有依据都适用于所有计划)。补救措施和投诉提交截止日期因计划或事件而异。需要其他沟通方式(例如盲文、大字印刷品、录音带、美国手语等)获取计划信息的残障人士应联系负责机构或 USDA 的 TARGET 中心,电话为 (202) 720-2600(语音和 TTY),或通过联邦中继服务 (800) 877-8339 联系 USDA。此外,计划信息可能以英语以外的语言提供。要提交计划歧视投诉,请填写 USDA 计划歧视投诉表 AD-3027(可在网上找到如何提交计划歧视投诉)或前往任何 USDA 办事处,或写信给 USDA,并在信中提供表格中要求的信息。要索取投诉表的副本,请致电 (866) 632-9992。通过以下方式将填妥的表格或信件提交给美国农业部:(1)邮寄:美国农业部民权助理部长办公室,1400 Independence Avenue, SW, Washington, DC 20250-9410;(2)传真:(202)690-7442;或(3)电子邮件:program.intake@usda.gov。本报告中提及的公司或商业产品并不意味着美国农业部 (USDA) 推荐或认可未提及的其他公司或产品。美国农业部不保证或担保所提及产品的标准。提及产品名称仅是为了根据现有数据如实报告并提供具体信息。
在本文中,我强调了一个问题,该问题在机器学习方法的科学应用中已变得无处不在,并且可能导致对所研究现象的严重扭曲的推论。我称其为预测解释谬误。当研究人员使用预测优化模型来解释目的而无需考虑解释和预测之间的权衡时,就会发生谬误。这是一个问题,至少有两个原因。首先,为了防止过度拟合,预测优化的模型通常是故意偏见和不现实的,因此无法准确解释感兴趣的现象。在其他情况下,它们具有极其复杂的结构,难以解释,这极大地限制了它们的解释价值。第二,在相同或相似数据上训练的不同预测模型可能会以不同的方式偏差,因此多个模型可以很好地预测,但暗示了对基本现象的矛盾解释。在这里,我以非技术方式介绍了预测和解释之间的权衡,从神经科学中提出了一些说明性的例子,最后讨论了一些可缓解的因素和方法,这些因素和方法可用于限制或解决问题。