摘要 本章主张采用结构性不公正方法来治理人工智能。结构性不公正包括分析和评价两个部分。分析部分包括社会科学中众所周知的结构性解释。评价部分是一种正义理论。结构性不公正是一个强大的概念工具,它使研究人员和从业者能够识别、表达甚至预测人工智能偏见。本章以人工智能中因结构性不公正而产生的种族偏见为例。然后,本章介绍了哲学家 Iris Marion Young 提出的结构性不公正概念。此外,本章还认为结构性不公正非常适合作为一种人工智能治理方法,并将这种方法与从危害和利益分析或价值陈述开始的替代方法进行了比较。本章表明,结构性不公正为多样性、公平和包容性的价值观和关注提供了方法论和规范基础。本章最后对“结构”和责任的概念进行了展望。结构的概念是正义的核心。一个开放的理论研究问题是人工智能本身在多大程度上是社会结构的一部分。最后,责任的实践是结构性不公正的核心。即使他们不能对结构性不公正的存在负责,每个人和每个组织都有责任在未来解决结构性不公正问题。
•H.B.252消除了适用于500,000美元以下的收入的较低的4.8%的公司所得税率,所有收入组的统一率为5.9%,于2025年1月1日生效。•H.B.252扩大该州的公司所得税基础,包括f子部分收入在2025年1月1日生效。•该立法还缩小了从水边缘申请小组中排除的所有公司,这些公司的财产,薪资和销售额不到其20%的财产,薪资和销售,这些公司属于美国境内或在美国以外的公司或其财产或领土内有组织或成立的公司,而该公司或其物业,薪资少于销售,销售境内的公司,境内销售范围不到销售,销售境地,境内销售境地,境地销售境地销售境地。•立法消除了从事某些发电的纳税人的单个销售要素分配规则的日期日期,从而使他们能够永久按单个销售要素选择分配业务收入。•H.B.252扩大了某些现有的税收抵免,并创建了与地热耦合热泵,地热电发电单元,电动汽车和电动汽车充电单元有关的几个新税收抵免。
委员会对这个问题的回答是一个明显的“是,但是……”。得出的结论是,这三个指令提供了必要的监管确定性和消费者信任的最低限度,但可以将它们视为仅在数字环境中部分有效。5特别是,它确定了各种持续关注的问题,例如广告和合同前信息的透明度;与指令中没有具体规定的新兴技术和实践相关的问题;监管分裂,破坏了数字单市场;增加了针对消费者保护问题的更广泛的数字特定立法产生的监管复杂性;以及与不足,无效的执法和法律不确定性有关的更多一般性问题。
马萨诸塞州格洛斯特——格洛斯特是大开普安地区的重要经济支柱,面临着与马萨诸塞州门户城市类似的挑战,包括确保所有居民都能访问并充分利用在线环境。为了应对这一挑战,格洛斯特市(特别是索耶免费图书馆和市政 IT 部门)一直在与大都会区规划委员会 (MAPC) 合作制定格洛斯特的第一个数字公平计划。该计划是社区如何解决数字鸿沟的路线图,通过帮助缺乏连接的居民更好地访问互联网并获得充分参与数字和日常生活所需的设备和数字技能。格洛斯特市议会于 2024 年 12 月 10 日星期二听取了有关数字公平计划的报告。
●在奥地利:风险分数将最近的失业者分为(i)在接下来六个月中有良好前景的人; (ii)未来两年前景不良的人; (iii)其他所有人。支持措施针对第三组。仅提供对第一组和第二组的支持有限的支持(Allhutter等,2020)。
在KHI于2024年5月14日举办的一次召集期间收集了有关指南的反馈,标题为“研究中的居中公平:制定实践策略和确定考虑因素”,以及通过事后调查。召集包括来自堪萨斯州各地的约50名利益相关者,他们审查了这些策略并提供了有价值的反馈,后来又将其纳入了指南。该活动的特色是演讲者EusebioDíaz,M.A。,卫生前进基金会策略,学习与沟通副总裁,来自亚利桑那州立大学的香农·波特略(Shannon Portillo)博士,以及密苏里州肯尼亚大学的M.S.C.R. Bridgette L. Jones,M.S.C.R.。演讲者讨论了研究中的当前公平状态,应对挑战并探索未来的机会。
开发算法,以帮助雇主评估,评估和做出有关工作申请人和雇员的其他决定。尽管该术语的公开用法正在发展,但国会将“ AI”定义为“基于机器的系统,该系统可以为给定的一组人为定义的目标,做出影响实际或虚拟环境的预测,建议或决定。” 2020年的《国家人工智能倡议法》第5002条(3)。在就业环境中,使用AI通常意味着开发人员部分依赖计算机自己的数据分析,以确定做出决策时要使用的标准。AI可能包括机器学习,计算机视觉,自然语言处理和理解,智能决策支持系统和自治系统。。。。(从某些问题中:评估在1964年《民权法》第VII条第VII标题中使用的软件,算法和人工智能的不利影响|美国平等就业机会委员会(EEOC.GOV)。)
数据护理研讨会系列是跨学科和跨部门对话的动态论坛,旨在通过拥抱护理原则来解决公平AI开发和部署的障碍:集体利益,控制,责任和道德的权力。通过超越批评,该混合动力系列旨在激发可行的见解和创新策略,以建立负责任,可持续和包容的AI系统。重点关注多数世界和其他代表性不足的群体,该活动系列汇集了学术界,设计和技术行业的思想领袖,以及公民和政策领域,以探索为公平AI期货的合作创新的关键途径。这是数据护理研讨会系列的第一个,该系列的重点是生成AI工具对具有其他性别认同的妇女,女孩和人员的影响,特别关注全球南方的人群和其他在这些系统的设计和部署中的人口中的人口。我们关注Genai工具在加强和挑战性别不平等方面的含义,并关注工具对隐私,安全,自由和赋权的影响。这个就职研讨会探讨了减轻性别危害和暴力的跨文化,跨学科和跨部门的策略,目的是确保AI系统优先考虑妇女,女孩和边缘化性别群体的需求和权利,以支持其数字福祉和蓬勃发展。此外,我们将通过企业家创新,新颖的设计方法和激进运动来探索创造性的方法来恢复欲望和愉悦。这些鼓舞人心的努力将为可行的途径铺平道德,包容和性别响应的AI创新。
摘要 - 机器学习在决策过程中的广泛采用引起了人们对公平性的担忧,尤其是对敏感特征和对少数群体的潜在歧视的治疗。软件工程社区的反应是开发面向公平的指标,经验研究和方法。但是,在整个机器学习生命周期中,理解和分类工程公平的做法仍然存在差距。本文介绍了一种新颖的实践目录,以解决从系统的映射研究中得出的机器学习中的公平性。该研究确定并分类了现有文献中的28种实践,将它们映射到机器学习生命周期的不同阶段。从该目录中,作者提取了可操作的项目及其对软件工程研究人员和从业者的影响。这项工作旨在提供全面的资源,以将公平考虑因素整合到机器学习系统的开发和部署,增强其可靠性,问责制和信誉。