•H.B.252消除了适用于500,000美元以下的收入的较低的4.8%的公司所得税率,所有收入组的统一率为5.9%,于2025年1月1日生效。•H.B.252扩大该州的公司所得税基础,包括f子部分收入在2025年1月1日生效。•该立法还缩小了从水边缘申请小组中排除的所有公司,这些公司的财产,薪资和销售额不到其20%的财产,薪资和销售,这些公司属于美国境内或在美国以外的公司或其财产或领土内有组织或成立的公司,而该公司或其物业,薪资少于销售,销售境内的公司,境内销售范围不到销售,销售境地,境内销售境地,境地销售境地销售境地。•立法消除了从事某些发电的纳税人的单个销售要素分配规则的日期日期,从而使他们能够永久按单个销售要素选择分配业务收入。•H.B.252扩大了某些现有的税收抵免,并创建了与地热耦合热泵,地热电发电单元,电动汽车和电动汽车充电单元有关的几个新税收抵免。
马萨诸塞州格洛斯特——格洛斯特是大开普安地区的重要经济支柱,面临着与马萨诸塞州门户城市类似的挑战,包括确保所有居民都能访问并充分利用在线环境。为了应对这一挑战,格洛斯特市(特别是索耶免费图书馆和市政 IT 部门)一直在与大都会区规划委员会 (MAPC) 合作制定格洛斯特的第一个数字公平计划。该计划是社区如何解决数字鸿沟的路线图,通过帮助缺乏连接的居民更好地访问互联网并获得充分参与数字和日常生活所需的设备和数字技能。格洛斯特市议会于 2024 年 12 月 10 日星期二听取了有关数字公平计划的报告。
在彼得伯勒维多利亚诺森伯兰和克拉灵顿 (PVNC) 天主教区教育局,我们陪伴着一群多元化的学生和教职员工,这反映在《2021-2022 年每个学生都很重要人口普查》、《2023-2024 年学生人口普查》和《2022-2023 年教职员工普查》中。认识到我们实现公平的共同责任,这些反馈论坛展示了我们对协作决策的承诺,并为学生和教职员工提供了分享他们对学习和工作环境的看法的机会。对这些共享信息的分析使 PVNC 天主教学校对存在的结构性不平等和偏见有了更深入的了解,并确认需要继续进行系统变革和转型,以确保被边缘化和服务不足的学生和教职员工能够获得高质量的教育、公平的就业机会和安全,他们根据《教育法》(RSO 1990,c. E.2)、《1993 年就业公平法》(SO 1993,c)有权享有这些机会。 35及其他相关立法。
改变故事VT(CTS)是佛蒙特州妇女基金,佛蒙特州妇女委员会和佛蒙特州妇女工作的伙伴关系计划,致力于促进妇女的经济安全。您可以在www.changethestoryvt.org
数据护理研讨会系列是跨学科和跨部门对话的动态论坛,旨在通过拥抱护理原则来解决公平AI开发和部署的障碍:集体利益,控制,责任和道德的权力。通过超越批评,该混合动力系列旨在激发可行的见解和创新策略,以建立负责任,可持续和包容的AI系统。重点关注多数世界和其他代表性不足的群体,该活动系列汇集了学术界,设计和技术行业的思想领袖,以及公民和政策领域,以探索为公平AI期货的合作创新的关键途径。这是数据护理研讨会系列的第一个,该系列的重点是生成AI工具对具有其他性别认同的妇女,女孩和人员的影响,特别关注全球南方的人群和其他在这些系统的设计和部署中的人口中的人口。我们关注Genai工具在加强和挑战性别不平等方面的含义,并关注工具对隐私,安全,自由和赋权的影响。这个就职研讨会探讨了减轻性别危害和暴力的跨文化,跨学科和跨部门的策略,目的是确保AI系统优先考虑妇女,女孩和边缘化性别群体的需求和权利,以支持其数字福祉和蓬勃发展。此外,我们将通过企业家创新,新颖的设计方法和激进运动来探索创造性的方法来恢复欲望和愉悦。这些鼓舞人心的努力将为可行的途径铺平道德,包容和性别响应的AI创新。
信息系统 (IS) 目前正在经历根本性转变:直到最近,决策支持都是基于规则的确定性算法开发的。然而,随着人工智能 (AI) 的最新进展,这些决策规则已被概率算法(例如深度学习;参见 Kraus 等人)取代。2020 )。概率算法通过从数据中学习现有模式进行推理,一旦部署,就会在某些不确定性下为看不见的数据提供预测。因此,它们容易产生偏见和系统性不公平,从而对个人或整个群体进行差别对待。先前的研究已多次证明人工智能应用缺乏公平性。例如,研究发现,信贷贷款申请的决策支持系统对某些社会人口群体存在不成比例的偏向 (Hardt and Price 2016; O'Neil 2016 )。
● HW1:研究过程中的道德规范 - 这项作业将向学生介绍开展公平和道德研究的概念。重点将放在对 IRB 本质的历史理解上。学生将完成 CITI 人类受试者研究培训作为其作业的一部分。● HW2:数据和预测中的偏见 - 学生将学习将基本的数据挖掘技术应用于数据。学生将设计和对大型数据集进行统计测试。这些测试将围绕公平概念以及如何利用技术来识别不公平进行设计。● HW3:NLP 中的偏见 - 学生将学习命名实体识别中的性别偏见。解决这项作业需要基本的自然语言处理技术,包括基于转换器的语言模型,如 BERT。● HW4:网络中的偏见——在这项作业中,学生将学习和应用基本的网络技术来发现网络中的性别偏见。女性在网络中的代表性是更多还是更少?她们是否倾向于占据比男性更高或更低的中心位置?注意:在书面和编程作业中,描述和分析的完整性和清晰度与最终的正确答案一样重要。仅发送单个最终值(即使正确)是不够的。请参阅下表:
摘要 本章主张采用结构性不公正方法来治理人工智能。结构性不公正包括分析和评价两个部分。分析部分包括社会科学中众所周知的结构性解释。评价部分是一种正义理论。结构性不公正是一个强大的概念工具,它使研究人员和从业者能够识别、表达甚至预测人工智能偏见。本章以人工智能中因结构性不公正而产生的种族偏见为例。然后,本章介绍了哲学家 Iris Marion Young 提出的结构性不公正概念。此外,本章还认为结构性不公正非常适合作为一种人工智能治理方法,并将这种方法与从危害和利益分析或价值陈述开始的替代方法进行了比较。本章表明,结构性不公正为多样性、公平和包容性的价值观和关注提供了方法论和规范基础。本章最后对“结构”和责任的概念进行了展望。结构的概念是正义的核心。一个开放的理论研究问题是人工智能本身在多大程度上是社会结构的一部分。最后,责任的实践是结构性不公正的核心。即使他们不能对结构性不公正的存在负责,每个人和每个组织都有责任在未来解决结构性不公正问题。
决策算法在社会中的存在感如今正在迅速增加,同时人们也开始担心其透明度以及这些算法可能成为新的歧视来源。事实上,许多相关的自动化系统已被证明会根据敏感信息做出决策或歧视某些社会群体(例如,某些用于人员识别的生物特征识别系统)。为了研究当前基于异构信息源的多模态算法如何受到数据中的敏感元素和内部偏见的影响,我们提出了一个虚构的自动招聘测试平台:FairCVtest。我们使用一组有意识地以性别和种族偏见进行评分的多模态合成档案来训练自动招聘算法。FairCVtest 展示了此类招聘工具背后的人工智能(AI)从非结构化数据中提取敏感信息并以不良(不公平)的方式将其与数据偏见结合起来的能力。最后,我们列出了最近开发能够从深度学习架构的决策过程中删除敏感信息的技术的列表。我们使用其中一种算法(SensitiveNets)来实验歧视感知学习,以消除我们多模态 AI 框架中的敏感信息。我们的方法和结果展示了如何生成更公平的基于 AI 的工具,特别是更公平的自动招聘系统。