在加纳,AAG 的业务围绕五 (5) 个区域计划开展,办事处位于阿克拉、苏尼亚尼、塔马利、泽比拉和瓦。这使我们能够提供有影响力、包容性和可持续发展的计划,重点关注提高基层权利意识、动员权利人和社会运动建设、能力发展、宣传和活动。AAG 还积极参与国家和全球运动,通过解决贫困和排斥的结构性驱动因素和触发因素,挑战造成不公正和性别不平等的父权制、政治和经济体系。作为 AAG 青年动员、能力建设和行动主义的平台,全球平台 (GP) 的存在为实现这些计划成果提供了独特的优势。
不再是遥远的威胁,气候变化已经在损害人们的健康和生计,并加剧了世界各地的长期不平等现象,随着时间的推移,影响会恶化。在许多社区中,气候变化的影响既是殖民不公正和结构的结果,也是它们加剧的。许多国家的教育模式基于定居者殖民主义,该殖民主义并未完全捕捉不同问题5的相互联系,包括(气候)正义。通常,资源无视土著文化和传统,认为它们无关紧要。气候教育应解构这种世界观并整合资源和材料中的土著知识。这也提供了一个机会,可以探索通常被忽略的气候变化的传统当地解决方案。非殖民化气候教育的一些关键要素包括6:
方舟微电子有限公司保留为提高可靠性、功能或设计而进行更改而不另行通知的权利,以及在不另行通知的情况下停止提供任何产品或服务的权利。客户应在订购前获取最新的相关信息,并应确认此类信息是最新且完整的。所有产品的销售均受订单确认时提供的方舟微电子有限公司条款和条件的约束。方舟微电子有限公司保证其硬件产品的性能符合销售时的规格,并在方舟微电子有限公司认为支持本保证所必需的范围内进行测试、可靠性和质量控制。除非合同协议另有约定,否则无需对每个产品的所有参数进行测试。方舟微电子有限公司不承担因使用本文所述任何产品或电路设计而产生的任何责任。客户对使用方舟微电子有限公司组件的产品和应用负责。为最大限度地降低风险,客户必须提供足够的设计和操作保障措施。方舟微电子有限公司不保证或转让其专利权或他人权利的任何明示或暗示的许可。复制方舟微电子有限公司数据表或数据手册中的信息只有在未经修改或变更的情况下才允许。经任何变更复制此信息是一种不公平和欺骗性的商业行为。方舟微电子有限公司对此类变更的文件不承担任何责任。如果方舟微电子有限公司产品的声明与方舟微电子有限公司对产品或服务所述参数不同或超出其声明的参数,则转售方舟微电子有限公司产品的行为将使对相关方舟微电子有限公司产品或服务的所有明示或暗示的保证失效,并且是一种不公平和欺骗性的商业行为。方舟微电子有限公司对任何此类声明不承担任何责任。
此手稿批判性地研究了面向公共网络的环境健康(EH)和环境正义(EJ)筛查工具的景观,旨在减轻全球死亡人数涉及大量死亡的环境健康危机。这些EJ/EH筛选工具随着公开可用的数据源和计算进步的增长而增强,这些数据源和计算进步促进了新颖的分析,并取得了进步,并朝着使访问EJ/EH信息影响社区的访问方面迈出了发展。这些EJ/EH筛选工具中一些提供的交互式,高度视觉分析可以帮助解决环境不公的作用在加剧环境健康与死亡率相关的原因中的作用,并使受影响的社区能够在EJ/EH努力中发挥更积极的作用。环境不公正是由环境条件引起的,这些环境条件会根据居民的种族,收入水平,国籍以及参与决策过程的水平而对社区的影响有所不同。我们根据包括数据可用性,环境负担和脆弱性的特征,压力源水平的评估以及环境健康和司法分数的解释性,根据参数,包括数据可用性,环境负担和脆弱性的特征来评估所选示例。本评论重点介绍了本地(以美国为中心),国家(以美国为中心)和国际水平的EJ/EH筛选工具的独特功能和局限性。结果强调了需要有效解决社区所面临的独特环境健康负担和脆弱性的强大,可访问和以社区为中心的EJ/EH筛查工具的需求。然后,我们讨论了本调查中明显的未满足需求和主题局限性,与数据可用性,压力源相关性,指标权重分配,行动和干预的阈值值,建模鲁棒性以及适当的社区重点。我们以提出的策略来加强EJ/EH筛选工具开发。
疫情期间,乔·克拉克丢掉了餐饮服务工作,于是申请了失业保险。5州政府的线上平台要求他上传某些文件来证明自己的身份。然而,该平台无法通过智能手机完全访问,而克拉克和三分之一的低收入人群都是通过智能手机上网的。此外,上传文件的说明令人困惑且技术性很强,系统经常被锁定。州政府机构缺少工作人员帮助他操作线上系统。特权阶层在设计这些平台时只考虑了像他们这样的用户,而低收入人群、老年人、非英语人士和没有数字素养的人则难以获得满足基本需求所需的福利。如果平台设计者在测试系统时听取了用户的意见,这些经济不公本来可以避免。
医学中使用的人工智能 (AI) 工具与其他领域中使用的 AI 一样,都是通过检测大量数据中的模式来工作的。AI 工具之所以能够检测到这些模式,是因为它们可以“学习”或被训练来识别数据中的某些特征。然而,使用某种程度上存在偏差的数据训练的医疗 AI 工具可能会出现偏见,当这种偏见与不公正的模式相匹配时,使用这些工具可能会导致不公平和歧视。试图修复用于 AI 训练的有偏见的临床数据等技术解决方案是出于好意,但所有这些举措的基础是这样的观念:有偏差的临床数据是“垃圾”,就像计算机科学谚语所说的“垃圾进,垃圾出”。相反,我们建议将临床数据视为人工制品,经过检查,可以提供有关其所在的社会和机构的信息。
人工智能还具有广泛的社会经济影响。S-BB 对职业领域进行了趋势探索,并指出人工智能的影响在不同的职业和领域之间存在很大差异。4 各种咨询公司估计,生成式人工智能将影响工作,要么取代它们,要么重塑它们(普华永道预计,荷兰 44% 的工作和 74% 的教育工作将高度接触人工智能,波士顿咨询集团的一项实验表明,顾问使用人工智能的工作速度明显更快)5 。这种(感知到的)影响可能导致我们对工作的担忧,以及某些无法跟上潮流的群体被排斥的风险,从而加剧社会的不公平和紧张局势。它迫使我们在更广泛的社会背景下思考人工智能的影响和认知,以确保人工智能系统为所有人的未来做出贡献。
好消息是,虽然人工智能和机器学习技术的复杂性是新事物,但自动决策却并非如此,而且我们联邦贸易委员会在应对使用数据和算法为消费者做出决策所带来的挑战方面拥有丰富的经验。多年来,联邦贸易委员会提起了许多指控我们执行的涉及人工智能和自动决策的法律违反的案件,并调查了该领域的许多公司。例如,1970 年颁布的《公平信用报告法》(FCRA)和 1974 年颁布的《平等信用机会法》(ECOA)都涉及自动决策,金融服务公司几十年来一直在将这些法律应用于基于机器的信用承保模型。我们还利用我们的联邦贸易委员会法案权力禁止不公平和欺骗性的做法,以解决因使用人工智能和自动决策而对消费者造成的伤害。