1 School of Earth and Environment, University of Leeds, Leeds, LS2 9JT, United Kingdom 2 Energy, Climate and Environment Program, International Institute for Applied Systems Analysis (IIASA), 2361 Laxenburg, Austria 3 Department of Physics and Technology, UiT the Arctic University of Norway, Tromsø, Norway 4 School of Geography, Earth and Atmospheric Sciences, The University of Melbourne, Melbourne,澳大利亚维多利亚州5气候资源,墨尔本,维多利亚州,澳大利亚,6大气,海洋和行星物理,牛津大学,牛津大学,牛津大学,牛津,奥克斯11 3PU,英国7会议,埃克塞特市,埃克塞特市,Ex1 3pb,英国8PB,英国8气候系统研究,芬兰人气候研究所,弗洛鲁斯·布鲁斯·沃特,弗兰德,弗兰德,弗兰德。 1050布鲁塞尔,比利时
在数据密集型科学中,电子基础结构和软件工具链被大量用于帮助科学家管理,分析和共享越来越多的复杂数据[1]。数据处理任务(例如数据清理,归一化和知识提取)需要逐步自动化,以促进性能,标准化和可重复使用。越来越复杂的数据计算和参数驱动的模拟需要可靠的E基础结构和一致的报告,以实现对替代设置的系统比较[2,3]。作为对这些需求的响应,使用工作流执行计算过程的实践已在不同领域(例如生命科学[4,5,6],生物多样性[7],天文学[8],Geosciences [9]和社会科学[10] [10]。工作流程还支持采用新颖的计算方法,尤其是机器学习方法[11],因为可以交换或更新处理管道中的单个组件。
已经写了很多关于Covid-19-19大流行对学生学习成绩和心理健康的影响的文章,并覆盖了“学习损失”和“学习恢复”的大量报道。有据可查的一致数据和数十年的研究表明,自成立以来,教育体系并不是为大批美国学生工作。通过设计,实践或作为过去的挥之不去的遗物,大流行的裸露和加剧的差距和挑战一直存在。不可否认,对于大多数家庭而言,虚拟教育很困难,成千上万的儿童失去了家庭成员,使儿童遭受创伤,悲伤和损失,这使学校迫切需要心理健康支持。此外,在2019-2020学年结束时,当学校在大流行期间关闭时,一些家庭首次看到了他们的孩子如何经历学校,促使许多家庭过渡到家庭学校,有色人种的家庭。1,例如,黑人家庭对家庭学校的决定从3.3%增加到16.1%。2随着我们进入大流行后的康复,至关重要的是,与家庭和社区合作,居中孩子,他们的喜悦,他们的好奇心以及他们获得丰富,刺激性,文化上的教育经验,对学校进行不同的方式进行反思和思考。
算法在我们的私人和公共生活中扮演着许多重要角色。他们产生搜索引擎结果,在社交媒体上组织新闻源,并确定有希望的浪漫伴侣。他们为司法,贷款,社会福利和大学录取决定提供了信息。他们还提出了紧迫和烦恼的道德挑战。例如,美国刑事司法系统中使用的一些算法预测个人是否会累进。著名的是,已经发现这种算法表现出明显的种族和性别偏见,例如将黑人非累犯者评级为比白人非养育者更喜欢重新审判(Angwin等人(Angwin等),2016a,b)。在某种程度上对这种发现的反应中,算法公平的研究在计算机科学,哲学和其他领域中扮演着重要的作用。从这些研究中得出的理论上有趣且在道德上显着发现的是,实施明智的公平概念可以兑现,以付出代价(Corbett-Davies et al。,2017年; Menon和Williamson,2018年; Kearns and Roth,2019年)。
摘要基于预测的决策领域的隐含歧义涉及词典和决策概念之间的关系。该领域的许多文献都倾向于模糊两个概念之间的界限,并且通常只是指“公平的预测”。在本文中,我们指出,在尝试实施算法公平性时,这些概念的差异化是有帮助的。即使公平属性与使用的预测模型的特征有关,更恰当地称为“公平”或“不公平”的是决策系统,而不是预测模型。这是因为公平是关于由决定而不是由预测所产生的对人类生命的后果。在本文中,我们阐明了预测和决策概念之间的区别,并显示了这两个要素影响基于预测决策系统的最终公平属性的不同方式。以及从概念和实际角度讨论这种关系,我们提出了一个框架,以更好地理解和推理在基于预测的决策中建立公平性的概念逻辑。在我们的框架中,我们指定了不同的角色,即“预测模型”和“决策者”,以及每个人都为能够实现系统公平性所需的信息。我们的框架允许对角色的不同责任提出不同的责任,并讨论与道德和法律要求有关的一些见解。我们的贡献是双重的。首先,我们提供了一种新的观点,将重点从算法公平的抽象概念转移到了算法决策的具体背景依赖性的性质,在那里存在不同的参与者,可以实现不同的目标,并且可以独立行动。此外,我们还提供了一个概念框架,可以帮助在公平问题,确定职责并在现实世界中实施公平治理机制,以结构基于预测的决策问题。
开发算法,以帮助雇主评估,评估和做出有关工作申请人和雇员的其他决定。尽管该术语的公开用法正在发展,但国会将“ AI”定义为“基于机器的系统,该系统可以为给定的一组人为定义的目标,做出影响实际或虚拟环境的预测,建议或决定。” 2020年的《国家人工智能倡议法》第5002条(3)。在就业环境中,使用AI通常意味着开发人员部分依赖计算机自己的数据分析,以确定做出决策时要使用的标准。AI可能包括机器学习,计算机视觉,自然语言处理和理解,智能决策支持系统和自治系统。。。。(从某些问题中:评估在1964年《民权法》第VII条第VII标题中使用的软件,算法和人工智能的不利影响|美国平等就业机会委员会(EEOC.GOV)。)
• 其他计划的第一年活动 • 完成向相关部门的演示 • 开始与教师招聘委员会合作 • 与城市健康差异研究与创新中心和社区健康与政策学院联合举办研讨会 • 向加州大学圣地亚哥分校和澳大利亚国立大学提交 NSF 提案
促进种族平等并支持服务不足的社区(包括农村社区、有色人种社区、部落社区、LGBTQI+ 个人、残疾人、妇女和女孩以及受持续贫困影响的社区)不是一次性项目。这是一项代际承诺,需要整个联邦政府的持续领导和责任。在过去三年中,联邦机构与社区、民间社会、私营部门以及州和地方政府合作,积极参与改变联邦政府为美国人民服务的方式的历史性工作,消除政府计划和服务的障碍,并将对平等的关注融入联邦政策制定和服务交付的结构中。