AI at the Crossroads: Policy, Innovation, and Ethics with Christabel Randolph (CAIDP), Northeastern University, Arlington, VA, January 13, 2025 OECD expert group on AI and public procurement with Merve Hickok (CAIDP), Paris/online, January 15, 2025 International Association for Safe and Ethical Artificial Intelligence with Merve Hickok (CAIDP) and Marc Rotenberg (CAIDP),巴黎,2月6日至7日,2025年AI和新政府与Marc Rotenberg(CAIDP)(CAIDP),文艺复兴时期周末,圣塔芭芭拉,2025年2月17日,将茶撒茶!自动决策中的“有意义”的解释是什么?与Merve Hickok(CAIDP),RightScon2025,Tapei和Online,2月24日至27日,2025年2月27日,AI World Summit与Marc Rotenberg(CAIDP),柏林,3月18日至19日,2025年3月18日至19日,全球架构。与马克·罗滕伯格(Marc Rotenberg)(CAIDP),马德里的全球法律教育,2025年4月9日至10日,AI治理,与马克·罗滕贝格(Marc Rotenberg)(CAIDP),纳塔莉·苏哈(Nathalie Smuha),纳塔莉·苏哈(Nathalie Smuha(Ku Leuven)(Ku lueven),约翰·沙塔克(John Shattuck),约翰·沙塔克(John Shattuck),塔夫茨·弗莱切尔学校(Tufts Fletcher School),其他人,美国国际法律学会,美国国际私人学会,华盛顿DC,4月17日,2002年,2002年,202522222。全世界正在观看,2025年5月22日至24日,数字人文主义会议,马克·罗滕伯格(Marc Rotenberg)(CAIDP),维也纳,5月27日,2025年5月27日
解释被视为通过使其透明的方式来增强对机器学习(ML)模型的信任的一种方式。尽管最初是一种调试工具,但现在也被广泛提议证明基于ML的社会应用预测公平和敏感性(Langer等人)(Langer等人,2021; Smuha,2019年; K a astner等。,2021;冯·埃辛巴赫(Von Eschenbach),2021年;勒本,2023年; Karimi等。,2020年; Wachter等。,2017年; Liao&Varshney,2021年)和法规(解释权(Wikipedia con-trigutors,2025))。但是,如(Bordt等人,2022年),其中许多用例都在对抗性中是对抗性的,在这种情况下,参与方的利益不一致,并受到激励以操纵解释以实现其目的。例如,一家基于ML模型的预测拒绝向申请人贷款的银行有一个令人讨厌的人将无可争议的解释退还给申请人
人工智能的负面影响越来越明显,监管机构面临着平衡人工智能带来的机遇和风险的挑战。欧盟委员会的《人工智能法案》提案承担了这一艰巨的任务。使用拟议的混合方法分析了对该提案的 266 条反馈意见,以解决监管机构未能解决的人工智能的主要负面影响是什么的问题。该研究通过提供跨部门影响的映射并指出其不同特征,为有关人工智能负面影响的文献做出了贡献。通过主题建模发现,人工智能的主要负面影响集中在操纵、生物特征识别系统的使用、对工人和儿童群体的不利影响以及总体上潜在的侵犯人权行为上。引导式仔细阅读已确定影响群体最具代表性的反馈回应,表明影响既是个人的也是社会的,强调了缺乏针对社会层面影响的保护措施的问题。仔细阅读还提供了算法影响描述的用例,举例说明了 Smuha (2021a) 和 Tufekci (2015) 概述的负面 AI 影响的特质。建议通过制定针对社会影响的保护措施并建立补救机制来解决已确定的个人和社会影响,以寻求个人、社区和社会补救措施。在调查的回应中达成一致后,建议建立一个独立的机构,负责测量和监控人工智能系统,以增加有关负面 AI 影响程度及其产生机制的知识库。