2011 年初,阿拉伯世界开始经历一场系统性的政治变革,最初被称为“阿拉伯之春”,尽管随着时间的推移,人们越来越多地用不那么乐观的词来描述这些发展。这场斗争始于突尼斯和埃及,一些长期存在的独裁政权被推翻或至少从根本上受到挑战,因为沮丧的公民寻求结束独裁国家固有的腐败和滥用职权。继突尼斯和埃及之后,也门迅速经历了严重的街头骚乱,矛头指向阿里·阿卜杜拉·萨利赫 30 多年的总统任期。萨利赫为保住权力而奋斗了一年多,但最终未能如愿,因为愤怒的公众和国际社会对他政权腐败和暴力的不满。在巨大压力下,萨利赫总统于 2011 年 11 月根据海湾合作委员会 (GCC) 过渡文件提出的条件将执政权移交给副总统阿贝德·拉布·哈迪。他正式担任总统(但没有总统职权),直到全民公投式选举确认哈迪为继任者。哈迪总统于 2012 年 2 月上任,他不仅面临着改革的迫切要求,而且还面临着也门南部强大而充满活力的叛乱。阿拉伯半岛基地组织 (AQAP) 叛乱与民主示威者的活动没有任何联系,但它
10 Katz (2019)。政府强制私营部门停工的非必要支出占比尚未衡量,这表明假期周末法应得到更多重视。另一方面,Bick 和 Blandin 的新数据可能更接近政府停工法。鉴于我得到两种方法几乎相同的结果,它们的权重对分析并不重要。11 使用他们的劳动力不同于将劳动力留在工资单上。仍在工资单上的未使用工人不会对当前产出做出贡献。12 Barro、Ursúa 和 Weng (2020) 估计,如果 COVID-19 疫情是 1918 年西班牙流感的缩小版,实际 GDP 将下降不到 8%。作者指出,当前的疫情的独特之处在于“各国一直在推行降低实际 GDP 的政策”,而这正是本报告的主题。纵观当前的疫情,Eichenbaum、Rebelo 和 Trabandt (2020) 估计,总消费和 GDP(他们的模型中没有投资)将下降高达 20%。13 我通过以下假设得出这一范围:(i) 2020 年 2 月在家就业的比例为 10%,与 Bick 和 Blandin 对 2017 年和 2018 年 3 月 ATUS 的估计相符;(ii) 以前在家工作的人保住工作的可能性更大;(iii) 以前在家完成的工作现在都不在户外完成了。
2001 年 9 月 11 日星期二,艾尔文·恩洛开车送妻子去拉瓜迪亚机场。他快到布鲁克林电池隧道时,搞不清楚去机场的方向。他左转,大约在上午 9:50 时发现自己已经进入隧道。北布伦瑞克新命运家庭礼拜中心的主教说,他关掉了车载收音机,因为他很担心迷路。他不知道,纽约市和美国正遭受恐怖袭击。恩洛说,当时他的儿子打电话告诉他,一架飞机撞上了世贸中心。当恩洛告诉儿子他在隧道里时,儿子建议他关掉点火开关,从他进来的路出去。恩洛夫妇注意到人们转身跑出隧道,“眼神里满是恐惧”,他们看到后面跟着黑烟和碎石。“我们要么坐在这里等死,要么逃跑等死,”他告诉妻子。在一片恐慌和混乱中,隧道内的一个人说:“它塌了”,所以恩洛认为隧道被毁了。“我真的以为那天我们会死,”他说。他把妻子推到尽可能远的地方,尽管妻子告诉他要保住自己的孩子,但两人还是虔诚地祈祷,看到冲击力有所减弱。他和妻子最终到达安全地带,并帮助老年人和四名智障人士在隧道外上车。
AI 开发人员面临的困境。我们认为,当前 AI 开发中道德实践的方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际实施这种行为会给个人带来不利影响,使他们无法做到这一点,这时就会出现社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正成为当前最具影响力的技术之一,对开发的需求巨大 [ 19 , 68 ]。人工智能领域的进步带来了数据分析和模式识别的空前进步,随后推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。在大多数情况下,所使用的数据都是历史数据,因此可以代表歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术不必具有歧视性,其发展就是不道德的。基于面部识别、智能警务和安全城市系统的大规模监视已被多个国家使用 [ 29 ],社交媒体使用的新闻推送模型会创建回音室并助长极端主义 [ 24 ],自主武器系统正在生产中 [ 38 ]。
人工智能开发人员面临的困境。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会取得最佳结果,但实际实施这种行为会给个人带来不利影响,使他们无法做到这一点,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,因为他们面临社会困境,不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正成为当前最具影响力的技术之一,对开发的需求巨大[19,68]。人工智能领域的进步导致了数据分析和模式识别的空前进步,随后该行业也取得了进展。这一进步主要归功于机器学习,这是一种数据驱动的方法。在大多数情况下,所使用的数据都是历史数据,因此可以反映出歧视性做法和不平等现象。因此,目前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术的发展即使不具有歧视性,也是不道德的。基于面部识别、智能警务和安全城市系统的大规模监控已被多个国家使用 [29],社交媒体使用的新闻推送模型会形成回音室效应并助长极端主义 [24],自主武器系统正在生产中 [38]。
非营利组织中心成立于 1982 年,旨在认识到非营利组织对所有新泽西州居民不可或缺的作用。这种对非营利组织个体和集体活力以促进公共利益的承诺至今仍是该组织发展的动力。新泽西州的非营利社区是强大经济和本州人民充满活力的生活质量不可或缺的一部分。非营利组织通过关爱最脆弱的人群、预防和治疗疾病、保护我们的公园和海滩、提供艺术和文化充实、提供灵感和精神满足、指导我们的孩子、教育青年和成年人、组织社会变革、从婴儿到老年提供重要服务以及作为慷慨、创造力、悲伤和希望的出口,改善了我们的日常生活。非营利组织也是我们经济福祉的重要组成部分,通过直接就业和培训帮助人们找到并保住工作、工资税、与当地商人和企业的关系;以及无数的项目、服务和便利设施,使社区成为雇主、客户和员工访问、居住和工作的有吸引力的地方。我们的社会和非营利组织社区正处于十字路口。疫情、政治分歧和对种族平等的强烈呼吁暴露了严重的不平等现象,以及多年来对关键系统和需求的投资不足——包括非营利组织及其服务的人民和社区,特别是边缘化社区和有色人种。作为非营利组织,如果我们要履行通过我们的使命和行动让社会变得更好的承诺,我们必须重新致力于推进公平社会,并通过我们的直接项目和运营、通过倡导和系统变革,积极反对系统性种族主义和不公正。展望未来,非营利组织中心致力于采用以公平和正义为基础的战略计划,同时推进战略,使中心成为服务社区的独立声音和值得信赖的资源,推动新泽西州所有人繁荣发展。
从吉隆坡到比勒陀利亚,从伊斯兰堡到埃里温——对腐败的担忧在 2018 年引发了世界各地的政治变革。由于有关统治者无耻盗窃的信息越来越难以遏制,公民走上街头要求变革,新的统治者通过投票箱或权力移交站出来承诺建立廉洁的政府。对于 StAR 来说,全球反腐浪潮带来了充满新国家参与的一年:培训执法人员和检察官进行金融调查,帮助各国出台新立法以确保当权者申报资产,最重要的是,在财富被掠夺的国家和财富最终流向的金融中心之间建立新的关系。在乌克兰,StAR 开展了有关访问和使用登记册、金融调查、国际合作和资产追踪开源研究的培训。在阿根廷,我们帮助重新设计了公职人员的资产披露制度和相关立法。在马来西亚,当官员们追查历史上最大的腐败案件之一时,我们为他们引荐了持有部分被盗资产的金融中心的同行,帮助启动了漫长的资产追回程序。在尼日利亚,我们培训了 120 名执法官员如何在调查中使用社交媒体。民众的呼声没有减弱的迹象。就在最近,斯洛伐克选出了一位以反腐败资历为竞选口号的新领导人。欧洲最近发生的银行丑闻肯定会在可预见的未来让金钱和权力的关系成为新闻焦点。但腐败会反击——政治强人会争论、威胁和攻击,以保住权力。我们每前进两步,就会后退一步。我们需要打持久战。这就是为什么我们将继续在世界各地建立反腐败联盟,为各国的资产追回工作奠定坚实而可持续的基础。我们需要跨部门、跨机构、跨边界共同努力,确保私人转移的公共财富回到原主手中。这是我们的使命——这正是我们在 2019 年及以后打算做的事情。—Emile van der Does de Willebois 代表 StAR 团队
人工智能及其所嵌入的自主系统已成为现代数据经济的大脑。因此,它们已开始重塑世界各地的人类价值观、信任和权力。无论是在医学、金钱还是爱情方面,以人工智能形式驱动的技术在我们的生活中发挥着越来越重要的作用。新的人工智能技术可以帮助驾驶汽车、治疗受损的大脑并推动工人提高生产力,但它们也可能威胁、操纵我们并使我们与他人疏远。它们可以让国家相互对抗,但它们也可以帮助全球社会应对从粮食危机到全球气候变化的一些最大挑战。随着我们将更多决定权交给思考机器,我们面临着新的问题,即如何保持安全、保住工作以及对我们生活方向的发言权。人工智能如何发展以及它在我们的生活中扮演什么角色,无论是好是坏,可能取决于我们的种族、性别、年龄、行为、认知能力或国籍。这带来了多重道德和跨文化困境。学生——作为关键的变革者——将了解这些问题以及负责任的设计和有效治理结构的原则,以缓解这些问题并将其转化为丰富社会的机会。 特邀演讲者 在整个旅程中,我们将邀请高级专家和企业家作为特邀演讲者,让人工智能的潜力成为现实! 来自讲师网络的演讲者候选人包括世界经济论坛的人工智能负责人、人道技术中心的领导者、人工智能研究中心的负责人、大型科技公司的人工智能研发和未来负责人、人工智能初创公司的首席执行官、人工智能书籍的作者。课程主题 (1) 全球 AI 创新格局 (2) AI 能做什么和不能做什么 - 炒作与现实 (3) 由内而外:AI 与脑机接口 (4) 绘制道德问题 (5) 由此带来的社会希望与脆弱性 (6) AI 的全球监管和业务治理/合规机制 (7) 道德公司 AI 就绪指数 (CAIR) (8) 负责任的以人为本的用例应用 (9) 勾勒 2030 年“认知社会”中 AI 的未来 (10) AI 解决方案压力测试 (11) 最终客户演示 您的导师 - Olaf Groth olaf.groth@berkeley.edu https://www.linkedin.com/in/olafgroth/
不列颠哥伦比亚省枫树岭:加拿大政府和不列颠哥伦比亚省对 E-One Moli Energy Canada 进行了一项新的重大投资,枫树岭将成为加拿大锂电池行业和全球非车载电池供应的关键地点。今天宣布,这项 2.8 亿美元的联邦和省级投资将用于重建 E-One Moli 在枫树岭的世界一流工厂,以扩大其锂离子电池的生产能力。加拿大总理贾斯汀·特鲁多、不列颠哥伦比亚省省长戴维·伊比与该市和 E-One Moli 的代表一起出席了在枫树岭举行的发布会,加拿大联邦创新、科学和工业部长 Francois-Philippe Champagne 和不列颠哥伦比亚省就业、创新和经济发展部长 Brenda Bailey 也出席了此次发布会。这项投资将把加拿大最大的非电动汽车锂离子电池电芯制造工厂落户枫树岭市的 Maple Meadows 商业园区。新工厂将于 2027 年底投入运营,届时加拿大在全球运输和电子应用电池供应链中的产能将扩大,同时为社区带来就业机会和附带经济效益。作为政府确保关键电池制造设施战略的一部分,加拿大政府将通过战略创新基金的净零加速器计划,为该项目出资 2.045 亿加元支持。不列颠哥伦比亚省政府将为该建设出资 8000 万美元。市长 Ruimy 表示:“E-One Moli 是枫树岭一家受重视的长期雇主,其新清洁技术制造工厂的扩建是支持枫树岭就业创造和增长的经济里程碑。这些投资将有助于保住 100 个现有工作岗位,并在枫树岭经济不断增长的行业中创造多达 350 个新工作岗位,从而使 E-One Moli 成为我们社区最大的雇主。这种对 E-One Moli 等企业的增长和投资符合市议会的战略重点以及城市的经济发展和气候行动战略,通过多元化城市的税基并为可持续社区基础设施的投资做出贡献。”他继续说道,“我们感谢省和联邦政府合作伙伴对这个项目的大量资金投资,以及他们对这个重要行业以及我们的经济和环境的支持。我还要感谢 E-One Moli 在整个过程中与市议会和员工密切合作。这种强大的双向沟通使我们能够非常愉快地到达这个关键点。
开发人员必须将他们的担忧告知管理层,但他们的抱怨可能会遭到冷漠对待,甚至威胁要更换他们 1 。这种情况属于社会困境,我们在本文中的目标是强调人工智能开发人员面临的社会困境对道德人工智能发展的阻碍。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际上实施这种行为会给个人带来不利影响,以至于他们不得不避免这样做,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正在成为当前最具影响力的技术之一,对开发的需求巨大 [ 1 , 2 ]。人工智能领域的进步推动了数据分析和模式识别的空前进展,进而推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。所使用的数据在大多数情况下都是历史数据,因此可以反映歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术即使不具有歧视性,其发展也是不道德的。基于面部识别、智能警务和安全城市系统等大规模监控已被多个国家使用 [3],社交媒体使用的新闻推送模型产生了回音室效应并助长了极端主义 [4],自主武器系统正在生产中 [5]。人工智能伦理领域以及机器学习公平性等子领域发展迅速,例如 [6-9]。然而,目前尚不清楚人工智能开发在实施道德实践方面是否取得了很大进展,也不清楚开发人员是否被授权拒绝参与不道德的人工智能开发。《2021 年人工智能指数年度报告》[ 10 ] 等报告强调人工智能开发伦理缺乏协调。具体来说,该报告的九大亮点之一指出“人工智能伦理缺乏基准和共识”。大型公司(也被称为“大型科技公司”)是开发绝大多数人工智能系统的公司。这些公司对学术界和公众的压力作出了反应,发布了人工智能开发伦理的指导方针和原则。过去几年,这类文件的数量可谓激增 [ 11 – 13 ]。尽管研究人员和社会都认为人工智能开发伦理很重要 [ 14 ],但伦理准则和原则的泛滥遭到了伦理研究人员和人权从业者的批评,他们反对不精确使用伦理相关术语 [ 15 , 16 ]。批评者还指出,上述原则在大多数情况下不具约束力,而且由于其模糊和抽象的性质,在实施方面也没有具体规定。最后,它们没有赋予开发人员拒绝不道德的人工智能开发的权力。成熟的人工智能伦理的后期发展