11 “EU AI Act: first regulation on artificial intelligence,” December 19, 2023 https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial- intelligence 12 Dan Milmo and Kiran Stacey, “Five takeaways from UK's AI safety summit at Bletchley Park,” November 2, 2023 https://www.theguardian.com/technology/2023/nov/02/five-takeaways-uk-ai-safety-summit-bletchley- park-rishi-sunak 13 Kiran Stacey and Dan Milmo, “UK, US, EU and China sign declaration of AI's ‘catastrophic' danger,” 2013年11月1日
我们独特的高速网格路网络使汽车的行程通常很快,容易,与其他城市相比,高峰时段的交通不足很少,平均旅行时间更快。东西方铁路(EWR)将进一步提高我们的出色运输连接,提供与牛津的新铁路链接(由于2025年开放)和剑桥(由于2030年代开放)。Bletchley和Milton Keynes Central将是连接EWR和West Coast Mainline的关键站。HS2开放时,我们的强大南北连通性也将得到改善,为向伦敦和西海岸主线的中部地区提供更频繁的服务空间。
人工智能(AI)深刻地改变了我们的社会,在许多领域中开辟了前所未有的机会。对于这场技术革命使每个人都受益,至关重要的是要确保其负责任和道德发展,并以此为基础。AI引起了对安全和保障的主要关注点,如布莱奇利公园(英国 - 2023年11月)和首尔(韩国 - 2024年5月)的峰会清楚地表明。在预期极端风险或解决已经可见的人时,在国际规模上,一种坚决雄心勃勃的建立信任的方法至关重要。
人工智能(AI)深刻地改变了我们的社会,在许多领域中开辟了前所未有的机会。对于这场技术革命使每个人都受益,至关重要的是要确保其负责任和道德发展,并以此为基础。AI引起了对安全和保障的主要关注点,如布莱奇利公园(英国 - 2023年11月)和首尔(韩国 - 2024年5月)的峰会清楚地表明。在预期极端风险或解决已经可见的人时,在国际规模上,一种坚决雄心勃勃的建立信任的方法至关重要。
当今AI的调节,AI被用于不同的球体,因此需要调节它。 在规范AI中相关的挑战•创新守门:关于AI发展的决策掌握在大型科技公司的手中。 •技术进步:边境AI系统可能会通过使用算法来扩大风险,例如虚假信息。 •技术人性化:在不同国家 /地区在监管AI的方式上建立共识。 o在AI算法偏见可能造成伤害的情况下确定责任是复杂的。 为监管AI•联合国大会(UNGA)采取的关键倡议:采用了具有里程碑意义的决议,以促进“安全,安全和可信赖的”人工智能(AI)系统。 •欧盟:欧盟的AI法案是世界上第一个全面的AI法律。 o将AI系统分为四个层次,不同的层次遵守不同的法规。 •其他:o Bletchley的AI宣言:它是由美国,中国,日本,英国,法国和印度以及欧盟在内的29个国家签署的。 ü目的:解决AI在AI中涉及的风险和责任全面涉及g7的AI,以调节AI:它旨在促进安全,安全和可信赖的AI。当今AI的调节,AI被用于不同的球体,因此需要调节它。在规范AI中相关的挑战•创新守门:关于AI发展的决策掌握在大型科技公司的手中。•技术进步:边境AI系统可能会通过使用算法来扩大风险,例如虚假信息。•技术人性化:在不同国家 /地区在监管AI的方式上建立共识。o在AI算法偏见可能造成伤害的情况下确定责任是复杂的。 为监管AI•联合国大会(UNGA)采取的关键倡议:采用了具有里程碑意义的决议,以促进“安全,安全和可信赖的”人工智能(AI)系统。 •欧盟:欧盟的AI法案是世界上第一个全面的AI法律。 o将AI系统分为四个层次,不同的层次遵守不同的法规。 •其他:o Bletchley的AI宣言:它是由美国,中国,日本,英国,法国和印度以及欧盟在内的29个国家签署的。 ü目的:解决AI在AI中涉及的风险和责任全面涉及g7的AI,以调节AI:它旨在促进安全,安全和可信赖的AI。o在AI算法偏见可能造成伤害的情况下确定责任是复杂的。为监管AI•联合国大会(UNGA)采取的关键倡议:采用了具有里程碑意义的决议,以促进“安全,安全和可信赖的”人工智能(AI)系统。•欧盟:欧盟的AI法案是世界上第一个全面的AI法律。o将AI系统分为四个层次,不同的层次遵守不同的法规。•其他:o Bletchley的AI宣言:它是由美国,中国,日本,英国,法国和印度以及欧盟在内的29个国家签署的。ü目的:解决AI在AI中涉及的风险和责任全面涉及g7的AI,以调节AI:它旨在促进安全,安全和可信赖的AI。
5 澳大利亚工程师协会,《澳大利亚负责任的人工智能:工程视角》,澳大利亚工程师协会对《澳大利亚安全和负责任的人工智能》讨论文件的意见书,2023 年 7 月,第 4 和第 5 页 6 CrEAte Digital,《工程师应对人工智能崛起所需的五项关键技能》,2023 年 11 月 16 日,https://createdigital.org.au/the-five-key-skills-engineers-need-to-navigate-the-rise-of-ai/ 7 澳大利亚工程师协会,《澳大利亚负责任的人工智能:工程视角》,澳大利亚工程师协会对《澳大利亚安全和负责任的人工智能》讨论文件的意见书,2023 年 7 月,第 9 页 8 澳大利亚工业和科学部长在人工智能安全峰会上签署布莱切利宣言,2023 年 11 月 3 日, https://www.minister.industry.gov.au/ministers/husic/media-releases/australia-signs-bletchley-declaration-ai-safety-summit
1. 简介 1 2. 什么是人工智能? 2 2.1. 人工智能定义 2 2.2. 人工智能的种类 4 3. 英国的人工智能行业 5 4. 英国政府对人工智能的看法:重点 6 4.1. 英国产业战略(2017 年) 6 4.2. 国家人工智能战略(2021 年) 6 4.3. 人工智能白皮书:支持创新的人工智能监管方法(2023 年 3 月) 8 4.4. 下议院关于人工智能治理的中期报告(2023 年 8 月) 9 4.5. 英国布莱切利园人工智能安全峰会(2023 年 11 月) 11 4.6. 关注人工智能的英国政府机构 11 5. 国际事件 13 5.1. 美国 13 5.2. 欧盟 13 6. Demos/GovAI 圆桌会议反思 14
19 参见 2023 年 11 月 1 日至 2 日参加人工智能安全峰会的国家发表的《布莱切利宣言》 20 Benedict Evans 对市场参与者和监管机构之间的反复争论进行了有益的解读,并指出人们或科技公司对新法规说“不”通常有三个原因。第一个原因,他将其描述为默认原因,是他们不喜欢它。即使改变是可能的,也可能很尴尬、不方便或昂贵。所以他们反对它。第二个原因是,拟议的变更将产生监管机构没有意识到的严重意外后果。他列出的说“不”的第三个原因是,监管机构的提议即使可取,也可能在技术上根本不可能。(Benedict Evans,2023 年,《当科技说‘不’时》)
3 James Small,《模拟替代品。1930-1975 年英国和美国的电子模拟计算机》,伦敦 2001 年。James Small,《通用电子模拟计算:1945-1965》,IEEE 计算史年鉴,第 15 卷(1993 年),第 2 期,第 8-18 页。Chris Bissell,《一场伟大的消失:电子模拟计算机》,IEEE 电子史会议,2004 年 6 月 28-30 日,英国布莱切利。 4 Datamation,1961 年 5 月 8 日。有关兰利计算的社会历史,请参阅 Margot Shetterly 的《隐藏的人物:帮助赢得太空竞赛的非裔美国女性不为人知的故事》,伦敦 2017 年。5 Hewitt Philips,《航空研究之旅:美国国家航空航天局兰利研究中心的职业生涯》,《航空航天历史专著》,第 12 期,第 6 章,华盛顿特区,1998 年。6 Henry Paynter,《电子模拟艺术重写本》,波士顿 1955 年。