经合组织凭借其 2019 年原则,在定义人工智能 (AI) 可信开发和使用的全面政策原则方面处于领先地位。这些原则旨在减轻人工智能的一些最重大风险,包括工人流离失所、不平等现象扩大、侵犯个人隐私和安全,以及不负责任地使用不适合当时情况或可能造成伤害的人工智能。2023 年最后一个季度发生了几件重要事件和报告,旨在推动人工智能的安全实施,从白宫关于安全、可靠和可信地开发和使用人工智能的行政命令;到 G7 人工智能行为准则;布莱切利园的人工智能安全峰会;关于欧盟人工智能法案的临时协议;在卫生领域,世卫组织对人工智能的监管指导(美国白宫,2023 年 [1] ;世界卫生组织,2023 年 [2] ;欧盟委员会,2023 年 [3] ;人工智能安全峰会,2023 年 [4] ;欧洲议会,2023 年 [5] )。
人工智能 (AI) 的最新发展为生命科学的发现和创新带来了许多积极的好处,但也可能增加生物滥用的威胁(人工智能首尔峰会,2024 年;布莱切利宣言,2023 年;行政命令 14110,2023 年)。人工智能改变生物风险格局的程度(如果有的话)尚未得到全面评估。具体而言,人工智能引起的生物滥用风险的经验证据基础极其有限。兰德公司和 OpenAI 进行了实验,以评估威胁行为者理论上可以从大型语言模型 (LLM) 提供的信息访问中获得的提升(Mouton 等人,2024 年;Patwardhan 等人,2024 年)。这些研究模拟了有限数量的威胁行为者类别 5,并且仅评估了获取信息带来的提升——这是人工智能可能为此类行为者提供提升的少数理论途径之一(Sandbrink,2023 年;Walsh,2024 年)。
英国对联合国裁军事务办公室表示赞赏,并荣幸地根据大会于2023年12月22日通过的第78/241号决议提供有关致命的自治武器系统的意见。人工智能(AI)从根本上改变了我们社会的许多方面,并将改变我们面临的威胁和对它们的反应方式。致力于维持全球和平与安全的州将需要接受AI在竞争,动荡和具有挑战性的国际环境中维持稳定的机会。尽管如此,英国认识到其采用引起了社会问题,并对已建立的军事治理和保证系统构成了挑战。这要求我们仔细考虑如何确保我们对安全,安全和和平的国际社会的总体共同目标不会受到破坏。英国在AI的监管方面正在领导努力。英国的AI安全峰会,导致了Bletchley声明,以及我们的国家AI战略,AI安全研究所和负责任的技术采用部门,提倡部署和使用安全,法律,道德和负责的AI。任何英国使用AI来增强国防进程,系统或军事能力的均受英国国防AI道德原则的约束,这是我们的“雄心勃勃,安全,负责任的”政策中规定的。摘要
1 生成式人工智能描述了可用于创建新内容(包括文本、音频、图像或视频)的算法。2 OpenAI 的 ChatGPT 现在每周有 1 亿活跃用户。https://tcrn.ch/3FOwJCO 3 教育中的 ChatGPT:全球对人工智能创新的反应 https://www.nature.com/articles/s41598-023-42227-6 4 Microsoft Inspire https://news.microsoft.com/inspire-2023/ 5 人工智能不会消灭我们的工作——但它会让工作变得更糟 https://www.washingtonpost.com/made-by-history/2023/06/19/ai-chatgpt-jobs-unions/ 6 人工智能如何创造新的工作?https://www.forbes.com/sites/forbesbusinesscouncil/2023/07/26/how-does-artificial-intelligence-create-new- jobs/?sh=43e24fc52586 7 秘书长强调人工智能可以推动人类取得非凡进步,新成立的高级咨询机构“是起点” https:// press.un.org/en/2023/sgsm22007.doc.htm 8 参加 2023 年 11 月 1 日至 2 日举行的人工智能安全峰会的国家发表的《布莱切利宣言》 https://www.gov.uk/government/publications/ai-safety-summit-2023-the- bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 9 拉丁美洲和加勒比地区人工智能伦理论坛 https://foroialac.org/en/ 10 人工智能伦理 https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
1 月 12 日,星期二 计算机控制评论 (18:00) SLH Clarke 先生,电子及无线电工程师学会,9 Bedford Square, London WCI。 射电天文学的最新趋势 (19:30) MJS Quigley 先生,电气工程师学会,PO 学院,Horwood House, Bletchley, Bucks。 盘式制动衬块磨损评估 (18:00) MW Moore 先生和 B. Walton 先生,机械工程师学会,I Birdcage Walk, London SWI。 考古学中的电子技术 (18:30) ET Hall 先生,电气工程师学会与 Famborough 地区考古学会联合举办,Famborough 技术学院,Famborough, Hampshire。 希思罗机场波音 747 飞机的 01 号机库 (19:30) KJ Joyner 先生、ZS Makowski 教授和 RG Taylor 先生,土木工程师学会,Great George Street, London SWI。混合计算机 (18:30) J. Nelson 先生,利兹大学电气工程师学会。 太空冶金学 (18:15) G. Llewelyn 先生,泰恩威尔冶金学会,纽卡斯尔大学。 机床数控 (18:00) DF Walker 先生,爱丁堡卡尔顿酒店电气工程师学会。 汽车冷启动系统的统计评估 (19:30) T. Ince 先生,伯明翰大学环境工程师学会。
来自艾米丽·达林顿(Emily Darlington)的词,成人,住房和健康社区的内阁成员米尔顿·凯恩斯市议会(Milton Keynes Council)认为,每个人都应该得到良好的生活质量,健康,安全,并在某个地方可以打电话给家。采用与社区合作伙伴,利益相关者和更广泛的公众一起工作的多机构方法,帮助我们制定了新的无家可归和粗暴的睡眠策略。我们认识到,无家可归的人比睡觉的人更广泛,包括生活在不安全的住宿中的人。我们也理解无家可归是一个复杂的问题,很难描述并且没有简单的解决方案。应对这一挑战需要新的思考,并且需要我们将新方法应用于旧问题,因为我们致力于最大程度地减少重复和长期无家可归的目的,并支持个人和家庭找到可持续的长期解决方案,重点关注他们的需求和愿望。该战略旨在与社区和合作伙伴一起解决这个具有挑战性的问题,他们将支持我们为使用我们服务的人提供服务。至关重要的是我们如何解决此问题,包括与经验经验或受到无家可归者影响不成比例的个人,以帮助塑造我们的服务,以便他们最好地满足访问这些服务的人的需求。我们欢迎您的支持。Cllr Emily Darlington Labor和Bletchley East内阁成人,住房和健康社区成员的合作委员
人工智能的监管 如今,人工智能正被应用于不同的领域,因此需要对其进行监管。 监管人工智能面临的挑战 • 创新把关:人工智能发展的决策权绝大多数掌握在大型科技公司手中。 • 技术进步:前沿人工智能系统可能会通过使用算法放大虚假信息等风险。 • 技术人性化:在不同国家之间就如何监管人工智能达成共识。 o 在人工智能的算法偏见可能造成伤害的情况下确定责任是一个复杂的问题。 监管人工智能的主要举措 • 联合国大会(UNGA):通过了一项关于促进“安全、可靠和值得信赖”的人工智能(AI)系统的里程碑式决议。 • 欧盟:欧盟的《人工智能法案》是世界上第一部综合性的人工智能法。 o 它将人工智能系统分为四个风险等级,不同等级受不同的监管。 • 其他: o 人工智能布莱切利宣言:由美国、中国、日本、英国、法国、印度和欧盟等 29 个国家签署。 ü 目标:全面解决人工智能所涉及的风险和责任 o G7 的广岛人工智能进程 (HAP) 来规范人工智能:旨在促进安全、可靠和值得信赖的人工智能。
评估先进人工智能系统的风险提出了新的挑战,这些系统包括被称为前沿人工智能系统、双重用途基础模型、通用人工智能模型和先进生成人工智能系统的系统。先进人工智能系统在广泛的环境中都具有能力,因此它们可能会被意外或故意地使用和滥用,而且很难预测、衡量和缓解。应对这些挑战是国际人工智能安全研究所网络使命的核心。根据《布莱切利宣言》和《首尔意向声明》中的承诺,以及经合组织、七国集团广岛进程、前沿人工智能安全承诺和其他相关举措取得的进展,国际人工智能安全研究所网络在本文件中强调了先进人工智能系统风险评估的六个关键方面。该网络致力于在这六个关键方面的基础上建立先进人工智能系统风险评估的共享科学基础。这可能涉及进行联合风险评估和合作科学研究,认识到先进人工智能风险评估的科学和实践在不断发展。各个网络成员保留灵活性,可根据国际和国内框架进行、应用和调整任何风险评估或风险收益权衡。先进人工智能系统风险评估的关键方面:
Alan Mathison Turing于1912年6月23日出生于伦敦。在1934年,他毕业于剑桥大学国王学院,并于1936年获得博士学位。来自普林斯顿大学,位于美国新泽西州。在1940年,他在布莱奇利公园(Bletchley Park)为传播部门工作,使用Colossus Machine来破译纳粹代码。战后,他搬到了伦敦附近泰丁顿的国家实验室。1947年,他回到剑桥大学,1951年,他去了曼彻斯特大学。图灵是计算机科学的开国元勋之一。他取得了理论上的结果,深刻影响了其发展,包括技术。他是第一个解决人造思想主题的人,他发起了一个名为“图灵测试”的挑战,该挑战直到最近才被机器传递。测试是基于“模仿游戏”的概念实验,在他的时代非常受欢迎。在图灵的版本中,一个人向其他两个人(一个男人和妇女)提出问题,试图发现女人是谁,谁是男人。图灵通过用机器代替妇女(或人),并要求发问者找出谁是机器。图灵认为,如果一台机器可以欺骗人类,那么机器将有能力思考。许多人批评了这种推理,指出实验的唯一结果是欺骗能力,而不是思考能力的现象学证明。»以及当时提出的提案,使用简单的测试来回答。他的1950年论文《计算机和英特尔》(Intel-Ligence)发表在《杂志》中,始于著名的问题«机器可以认为吗?这篇文章非常详细且复杂,包含了潜在对立
前言 本数字战略概述了米尔顿凯恩斯市议会的愿景,即创建一个世界领先的数字城市,一个拥抱创新、促进高质量就业并为其公民和企业提供无缝数字连接的城市。米尔顿凯恩斯是一个永不停歇的地方,创新受到欢迎。我们对米尔顿凯恩斯的未来充满雄心,并认识到要成为一个真正的数字城市,我们需要与我们的客户、企业和合作伙伴合作。我们认识到,虽然地方当局无法像私营企业一样利用新技术,但我们作为推动者可以发挥重要作用,正如我们通过 MK Smart 等世界领先的项目所做的那样,MK Smart 因其开创性的工作而闻名,尤其是在交通创新方面。我们在本战略中概述的三个优先事项是:数字连接、数字服务和数字经济。这些优先事项确保与数字服务的物理连接到位,作为合作伙伴和推动者,为居民和企业创造尽可能最佳的数字环境,以充分利用数字连接。通过布莱切利园具有国际意义的遗产,我们的独特传统将得以传承,我们将成为培养数字技能和技术先锋的地方。展望未来,我们将确保米尔顿凯恩斯处于理想位置,充分利用继续投资下一代连接、竞标试验和尽可能争取政府资助的机会。