我们还要强调的是,我们不愿意将政府专家组的讨论范围扩大到没有能力对人类造成严重伤害或死亡的自主系统。在这方面,“致命自主武器系统”中的“致命”和“武器”这两个术语至关重要。尽管我们认为,“致命”一词应作更宽泛的解释,即也包括武器可能造成的伤害、损坏和破坏。我们认为,政府专家组的工作不应侧重于非致命自主系统,包括但不限于非致命无人驾驶飞行器 (UAV)、非致命无人地面车辆 (UGV)、没有瞄准能力的无人机等。然而,讨论是否应侧重于具有越来越强自主性的巡飞弹药,这值得进一步分析。
2016 年末,又有四起上诉案件,涉及以下争端:规模庞大的欧盟及某些成员国 – 大型民用飞机(第 21.5 条);俄罗斯 – 生猪;美国 – 反倾销方法(中国);以及美国 – 税收激励。此外,协助专家组的 WTO 秘书处估计,2017 年可能会向各方发布 12 份以上的专家组报告。这些包括规模庞大的美国 – 大型民用飞机(波音)(第 21.5 条);巴西 – 税收措施;以及澳大利亚 – 烟草普通包装争端。这些上诉案件的规模、复杂性和数量将占用上诉机构秘书处人力资源的很大一部分,而且时间非常长。平均上诉率为 68%。因此,上诉机构的工作量预计将大幅增加,而且在可预见的未来仍将如此。
专家组指出,组织必须强调技术将支持编码员履行职责,而不是取代他们。处理复杂案例和 CDI 仍需要人工干预。虽然技术不会取代编码员,但它可以解决许多组织面临的劳动力挑战。通过从收入周期工作量中消除重复的简单任务,组织可以提高员工工作效率,减少雇用和培训更多编码员的需要。专家组指出,自动化的风险很小,因为编码准确性达到或超过了手动编码。建议定期审核,以确保持续的高质量结果。组织必须与其供应商合作,定期审核软件并进行必要的更新,以满足组织的需求并应对不断变化的付款人和监管要求。
本报告反映了自 2017 年 7 月以来三年半的讨论成果,以及由 Aiden Peakman 博士主持的核能机构 (NEA) 先进反应堆系统和未来能源市场需求专家组 (ARFEM) 的四次会议成果。ARFEM 专家组成员名单可在本报告附件中找到。专家组成员参加了与先进反应堆利益相关者社区的四次会议和两次研讨会,代表们介绍了各自国家的相关工作。如果没有他们的宝贵贡献,如果没有帮助收集和汇总本报告信息的众多专家的工作,本报告就不可能完成。核能机构还要向核能机构核能发展和燃料循环技术和经济研究委员会 (NDC) 成员表示诚挚的感谢,感谢他们的宝贵意见。
1 加强多边开发银行:G20 独立专家组三重议程报告,2023 年 9 月 1 日。h-ps://www.gihub.org/resources/publica"ons/strengthening-mul"lateral-development-banks-the-triple-agenda-report-of- the-g20-independent-experts-group/
截至 2023 年 10 月,世界卫生组织 (WHO) 建议使用两种疫苗预防儿童恶性疟疾,这是根据疟疾政策咨询小组和免疫战略咨询专家组 (1) 对 R21/Matrix-M 的联合审查建议。这两种疫苗分别是 RTS,S/AS01 (RTS,S) 和 R21/Matrix-M (R21)。世卫组织 2021 年对 RTS,S 的建议是根据 2019 年在加纳、肯尼亚和马拉维启动的疟疾疫苗实施计划 (MVIP) 的结果得出的。MVIP 证明了疫苗在常规使用中的可行性、安全性和实质性影响。疟疾政策咨询小组和免疫战略咨询专家组在联合审查期间确定了关于 R21 的优先研究问题。因此,世卫组织召集了一个内部协调小组来监测这些研究的启动和结果。
2 IEC - https://ethicsstandards.org/new-iec-white-paper-on-artificial-intelligence/ IEEE - https://ethicsinaction.ieee.org/ ISO - https://www.iso.org/news/ref2336.html ITU - https://news.itu.int/ai-in-2019-where-are-we-and-whats-next/ 欧盟委员会人工智能高级专家组提出《可信人工智能伦理指南》 - https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai OECD - https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 联合国教科文组织 - https://unesdoc.unesco.org/ark:/48223/pf0000367422?posInSet=2&queryId=325cbca9-7ad3-4265-8118-88c3dc451766 3 https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence / 4 https://www.un.org/en/universal-declaration-human-rights/ 例如,请参阅《符合伦理的设计》第 1 版: https://ethicsinaction.ieee.org 和 OECD AI 原则:https://www.oecd.org/going-digital/ai/principles/ 欧盟委员会人工智能高级专家组提出了《可信人工智能道德准则》: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
我感谢各国优秀专家参与指南的编写。与之前的指南一样,欧盟统计局和经合组织的贡献非常宝贵,来自世界各地的国际组织和各个国家的贡献使指南中包含了丰富的实例,有助于我们从各种不同类型的数据共享案例中学习。指南的编写工作已在许多国际论坛上进行介绍,例如由欧盟统计局和经合组织联合组织的联合国欧洲经济委员会国民账户专家组会议、经合组织国民账户工作组、货币、金融和国际收支 (CMFB) 统计委员会、国家账户秘书处间工作组、国民账户咨询专家组、国际统计研究所 (ISI) 世界统计大会以及欧盟统计局的全球综合账户和全球生产项目。我感谢每一位参与讨论、挑战我们的想法并给予我们启发的人。
1 欧盟委员会人工智能高级专家组给出了更完整的定义:“人工智能 (AI) 系统是由人类设计的软件(也可能是硬件)系统,当给定一个复杂目标时,该系统通过数据采集感知其环境,解释收集的结构化或非结构化数据,推理知识或处理从这些数据中获取的信息,并决定为实现给定目标而采取的最佳行动,从而在物理或数字维度上采取行动。AI 系统可以使用符号规则或学习数字模型,它们还可以通过分析环境如何受到其先前行为的影响来调整其行为。” 人工智能独立高级专家组 (2019),《可信人工智能道德准则》,布鲁塞尔:欧盟委员会,https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai。
罗马俱乐部联合主席 研究与创新的经济和社会影响专家组 (ESIR) DGR&I 主席 福祉经济联盟大使 能源转型委员会大使 气候治理委员会委员