Zürich的博士后研究员和气候变化主席AI,Lynn H. Kaack是该研究的作者之一,名为“通过机器学习解决气候变化”。在她的演讲中,Kaack女士强调需要创建专门的多学科研究中心,以确保必要的技能和资源可用,因为机器学习专家和气候变化专家的工作自然不会重叠。Kaack女士还谈到了人工智能识字和实施能力的民主化,并表示通常AI工程师很昂贵,而且科技公司在招聘方面取得了最大的成功,因此其他组织通常会剩有不足的AI人才。此外,Kaack女士认为,如果我们希望AI在2050年的时间表中为气候行动提供帮助,则应从一开始就将AI以正确的方式应用。她还说,AI不应取代其他脱碳技术,而是要利用它们。
黄热病证书目前是根据《国际卫生法规》在国际层面建立的唯一疫苗接种认证系统。世界卫生组织(WHO)保留了每个国家的黄热病疫苗接种要求和建议清单(以及有关疟疾和脊髓灰质炎疫苗的建议)。许多非洲和南美国家要求(来自所有或某些国家)的旅行者在抵达时显示黄热病疫苗接种的证明。在欧洲,只有阿尔巴尼亚和马耳他有这样的要求(对于来自风险地区的旅行者)。在许多情况下,谁的建议和国家要求之间存在差异。,尽管有建议,但阿根廷,巴西和秘鲁仍未征收疫苗进入要求。1
(c) 航空器失踪或完全无法接近; “委派代表”是指一国根据其资格指派的、为参加另一国进行的调查的人员; “顾问”是指一国根据其资格任命的、为协助其委派代表进行调查的人员; “机场当局”就机场而言,是指管理机场的人员; “航空器”是指在大气中能利用空气反作用力(空气对地球表面的反作用力以外的作用力)获得支撑的任何机器; “原因”是指如若消除或避免则可防止事故发生或可减轻所造成的伤害或损害的行为、疏忽、条件或情况; “首席调查员”是指根据第 8 条任命的首席航空事故调查员; “缔约国”是指《芝加哥公约》的任何缔约国; “促成因素”是指行为、疏忽、事件、情况或其组合,如被消除、避免或不存在,则可降低事故或事故征候发生的概率,或减轻事故或事故征候后果的严重性;“机组”包括运营人在飞行中的航空器上雇用或聘用的与航空器运行有关的所有人员,如果运营人和机长是同一个人,则包括机长;“专家”是指因事故造成其公民死亡或重伤而对事故有特殊利益的国家任命的人员;“致命伤害”是指人员在事故中受到的伤害,并导致其在事故发生之日起 30 天内死亡;“飞行记录仪”是指为补充事故或事故征候调查而安装在航空器上的任何类型的记录仪,包括飞行数据记录仪、驾驶舱语音记录仪和图像记录仪;
1 在基本权利和消费者权利保护方面,欧盟立法框架包括《种族平等指令》(第 2000/43/EC 号指令)、《关于就业和职业平等待遇的指令》(第 2000/78/EC 号指令)、《关于就业方面男女平等待遇的指令》(第 2004/113/EC 号指令)和《关于获得货物和服务的指令》(第 2006/54/EC 号指令)、《不公平商业行为指令》(第 2005/29/EC 号指令)和《消费者权利指令》(第 2011/83/EC 号指令)、《通用数据保护条例》指令以及其他涵盖个人数据保护的部门立法,例如《数据保护法执行指令》((EU) 2016/680 号指令)。此外,自 2025 年起,《欧洲无障碍法》规定的商品和服务无障碍要求规则将适用(指令 (EU) 2019/882)。
人工智能的网络安全 人工智能日益融入我们的日常生活,这要求我们特别注意保护与其使用相关的模型、数据、培训和部署。网络安全是可靠、安全和有弹性的人工智能模型和算法的先决条件。然而,人工智能的网络安全不仅仅是保护人工智能系统免受中毒和逃避攻击等威胁。它还涉及确保它们具有可信度特征,例如人工监督和稳健性——抵御网络攻击的能力,正如欧盟《人工智能法案》对高风险人工智能系统所要求的那样。专家们也强调了对人工智能进行人工监督的必要性。标准可以在确保安全要求(例如数据质量、风险管理和合格评定)融入人工智能系统的整个生命周期方面发挥关键作用。虽然它们为安全、道德和负责任的人工智能开发提供了指导方针,但针对人工智能的欧洲技术标准的制定才刚刚开始,欧盟利益相关者正热切期待这些标准的通过。然而,为各种本质上是黑匣子的人工智能系统制定标准是一项具有挑战性的任务,需要做更多的工作。 2023 年 5 月,欧盟委员会要求欧洲标准化委员会和欧洲电工标准化委员会 (CEN- CENELEC) 制定支持《人工智能法案》的标准,截止日期为 2025 年 4 月。除了 CEN- CENELEC(JTC 13 和 JTC 21 小组)之外,包括欧洲电信标准协会 ( ETSI ) 和国际标准化组织 ( ISO ) 在内的几个标准制定组织也在致力于制定人工智能标准。虽然大多数协调的人工智能专用标准尚未建立,但信息安全(如 ISO/IEC 27001 和 ISO/IEC 27002 )和质量管理(如 ISO/IEC 9001 )的通用标准已经被转置并可部分应用于人工智能系统。在缺乏针对人工智能网络安全的具体标准的情况下,一些政府机构已经发布了自愿的人工智能安全框架,以协助利益相关者保护其人工智能系统、运营和流程。例如,欧盟网络安全局 (ENISA) 发布了良好人工智能网络安全实践的多层安全框架 (FAICP)。FAICP 提供了一种逐步提高人工智能活动可信度的方法。它由三层组成:网络安全基础,侧重于所使用的 ICT 基础设施;人工智能特定方面,侧重于部署的人工智能组件的特殊性;行业人工智能,特定于使用人工智能的行业。同样,美国国家标准与技术研究院 (NIST) 发布了人工智能风险管理框架,以帮助参与设计、开发和实施人工智能的组织。部署或使用人工智能系统,以更好地减轻与人工智能相关的风险,并促进其值得信赖和负责任
随着民间社会和媒体组织揭露欧盟成员国使用 Pegasus 商业间谍软件,欧洲近年来最引人注目的间谍丑闻之一浮出水面。成员国的情报机构被指控滥用高度复杂的间谍软件来监视反对派人物、记者、律师和高级政府官员。“考虑到欧盟对自由、民主和尊重人权和基本自由以及法治的价值观和原则的坚持”,欧洲议会成立了一个调查委员会。本研究 (i) 介绍了 Pegasus 产品的功能和交易实践,(ii) 调查了 Pegasus 的运营和反应,(iii) 确定了横向和国家特定的法律问题,以及 (iv) 概述了公共和私营部门可能的前进方向。
本文件由欧洲议会工业、研究和能源委员会要求提供。作者 James EAGER,CSES Mark WHITTLE,CSES Jan SMIT,CSES Giorgio CACCIAGUERRA,CSES Eugénie LALE-DEMOZ,CSES 外部质量保证意见来自: João MENDES MOREIRA 教授 Anastasio DROSOU 博士 负责管理员 Frédéric GOUARDÈRES Matteo CIUCCI 编辑助理 Catherine NAAS 语言版本 原文:EN 关于编辑 政策部门提供内部和外部专业知识,以支持欧洲议会委员会和其他议会机构制定立法并对欧盟内部政策进行民主审查。如需联系政策部或订阅更新,请写信至: 欧洲议会经济、科学和生活质量政策部 L-2929 – 卢森堡 电子邮件:Poldep-Economy-Science@ep.europa.eu 手稿完成时间:2020 年 6 月 出版日期:2020 年 6 月 © 欧盟,2020 本文件可在互联网上获取:http://www.europarl.europa.eu/supporting-analyses 免责声明和版权 本文件中表达的观点由作者全权负责,并不一定代表欧洲议会的官方立场。允许出于非商业目的进行复制和翻译,但必须注明来源并事先通知欧洲议会并发送副本。出于引用目的,本研究应引用为:Eager,J,《人工智能的机会》,工业、研究和能源委员会研究,经济、科学和生活质量政策部,欧洲议会,卢森堡,2020 年。© 封面图片经 Adobe Stock 许可使用
本文件是应欧洲议会法律事务委员会的要求编写的。作者 Andrea BERTOLINI,博士,法学硕士(耶鲁大学) 圣安娜高等学校(比萨)私法助理教授 让莫奈欧洲机器人与人工智能监管卓越中心(EURA)主任 www.eura.santannapisa.it andrea.bertolini@santannapisa.it 负责管理员 Giorgio MUSSA 编辑助理 Sandrina MARCUZZO 语言版本 原文:EN 关于编辑 政策部门提供内部和外部专业知识,支持欧洲议会委员会和其他议会机构制定立法并对欧盟内部政策进行民主监督。如需联系政策部或订阅更新,请写信至: 欧洲议会 公民权利和宪法事务政策部 B-1047 布鲁塞尔 电子邮件:Poldep-Citizens@ep.europa.eu 手稿于 2020 年 7 月完成 © 欧洲联盟,2020 本文件可在互联网上获取:http://www.europarl.europa.eu/supporting-analyses 免责声明和版权 本文件中表达的观点由作者全权负责,并不一定代表欧洲议会的官方立场。在非商业目的的复制和翻译中,只要注明出处并事先通知欧洲议会并发送副本,就可以获得授权。