2022 年 5 月 11 日,欧盟委员会(以下简称“委员会”)发布了其拟议法规,规定了预防和打击儿童性虐待的规则 1(以下简称“拟议法规”)。拟议法规旨在建立一个明确而协调的法律框架,以更好地识别、保护和支持儿童性虐待(以下简称“CSA”)的受害者,特别是通过澄清在线服务提供商在在线 CSA 方面的规则和责任。它旨在为提供商提供法律确定性,以确定他们评估和减轻风险的责任,并在必要时以符合《欧洲联盟基本权利宪章》(以下简称“欧盟宪章”)2 中规定的基本权利和欧盟法律的一般原则的方式,检测、报告和删除已知的儿童性虐待材料(以下简称“CSAM”)、新的 CSAM 或在其服务上招揽儿童的行为。拟议法规征求了广泛利益相关者的反馈,并受到了强烈的赞扬和严厉的批评。一些人认为,拟议的法规是让私营部门对其平台和服务上发生的网络 CSA 负责的关键一步,而另一些人则认为拟议的法规是在整个欧盟引入“大规模监视”的特洛伊木马。
缩写 AI 人工智能 CEPOL 欧洲联盟执法培训机构 CFREU 欧洲联盟基本权利宪章 COVID-19 2019 冠状病毒病 DG HOME 移民和内政总司 DSSC 数据空间支持中心 DIGITAL 数字欧洲计划 EBCGA/Frontex 欧洲边境和海岸警卫局 EDPB 欧洲数据保护委员会 EDPS 欧洲数据保护监督员 EU 欧洲联盟 EU-DPR 欧洲联盟数据保护条例 eu-LISA 欧盟自由、安全和司法领域大型 IT 系统运营管理局 EU SDSI 欧洲安全数据创新空间 Eurojust 欧盟刑事司法合作机构 Europol 欧盟执法合作机构 EY 安永审计和咨询公司 FAIR 原则,数据应该可查找、可访问、可互操作和可重复使用 FRA 基本权利机构 GDPR 通用数据保护条例 国际刑警组织 国际刑事警察组织 IT 信息技术 LEA 执法机关 LED 执法指令 MS 成员国 MVP 最低可行产品 SWD 员工工作文件 SWOT 优势、劣势、机会、威胁 ToR 职权范围
摘要荟萃分析,一种相互联系,沉浸式和持久的多用户环境,融合了物理和数字现实,对社会具有变革性的潜力,但也对个人,企业和环境构成了重大风险。本研究通过采用综合研究方法来解决研究差距,以理解这些多方面的启示。最初,文献综述探讨了元评估带来的机会和风险。然后,我们专注于六组基本权利的风险,通过教义分析和社会法律研究来分析现有的法律标准及其适用性。本分析中包括的法律框架工程是《通用数据保护法规》(GDPR),《欧盟基本权利宪章》,《数字服务法》(DSA)和《欧盟AI法案》(AIA)。最后,为了减轻确定的风险,我们提供了将监管措施和技术策略结合起来的双管制建议。这项研究是白皮书,绘制元式景观,并为政策制定者,行业利益相关者和技术发展开发商提供可行的见解。我们的发现强调了一种全面的方法,该方法将强大的监管框架与尖端的技术保障措施相结合,以确保负责任且可持续的元元发展。
2.6 理事会承认其客户享有服务的基本权利,并必须在这一权利与对所有客户健康和福祉的责任之间取得平衡。为了实现这一平衡,服务经理有义务根据本政策为无法获得面对面服务的未接种疫苗客户开发和提供替代服务交付机制,只要这是合理且成本不高昂的。
最近推出的能够直接生成文本答案的人工智能 (AI) 工具,尤其是聊天机器人 ChatGPT,以及通用人工智能技术的开发,预计将彻底改变人工智能在社会和经济中的应用。新的人工智能工具通常为工业、农业、卫生、教育和其他领域的发展提供了巨大的潜力。然而,许多科学家和政治家呼吁建立法律和道德框架,以避免使用此类技术可能产生的不利影响。欧盟对人工智能的态度以卓越和信任为中心,旨在促进研究和工业能力,同时确保安全和基本权利。2021 年,欧盟委员会提出了《人工智能法案》来规范这一领域,但该法规仍在辩论中。根据欧洲议会 2022 年 5 月的建议,人工智能具有巨大的潜力来提高资本和劳动生产率、创新、增长和创造就业机会。然而,它的发展也可能为潜在的大规模监视和其他对基本权利和价值观的不利影响铺平道路。本说明收集了许多国际智库关于人工智能的最新出版物和评论的链接。
摘要。2020 年 2 月下旬,欧盟委员会发布了一份关于人工智能 (AI) 的白皮书,以及一份关于人工智能、物联网 (IoT) 和机器人的安全和责任影响的随附报告。委员会在白皮书中强调了“欧洲方式”对待人工智能,强调“欧洲人工智能必须植根于我们的价值观和基本权利,例如人类尊严和隐私保护”。它还宣布打算在不久的将来提出针对“高风险”人工智能应用的欧盟立法,其中将包括大多数医疗人工智能应用。基于这种“欧洲方式”对待人工智能,本文分析了当前欧洲监管医疗人工智能的框架。从基本权利框架作为明确指导方针开始,随后将更深入地研究特定法律领域,重点关注数据保护、产品审批程序和责任法。本文对当前法律状况(包括其在人工智能方面的问题和模糊性)进行了分析,并对产品审批程序和责任法的拟议修正案进行了展望,这些修正案通过认可以人为本的方法,将从根本上影响未来欧洲医疗人工智能和人工智能的总体使用方式。
过去 30 年来,欧盟-申根信息系统运行的详细法律框架已经建立,根据该框架,在不久的将来,实际上所有与欧盟/申根区有行政或刑法联系的第三国国民 (TCN) 的一系列个人数据将通过至少一个信息系统进行监控。本文对欧盟层面在 TCN 信息系统中嵌入人工智能 (AI) 工具进行了法律分析,并批判性地审查了使用人工智能管理和控制移民所引发的基本权利问题。它讨论了用于审查旅行授权和申根签证申请的自动风险评估和算法分析、向 TCN 面部图像处理的转变以及预测面部识别技术使用的面向未来的信息系统的创建。本文将信息系统理解为实现流动性数据化,并作为一种安全工具,在外国人默认具有风险的时代。有人认为,侵犯尊重私人生活的权利只是导致一系列其他基本权利受到影响的途径,例如不歧视权利和获得有效补救的权利。
1。数据主体已明确同意处理这些个人信息2。处理是必要的,只要由EEA+ Law授权,根据EEA+ Law的授权,或根据EEA+国家从EEA+国家 /地区进行集体协议的授权,从而提供了适当的保障措施,以提供适当的保障措施,以提供基本权利和数据主题。 3。处理对于保护数据主体的生命利益或数据主体在身体上或法律上无能力同意的情况下是必要的; 4。处理与数据主体显然公开的个人信息有关; 5。处理对于制定,行使或辩护法律索赔或法院以其司法诉讼行事是必要的; 6。是出于实质性公共利益的原因,基于EEA+法律,应与所追求的目标成比例,尊重数据保护权的本质,并提供适当和具体的措施,以维护数据主体的基本权利和利益; 7。是必要的。 8。加工是出于公共健康领域的公共兴趣而需要的,例如防止严重的跨境威胁,或确保根据EEA+法律,确保医疗保健以及医疗产品或医疗设备的质量和安全性高标准,该法律提供了适当的和特定的措施,以保护数据主体的权利和自由度,特别是专业人士的权利和自由。
在其当前版本中,《人工智能法案》仅规范受 MDR 约束的人工智能医疗器械。其他与健康相关的人工智能应用不属于《人工智能法案》的范畴。但是,MDR 也未完全适应人工智能带来的风险。虽然《人工智能法案》和 MDR 都是基于风险的,但以下比较显示了评估标准的差异。对于人工智能医疗器械,《人工智能法案》在基本权利方面有所改进,但也需要一些规范来填补 MDR 留下的空白。