本评论讨论了第十四修正案下对未成年儿童强制接种疫苗的审查标准。在雅各布森诉马萨诸塞州案中,马萨诸塞州剑桥市卫生委员会为剑桥市的每位成年人制定了强制接种疫苗的命令,法院听从了立法机关的智慧。尽管法院在 1905 年没有制定合理依据测试,但随后的最高法院案件越来越多地听从州警察和州家长权力来为儿童和成人强制接种疫苗提供依据。遵循最高法院先例的州法院和联邦法院意见都根据合理依据测试支持疫苗强制接种和限制。只要立法手段与健康和安全的合法目标合理相关,法院通常就不会进一步调查立法决策。
社交媒体平台现在是欧洲信息环境的关键基础设施。社交媒体的兴起为获取和共享信息创造了巨大的机会:在 Covid-19 疫情高峰期间,社交媒体在保持家庭、朋友甚至工作场所的联系方面发挥了至关重要的作用,并推动和支持了世界各地的公民运动。与此同时,它们也给民主、法治和基本权利带来了新的挑战。社交媒体平台往往是虚假信息的渠道,破坏了公民获取可靠信息和民主进程的渠道,并使仇恨言论得以更广泛传播,影响了欧洲人民的基本权利、尊严和安全。因此,政策制定者面临的挑战是加强对社交媒体的问责制和监督,以保护公民免受此类威胁,同时又不限制公民获取社交媒体提供的诸多好处。
社交媒体平台现在是欧洲信息环境的关键基础设施。社交媒体的兴起为获取和分享信息创造了巨大的机会:在新冠疫情高峰期,社交媒体在保持家人、朋友甚至工作场所的联系方面发挥了至关重要的作用,并推动和支持了世界各地的公民运动。与此同时,它们也给民主、法治和基本权利带来了新的挑战。社交媒体平台往往是虚假信息的渠道,破坏了公民获取可靠信息和民主进程的渠道,并使仇恨言论得以更广泛传播,影响了欧洲人民的基本权利、尊严和安全。因此,政策制定者面临的挑战是加强对社交媒体的问责和监督,以保护公民免受此类威胁,同时又不限制公民获取社交媒体提供的诸多好处。
上下文;1.B.确保其他基于人工智能的风险评估在附件三中被归类为“高风险”;3.禁止在移民管理中使用人工智能测谎仪和类似工具;4.预测分析系统:A.将附件三中移民、庇护和边境控制管理中的预测分析系统列为“高风险”;B.禁止为拦截、限制和防止移民而进行预测分析;5.移民背景下的生物识别技术:A.将附件三中移民、庇护和边境控制管理中的生物识别系统列为“高风险”;B.禁止在公共场所进行远程生物识别; C. 禁止在公共场所进行远程生物特征分类,以及任何歧视性的生物特征分类;6.将用于边境监控和监视的人工智能系统列为附件三中的“高风险”;7.确保用于证据评估的人工智能是“高风险”的,并包含在附件三中;8.修改第 83 条,确保作为欧盟大型 IT 数据库一部分的人工智能属于 AIA 的范围。
• 为“不可接受的”和有限风险的人工智能系统引入强大且一致的更新机制,以便随着技术的发展,可以更新属于这些风险类别的系统列表,使用目前提出的将新的高风险系统添加到附件三(见第十一篇章)的相同更新机制。这必须允许将新系统指定为构成不可接受的风险,因此归类为禁止的做法(第二篇章第 5 条),或构成有限风险/操纵风险(第四篇章第 52 条),因此要承担额外的透明度义务; • 分别在第 5 条和第 52 条下列出“不可接受的”和有限风险的人工智能系统的标准清单,以促进更新过程,为人工智能开发者提供法律确定性,并通过确保受影响的个人免受危险和潜在操纵的人工智能应用的侵害来增进信任; • 确保附件三中列出的高风险“区域”(即八个区域标题)可以根据第 XI 章机制进行更新或修改,以允许修改现有区域标题的范围,并将新的区域标题纳入“独立”高风险人工智能系统的范围; • 扩展附件三,以包括更全面的高风险系统列表,例如: ◦ 将区域标题 1 扩展为所有使用物理、生理、行为
所有因使用医疗人工智能而产生的法律问题?不幸的是,有一个主要例外,涉及责任法问题,这特别让人工智能界感到不安。当医疗人工智能造成伤害时,谁将承担法律责任?软件开发商、制造商、维护人员、IT 提供商、医院还是临床医生?确实,严格责任(无过错责任)在欧洲法律下并非未知,尤其是对于危险物体或活动。这种方法既不是 CFR 要求的,也不是禁止的,因此从基本权利的角度无法最终回答民事责任问题。欧盟委员会意识到了这一挑战,并在之前提到的关于人工智能安全和责任影响的报告中宣布,它将评估引入严格责任制度以及对特别危险的人工智能应用的强制保险——这可能涵盖大多数医疗人工智能。这样的制度肯定有助于消除许多现有的关于医疗人工智能应用责任的模糊关系。
CIPL 对欧盟委员会关于《人工智能法案》草案的咨询的回应 CIPL 1 欢迎就欧盟委员会关于《欧洲人工智能法案》2(“AI 法案”或“法案”)的提案进行咨询,以将其纳入欧盟立法程序。CIPL 很高兴看到《人工智能法案》采纳了 CIPL 关于采用基于风险的方法监管欧盟人工智能的文件中提出的几项建议。3 这些建议旨在培养对人工智能的信任,而不会妨碍其负责任的发展。特别是,CIPL 欢迎该法案基于风险的方法,该方法将适用于高风险的人工智能用例,而不会监管人工智能技术本身或整个行业。CIPL 还欢迎拟议使用统一标准和行业自我评估产品符合性,因为这些机制已被证明能够成功推动创新并在欧盟市场开发安全可信的技术。CIPL 还欢迎旨在支持创新的措施,特别是通过为监管沙盒提供法定基础。最后,CIPL 很高兴看到《人工智能法案》中概述的一些要求与一些现有的行业惯例相一致,这些惯例为确保负责任地开发和使用人工智能设定了高标准。4 然而,CIPL 遗憾的是,《人工智能法案》没有充分考虑到一些必要条件,例如提供基于结果的规则;明确允许组织根据人工智能系统的风险和收益来调整对要求的遵守情况;奖励和鼓励负责任的人工智能实践;利用监管沙盒的经验教训;并澄清《人工智能法案》的监督和执行条款也应基于风险。CIPL 重申,要使《人工智能法案》有效地保护基本权利,同时也为欧盟创新的新时代奠定基础,它需要足够灵活以适应未来的技术。此外,该法案不能过于严格,以免抑制包括公共卫生或环境在内的一系列行业和部门对人工智能的宝贵和有益的创新和使用。最后,《人工智能法案》将受益于有针对性的调整,以更好地明确人工智能提供者、部署者和用户的责任平衡,特别是对于通用人工智能和开源人工智能模型。
AECM 爱沙尼亚城市和市政当局协会 AI 人工智能 CAHAI 人工智能特设委员会 CARICOM 加勒比共同体和共同市场 CIO 首席信息官 CJEU 欧洲联盟法院 COE 欧洲理事会 DEI 欧洲工业数字化 DN 数字国家 EAS 爱沙尼亚企业 EC 欧盟委员会 ECHR 欧洲人权公约 EEC 欧洲经济共同体 EGA 电子政务学院 EHRC 爱沙尼亚人权中心 EU 欧洲联盟 FRA 基本权利机构 GDPR 通用数据保护条例 ICT 信息和通信技术 IT 信息技术 ITL 爱沙尼亚信息技术和电信协会 MOOC 大规模开放在线课程 NATO 北大西洋公约组织 NATOCCDCOE 北约合作网络防御卓越中心 NGO 非政府组织 OECD 经济合作与发展组织 PDPA 个人数据保护法 PIA 公共信息法 STOA 科学技术未来小组 UK 英国 UN 联合国 USA 美利坚合众国 VAT 增值税 WTO 世界贸易组织
影响评估是企业和公共行政部门减轻其活动对基本权利的潜在负面影响的重要工具。欧盟特定行业法律要求进行某些形式的影响评估,例如《通用数据保护条例》(GDPR)下的数据保护影响评估。许多受访者报告说,已经按照法律要求进行了数据保护影响评估。但是,这些评估采取了不同的形式。此外,之前的评估主要侧重于技术方面。它们很少解决对基本权利的潜在影响。据一些受访者称,当人工智能系统不会或似乎不会对基本权利产生负面影响时,就不会进行基本权利影响评估。