Authors Drafting Expert Group ( 起草 专 家 组 ) comprised of Professor Zhang Linghan ( 张 凌寒 ) of China University of Political Science and Law ( 中国政法大学 ), Professor Yang Jianjun ( 杨 建 军 ) of Northwest University of Political Science and Law ( 西北政法大学 ), Senior Engineer Cheng Ying ( 程 莹 ) of China Academy of Information and Communications Technology (CAICT; 中国信息通信研究院 ; 中国信通院 ), Associate Professor Zhao Jingwu ( 赵 精武 ) of Beijing University of Aeronautics and Astronautics (Beihang University; 北京航空航天大学 ), Associate Professor Han Xuzhi ( 韩 旭至 ) of East China University of Political Science and Law ( 华东 政法大学 ), Professor Zheng Zhifeng ( 郑 志峰 ) of Southwest University of Political Science & Law ( 西南政法大学 ), and Associate Professor Xu Xiaoben ( 徐小奔 ) of Zhongnan University of Economics and Law ( 中南 财经 政法大学 )
埃利斯·阿利坎特(Ellis Alicante)对社会善良进行人工智能的尖端研究是欧洲议会的视线,该研究试图通过法规来平衡人工智能的风险和利益,该法规始于2021年4月,始于3月2024年3月2024年通过的人工智能法案或AI AC。MEP的目的是收集有关埃利斯·阿利坎特(Ellis Alicante)进行的最新信息和研究状态的最新信息,并强调了保证欧洲价值观的负责人AI的价值。Juri的最终目标是建立一个法律框架,以促进欧盟的AI发展和使用,以确保其在道德,安全和以尊重基本人权的方式上使用。
今年,Pérez-Llorca数字法律和知识产权年份的审查以播客形式预定。在一次独家对话中,我们的合作伙伴分析了2024年的主要监管发展和趋势,以解决人工智能,网络安全,数字平台和其他关键法规如何影响欧洲和西班牙的立法和司法议程。在以下信息图中,您会发现最相关的里程碑的视觉崩溃,这些里程碑在2024年重新定义了数字和技术生态系统,以及对趋势和挑战的审查,这些趋势和挑战将为2025年设定议程。
首先,在欧盟层面,2024 年 2 月在委员会内成立的欧洲人工智能办公室(AI Office)将监督《人工智能法案》在成员国的执行和实施,并确保在欧盟层面的协调。与国家市场监督机构一起,人工智能办公室将成为全球第一个执行人工智能约束性规则的机构,因此有望成为国际参考点。值得注意的是,人工智能办公室还将监督通用人工智能(GPAI)模型新规则的实施和执行。人工智能办公室还将与新成立的欧盟人工智能委员会(AI Board)合作,该委员会主要就《人工智能法案》的实施提供建议,协调国家监管机构,并以类似于 GDPR 下欧洲数据保护委员会(EDPB)职能的方式发布建议和意见。与 EDPB 一样,人工智能委员会将由代表成员国组成。最后,委员会将实施一个由独立专家组成的科学小组,以支持《人工智能法案》下的执法活动——特别是提醒人工智能办公室注意 GPAI 模型可能存在的系统性风险。
人们总是倾向于“同时”援引伦理和法律,无论是关于人工智能伦理,还是关于《人工智能法案》,例如 Townsend [17]。这种倾向在《人工智能法案》提案中也起作用。但我认为,在对伦理实践的反思基础上,有许多理由拒绝承认《人工智能法案》法规具有伦理依据。这些原因包括:该提案对《人工智能法案》目标的描述,该提案的愿景和对公众咨询的运用,以及最后,在监管过程和将人工智能视为一种技术的观点中都嵌入了我称之为“速度范式”的东西。简而言之,后者是一个未经深思熟虑的假设,即一个看似天生快速的过程或发展——这里指的是人工智能技术——需要社会参与和融入人类事务,其节奏与该过程相匹配,从而建立一个自我延续的循环。
经过多年的公众咨询和审议,欧盟委员会提出了全面监管人工智能 (AI) 的法律框架。最引人注目的是,人工智能高级专家组 (AI HLEG) 自 2018 年以来就制定了道德准则和政策建议。虽然中国和美国等国家或欧洲委员会等国际组织正在制定法律框架来规范人工智能的开发和使用,但欧盟委员会于 2021 年 4 月 21 日提出的提案(人工智能法案或 AIA)似乎使联盟处于最有力的地位,可以为一项关键的新兴技术制定具有全球意义的监管标准。在简要总结了未来监管的起源、背景和主要特征之后,本文探讨了“布鲁塞尔效应”是否会体现在突破性的人工智能监管中,或者欧盟及其成员国是否会冒着仓促采用无能的法律框架的风险,而这项技术对社会的影响仍未得到充分理解。此外,拟议的
简介 人工智能 (AI) 的快速发展和部署为改变经济、商业、医疗保健和整个社会带来了前所未有的希望。随着这些发展的不断升级和深化,人们对与人工智能相关的权利和道德的兴趣正在日益增加。部分原因是人工智能技术现在利用了大量个人数据、无数的分析和统计工具以及巨大的计算能力,对人类利益和福祉的影响尚不确定。人工智能的兴起带来了新出现的法律和道德挑战。有争议的技术包括面部识别系统、计算机传感器和视觉以及自动驾驶汽车(例如自动驾驶汽车和护理辅助机器人)。具体问题包括数据隐私、系统内算法不公正的普遍性和延续性、预测模型在决策中的不公平使用以及操纵和恶意使用人工智能的可能性(等等)。目前正在制定政策和监管框架来应对这些挑战。本洞察探讨了最近提出的欧盟人工智能法案的主要特点,以及它如何寻求保护和平衡关键价值观。监管选项概述现有的法律框架往往无法跟上新兴技术的步伐。Cognilytica 发布的一份关于全球人工智能法律和法规的报告表明,许多国家对人工智能监管实施采取了“观望”态度。1 但是,虽然大多数国家可能仍然只有很少或没有独特的人工智能
• 与其他欧盟法律(例如 GDPR)相比,欧盟人工智能法案所赋予的权利有限。 • 值得注意的是,自然人和法人均有权提出申诉。此外,似乎不需要特定的利益或法律地位,因为欧盟人工智能法案仅提及不合规的怀疑,而没有要求证明任何损害以证明申诉的合理性。在实践中,公司可能会利用这一权利来对付竞争对手。 • 举报违反欧盟人工智能法案的人员受欧盟指令 2019/1937(举报指令)的保护,可举报此类侵权行为。
本文从米歇尔·福柯的理论视角考察人工智能 (AI) 对法律体系的影响。它探讨了人工智能作为一种当代技术设备如何加强监视和控制结构,这与福柯的生命权力和自我技术概念相一致。该研究认为,人工智能对传统的责任和道德法律类别构成了重大挑战,需要重新评估法律框架。通过分析美国的预测性警务和中国的社会信用体系等案例研究,本文展示了人工智能如何作为一种生命权力发挥作用,扩大国家和企业对个人的影响。核心假设是人工智能有可能解构传统的法律问责制和道德责任观念,敦促重新评估现有法律的价值论方面。本文最后提出了法律调整,例如算法影响评估和增强透明度措施,以减轻人工智能驱动的控制风险并保障个人自主权。关键词