Loading...
机构名称:
¥ 3.0

摘要:在本文中,我区分了人工智能 (AI) 背景下可能出现的三种危害:个人危害、集体危害和社会危害。社会危害经常被忽视,但不能归结为前两种危害。此外,应对人工智能引起的个人和集体危害的机制并不总是适合应对社会危害。因此,政策制定者对当前人工智能法律框架的差距分析不仅存在不完整的风险,而且为弥补这些差距而提出的新立法提案也可能无法充分保护受到人工智能不利影响的社会利益。通过概念化人工智能的社会危害,我认为需要从个人角度转变视角,转向人工智能的监管方法,以解决其对整个社会的影响。借鉴专门保护社会利益的法律领域——环境法,我确定了欧盟政策制定者在人工智能背景下应考虑的三种“社会”机制。这些机制涉及 (1) 公共监督机制,以提高问责制,包括强制性影响评估,并提供提供社会反馈的机会; (2) 公共监测机制,以确保独立收集和传播有关人工智能社会影响的信息; (3) 引入具有社会维度的程序性权利,包括获取信息、获得司法公正和参与人工智能公共决策的权利,无论个人受到何种伤害。最后,在提出总结性意见之前,我会考虑欧盟委员会关于人工智能监管的新提案在多大程度上考虑到了这些机制。

超越个人:治理人工智能的社会危害

超越个人:治理人工智能的社会危害PDF文件第1页

超越个人:治理人工智能的社会危害PDF文件第2页

超越个人:治理人工智能的社会危害PDF文件第3页

超越个人:治理人工智能的社会危害PDF文件第4页

超越个人:治理人工智能的社会危害PDF文件第5页