Loading...
机构名称:
¥ 4.0

摘要 人工智能科学家正在迅速开发新方法来理解和利用人类决策中的弱点。随着世界各国政府努力应对操纵性人工智能系统带来的威胁,欧盟委员会 (EC) 迈出了重要一步,提出了一项新的特殊法律制度 (AI 法案),禁止某些具有“重大”操纵潜力的系统。具体而言,欧盟委员会提议禁止使用潜意识技术并利用特定群体弱点的人工智能系统。本文分析了欧盟委员会的提议,发现该方法并不适合解决操纵性人工智能的能力。潜意识技术、群体层面的脆弱性和透明度的概念是欧盟委员会提议的应对措施的核心,但这些概念不足以应对日益增长的能力所带来的威胁,即通过暴露和利用个人决策过程中的弱点,使个人容易受到隐藏的影响。在寻求确保人工智能的好处的同时应对日益加剧的操纵威胁时,立法者必须采用新的框架,以更好地应对机器学习进步带来的新操纵能力。

监管操纵性人工智能

监管操纵性人工智能PDF文件第1页

监管操纵性人工智能PDF文件第2页

监管操纵性人工智能PDF文件第3页

监管操纵性人工智能PDF文件第4页

监管操纵性人工智能PDF文件第5页