摘要 人工智能科学家正在迅速开发新方法来理解和利用人类决策中的弱点。随着世界各国政府努力应对操纵性人工智能系统带来的威胁,欧盟委员会 (EC) 迈出了重要一步,提出了一项新的特殊法律制度 (AI 法案),禁止某些具有“重大”操纵潜力的系统。具体而言,欧盟委员会提议禁止使用潜意识技术并利用特定群体弱点的人工智能系统。本文分析了欧盟委员会的提议,发现该方法并不适合解决操纵性人工智能的能力。潜意识技术、群体层面的脆弱性和透明度的概念是欧盟委员会提议的应对措施的核心,但这些概念不足以应对日益增长的能力所带来的威胁,即通过暴露和利用个人决策过程中的弱点,使个人容易受到隐藏的影响。在寻求确保人工智能的好处的同时应对日益加剧的操纵威胁时,立法者必须采用新的框架,以更好地应对机器学习进步带来的新操纵能力。
本文建立了一个框架,用于理解和应对人工智能在金融领域日益增强的作用。本文将人类的责任作为解决人工智能“黑箱”问题的核心——黑箱问题是指由于人们难以理解人工智能的内部工作原理,或由于人工智能在人类监督或参与之外独立运行,而导致人工智能产生无法识别或无法预料的不良后果的风险。在概述人工智能在金融领域的各种用例并解释其快速发展之后,我们重点介绍了金融服务人工智能的一系列潜在问题和监管挑战,以及可用的解决这些问题的工具。我们认为,解决人工智能在金融领域作用的最有效的监管方法是通过个人责任制度将人类纳入其中,从而消除黑箱论证作为人工智能运营和决策责任和法律义务的辩护理由。
监管将成为未来两年加密生态系统的决定性特征。当前的市场低迷以及一些项目和加密资产的相应崩溃已导致重大损失,暴露了协议中特有的风险和漏洞,凸显了加密领域的系统性问题,并增强了政策制定者对监管加密和去中心化金融 (DeFi) 生态系统的必要性的认识。资产价格和活动的减少可能只能暂时缓解监管任务的紧迫性。我们认为,对于政策制定者来说,关键优先事项将包括消费者保护、金融稳定、市场行为和反洗钱规则等,同时还要取得平衡,以促进和促进金融市场的持续创新(见下文“监管重点领域”图表)。
本条例规定了设有从事对人体有感染风险的微生物实验室的设施和组织、个人的可能含有对人体有感染风险的微生物的临床样本的设施(以下称检测设施)的生物安全保障条件,包括:对感染风险的微生物和检测设施按生物安全等级划分的划分;检测设施的生物安全保障条件;符合生物安全标准证书的颁发、换发、撤销和公布符合生物安全标准的检测设施的权限、记录和程序;生物安全检查;生物安全事件的预防、处理和补救。
抽象的平民无人机在功能上越来越独立于人类的参与,这使他们走上了“自治”地位的道路。在定义“自治”时,欧盟(欧盟)法规除其他司法管辖区使用了全有或无所事事的方法,根据该方法,无人机要么能够完全自主操作,要么根本无法自动运行。这种二分法方法忽略了无人机自主权的各个级别,并且无法捕获平民无人机操作的复杂性。在欧盟内部,这具有监管含义,例如监管滞后,更好的安全监管中的障碍以及与工会对人工智能的监管方法(AI)的不一致。本文认为,将自主性理解为频谱,而不是以二分为二分的方式,将与无人机的技术功能更加一致,并且会避免由于当前的二分法方法引起的潜在调节问题。在描述这种光谱方法时,本文(1)分析了无人机操作中自主权的表现,(2)描述了技术文献和无人机标准化的努力,以概念化“自主权”,(3)探索在其他三种技术中进行的定义自主尝试:自动驾驶的自主汽车:自主武器,自主武器,自动驾驶自主玛丽特·玛丽特·玛丽特·玛丽特·玛丽特·玛丽特。
如今,国际上已达成共识,需要制定监管框架和全球协议,以协调新基础技术的附加值与负责任的管理,尤其是在使用大型语言模型 (LLM) 方面。欧盟希望成为先行者,因此通过了《人工智能法案》,这是世界上第一部全面的人工智能法律,该法律规定了欧洲市场上人工智能系统的法律框架和要求。该法律在很大程度上采用了基于风险的方法,区分了不可接受、高风险、有限风险和最小风险的人工智能系统,并对提供商、用户和第三方施加了相应的义务和禁令。根据欧盟的《人工智能法案》,某些基于人工智能的做法,包括在公共场所用于执法目的的社交评分、认知行为操纵和生物特征实时远程识别系统,均被欧盟完全禁止。
监管人工智能对于确保高水平的消费者保护以及我们社会的公平、安全和可持续发展至关重要。BEUC 欢迎委员会在这方面采取主动行动。但是,《人工智能法案》提案需要进行实质性改进,以保证消费者获得所需的保护,并可以相信人工智能会尊重他们的权利和自由。本立场文件包含一系列针对委员会《人工智能法案》提案的建议(范围、定义、协调、禁止的做法、风险和一致性评估以及人工智能系统的其他义务、标准化、执法等)。BEUC 的主要建议:提案必须具有更广泛的范围,并施加适用于所有人工智能系统的基本原则和义务,例如关于公平性、问责制和透明度。• 应扩大《人工智能法案》的范围,以充分监管除目前被归类为“高风险”的人工智能系统之外的其他人工智能系统,例如智能电表、人工智能驱动的联网玩具、虚拟助手或组织人们在社交媒体上看到的内容的人工智能。• 欧盟使用的所有人工智能系统,包括中风险和低风险系统,都应遵守《人工智能法案》中确立的一套共同原则(例如透明度、公平性、非歧视性)。• 应扩大附件三中现有的“高风险”应用列表,以包括其他人工智能应用。例如,用于评估保险费的人工智能以及人工智能支付和借记收集服务。
孤立地考虑到基因组学和人工智能(AI)提出的道德和社会挑战是深刻的,其中包括与自治,隐私,平等,偏见,偏见,歧视和滥用权力有关的问题。合并这两种技术时,道德,法律和社会问题大大增加,变得更加复杂,可以大大缩放,从而增加影响。除了这些复杂性外,基因组学和支持AI的技术都充满了科学和技术不确定性,这使得对这些技术的调节本身不仅具有挑战性,而且会造成法律上的不确定性。在科学中,预防原则已在全球范围内用于控制不确定性,具体目的是防止对人类的不可逆转伤害。对AI支持的技术中不确定性的监管是基于欧盟委员会最近提出的AI法规中规定的风险。然而,当将基因组学和人工智能结合在一起时,不仅不确定性会加倍,而且考虑到对人类安全使用的这种不确定性的规定似乎是矛盾的,考虑到这方面的科学和技术采取了不同的方法。在本文中,我探讨了对科学和技术不确定性的调节,并认为在人类基因组学和AI的背景下应用预防原则似乎是调节这两种技术结合所带来的不确定性的最有效方法。