该法案建立了一个监管人工智能 (AI) 开发者和部署者的框架。它要求他们采取合理的谨慎措施,保护消费者免受任何已知或合理可预见的算法歧视风险(即任何不合理的差别待遇或影响的风险,这些风险会基于某些特征,如年龄、种族或宗教,而不利于任何个人或群体)。它认为部署者未能采取合理的谨慎措施是一种歧视性做法,将受到人权和机会委员会 (CHRO) 的执法,包括处以 3,000 至 7,000 美元的罚款。
2021 年 4 月,欧盟委员会提出了一项关于欧盟人工智能 (AI) 监管框架的提案。《人工智能法案》草案是首次尝试制定人工智能的横向监管。拟议的法律框架侧重于人工智能系统的具体用途及其相关风险。委员会提议在欧盟法律中建立人工智能系统的技术中立定义,并根据“基于风险的方法”对人工智能系统进行分类,并制定不同的要求和义务。一些存在“不可接受”风险的人工智能系统将被禁止。各种“高风险”人工智能系统将获得授权,但需遵守一系列要求和义务才能进入欧盟市场。那些仅存在“有限风险”的人工智能系统将受到非常宽松的透明度义务。 2021 年 12 月,理事会同意了欧盟成员国的总体立场。议会于 2023 年 6 月就其立场进行了投票。欧盟立法者目前正在开始谈判以最终确定新立法,对委员会的提案进行重大修改,包括修改人工智能系统的定义、扩大被禁止的人工智能系统名单,并对通用人工智能和 ChatGPT 等生成式人工智能模型施加义务。
根据《联邦公务员法》第 26 条第 2 款,该法经 2021 年 6 月 28 日法案第 1 条第 9 号(联邦法律公报 I 第 2250 页)修订,结合《联邦职业条例》第 10 条和第 10a 条第 8 款以及附件 2 第 9、31 和 43 号,其中第 10 条经 2013 年 2 月 20 日条例第 1 条第 2 号(联邦法律公报 I 第 316 页)修订,第 10a 条第 8 款经 2021 年 8 月 18 日条例第 1 条第 7 号(联邦法律公报 I 第 3582 页)修订,附件 2 第 9 号经 2020 年 9 月 15 日条例第 1 条第 4 号(联邦法律公报 I 第 1990 页)修订根据 2023 年 1 月 27 日法令(BGBl.2023 I No.30)第 1 条第 2 款第 d 项第 31 和 43 条的规定,联邦国防部发布以下命令:
摘要。大规模定向能为各种领域提供了彻底变革的可能性,包括实现相对论飞行的能力,这将使首次星际任务以及快速的行星间运输成为可能。此外,同样的技术开辟了广阔的任务空间,允许从远程光束功率到远程航天器和前哨站到行星防御到远程成分分析和操纵小行星等各种选择。定向能依赖于光子学,光子学与电子学一样是一个指数级增长的领域,由多种经济利益驱动,可以实现太空探索和能力的变革性进步。为了开始充分利用这种能力,重要的是不仅要了解它带来的可能性,还要了解所涉及的技术挑战,并制定利用这种选择的合理路线图。这种能力既与传统推进相协同,又为目前传统能力无法实现的未来提供了一条道路。