Loading...
机构名称:
¥ 1.0

人工智能的网络安全 人工智能日益融入我们的日常生活,这要求我们特别注意保护与其使用相关的模型、数据、培训和部署。网络安全是可靠、安全和有弹性的人工智能模型和算法的先​​决条件。然而,人工智能的网络安全不仅仅是保护人工智能系统免受中毒和逃避攻击等威胁。它还涉及确保它们具有可信度特征,例如人工监督和稳健性——抵御网络攻击的能力,正如欧盟《人工智能法案》对高风险人工智能系统所要求的那样。专家们也强调了对人工智能进行人工监督的必要性。标准可以在确保安全要求(例如数据质量、风险管理和合格评定)融入人工智能系统的整个生命周期方面发挥关键作用。虽然它们为安全、道德和负责任的人工智能开发提供了指导方针,但针对人工智能的欧洲技术标准的制定才刚刚开始,欧盟利益相关者正热切期待这些标准的通过。然而,为各种本质上是黑匣子的人工智能系统制定标准是一项具有挑战性的任务,需要做更多的工作。 2023 年 5 月,欧盟委员会要求欧洲标准化委员会和欧洲电工标准化委员会 (CEN- CENELEC) 制定支持《人工智能法案》的标准,截止日期为 2025 年 4 月。除了 CEN- CENELEC(JTC 13 和 JTC 21 小组)之外,包括欧洲电信标准协会 ( ETSI ) 和国际标准化组织 ( ISO ) 在内的几个标准制定组织也在致力于制定人工智能标准。虽然大多数协调的人工智能专用标准尚未建立,但信息安全(如 ISO/IEC 27001 和 ISO/IEC 27002 )和质量管理(如 ISO/IEC 9001 )的通用标准已经被转置并可部分应用于人工智能系统。在缺乏针对人工智能网络安全的具体标准的情况下,一些政府机构已经发布了自愿的人工智能安全框架,以协助利益相关者保护其人工智能系统、运营和流程。例如,欧盟网络安全局 (ENISA) 发布了良好人工智能网络安全实践的多层安全框架 (FAICP)。FAICP 提供了一种逐步提高人工智能活动可信度的方法。它由三层组成:网络安全基础,侧重于所使用的 ICT 基础设施;人工智能特定方面,侧重于部署的人工智能组件的特殊性;行业人工智能,特定于使用人工智能的行业。同样,美国国家标准与技术研究院 (NIST) 发布了人工智能风险管理框架,以帮助参与设计、开发和实施人工智能的组织。部署或使用人工智能系统,以更好地减轻与人工智能相关的风险,并促进其值得信赖和负责任

人工智能与网络安全 - 欧洲议会

人工智能与网络安全 - 欧洲议会PDF文件第1页

人工智能与网络安全 - 欧洲议会PDF文件第2页

相关文件推荐