欧洲保险协会欢迎欧盟委员会的总体目标,即创建一个符合比例和原则的横向框架,要求人工智能系统在欧盟内必须遵守这些框架,而不会过度限制或阻碍技术发展和创新。此外,保险公司欢迎重点制定对高风险人工智能系统的强制性要求,这些系统对个人的健康和安全或基本权利构成重大风险。然而,引入人工智能的协调规则需要对人工智能系统有一个非常明确和准确的定义。保险公司明白,委员会的定义是基于经合组织对人工智能系统的定义,经合组织将其定义为“一种基于机器的系统,可以针对一组给定的人类定义的目标,做出影响真实或虚拟环境的预测、建议或决策”。虽然目前尚无普遍认可的人工智能系统定义,但经合组织的定义是任何欧洲方法的适当基础,特别是考虑到人工智能系统固有的全球性以及确保国际一致性的必要性。然而,目前在法规草案第 3 条中提出的人工智能系统定义大大扩大了经合组织的定义,将软件也纳入了其范围。这将导致其范围中包括不应被视为人工智能的系统、技术和方法,并且通常会造成混乱和缺乏法律确定性。例如,该拟议定义将涵盖精算功能中线性回归模型统计输出的使用,统计方法也将涵盖在内,例如主要涉及使用图形技术分析数据集的探索性数据分析,或构成公司后台功能一部分的任务分配系统。因此,不仅应考虑系统应用的一般领域,还应在个体层面考虑其具体目的。此外,应明确指出,附件三中已提及的人工智能应用还需要满足第 7(1) 条规定的条件才能被归类为高风险。在其人工智能系统分类框架中,经合组织指出,“某些使用计算技术和分析数据的系统不是人工智能系统。如果系统不符合人工智能的定义
主要关键词