本出版物是日内瓦协会新技术与数据工作流的产物,由 AXA 集团首席执行官 Thomas Buberl 赞助。我们非常感谢为支持我们的新技术与数据研究活动而成立的工作组成员,他们是:Paul DiPaola 和 Evan Hughes(AIG)、Henning Schult(Allianz)、Ashley Howell(Aviva)、Patricia Plas、Chaouki Boutharouite 和 Dora Elamri(AXA)、Atsushi Izu(Dai-ichi Life)、Bruno Scaroni(Generali)、Chris Reid(Intact Financial)、Hiroki Hayashi(Nippon Life)和 Lutz Wilhelmy(Swiss Re)。我们还要感谢以下专家参加本报告专题研讨会:Ahed Abdelky(安联)、Marcin Detyniecki 和 Sarah El Marjani(安盛)、Alberto Branchesi(忠利)、Bo Gong(平安技术研究院)和 Achraf Louitri(Intact Financial)。最后,我们要感谢苏黎世大学的 Michele Loi,感谢他非常有帮助的见解和意见。
人工智能正日益融入我们生活的方方面面。这种融合正在教育、金融和医疗保健等领域发生,这些领域的关键决策通常基于算法洞察。这一趋势有望带来许多优势;然而,它也带来了潜在的风险。因此,在过去一年里,人们非常关注负责任地开发和部署人工智能系统。人工智能社区也更加关注评估人工智能系统的影响并减轻受影响者的风险。
人工智能 (AI) 迅速融入各个领域,带来了显著的效益,例如提高了业务效率和客户满意度,同时也带来了挑战,包括隐私问题、算法偏见和对自主性的威胁。针对这些多方面的问题,本研究提出了一个负责任人工智能 (RAI) 的新型综合理论框架,该框架涉及四个关键维度:技术、可持续发展、负责任的创新管理和立法。负责任的创新管理和法律维度构成了该框架的基础层。前者将预期和反思等元素嵌入企业文化,后者研究了欧盟和美国的人工智能特定法律,为管理人工智能的法律框架提供了比较视角。这项研究的结果可能对寻求负责任地整合人工智能的企业、专注于创建负责任合规人工智能的开发人员以及希望提高认识和制定 RAI 指南的政策制定者有所帮助。
旨在解决消费者和其他个人危害的现有立法框架应被视为一个起点,并指出当前框架通常尚未充分适应人工智能和 ADM 技术的使用及其潜在的不利影响。需要进一步指导这些现有框架和法律如何应用于人工智能技术并有效防止其使用可能产生的危害。这应该反映人工智能的政策设置和原则框架,并为开发或使用这些技术的实体提供指导和确定性,并为个人或个人团体提供与使用人工智能和 ADM 的数据使用、投入和结果以及保证、监测和监督有关的适当权利。应该重点确保立法框架足以解决使用人工智能和 ADM 的结果和决策,包括潜在的危害。
并在整个生命周期内管理可信赖的人工智能的风险。举例来说:1)人工智能知识和资源的供应商可以包括:内容创建者;数据提供者和数据注释者;投资者;数字基础设施提供商;硬件制造商。2)人工智能生命周期中的参与者可以包括参与以下活动的公司、国家、研究机构:系统的规划和设计;数据的收集和处理;模型的构建和使用;模型的验证和确认;部署系统,无论分销渠道如何(包括开源软件的分发);以及系统的操作和监控;3)人工智能系统的用户/运营商可以包括企业,包括金融机构和“实体”经济中的企业(例如,制造、采购和商品和服务流动);将人工智能用于个人用途、商业或研究活动的个人或其他参与者;以及国家。
在这份首份年度报告中,我们深入了解了如何构建使用生成式 AI 的应用程序;如何做出决策并监督这些应用程序的部署;如何支持客户构建自己的生成式应用程序;以及如何学习、发展和成长为一个负责任的 AI 社区。首先,我们深入了解了我们的开发过程,探索了我们如何映射、衡量和管理生成式 AI 风险。接下来,我们提供案例研究来说明我们如何将我们的政策和流程应用于生成式 AI 的发布。我们还分享了有关我们如何在客户负责任地构建自己的 AI 应用程序时为他们提供支持的详细信息。最后,我们强调了负责任的 AI 社区的发展、我们为使 AI 的好处民主化所做的努力以及我们为促进 AI 研究所做的工作如何造福整个社会。
我们建议将 RAI MM 视为 RAI 复杂且不断发展的领域的高级地图。使用它来帮助您了解成为成熟的 RAI 组织意味着什么。展望更高的成熟度水平以了解什么是可能的和可取的,这比评估您的组织或团队当前的水平更重要。作为一个领域,RAI 尚未成熟,因此您的组织或团队的成熟度水平应反映这一点。
所有参与人工智能开发的利益相关者都被定义为道德主体。公司虽然本身不是道德主体,但却是道德主体的集合体。不深入讨论是否存在自由意志,所有利益相关者都被视为自由的,除非他们有精神障碍或未成年人。将责任归咎于开发者的主要担忧在于因果关系和知识条件。学者们已经讨论过高度自主和自学习的人工智能主体的行为是否会打破因果关系链 [5]。创新,尤其是自学习的人工智能和机器人,也涉及大量的不确定性和不可预测性,与知识条件相冲突 [13]。鉴于本文关注不法行为,所有现有的利益相关者都可能受到不法行为的影响。
我们的能源服务与开发集团与该地区的组织合作以满足他们的需求,包括:• 网络安全和信息技术服务• 技术和医疗领域的设备校准服务• 环境收集和分析• 需求侧管理的创新解决方案• 项目管理和开发• 法律和人力资源支持• 通过应用过程工程实验室提供设施租赁和业务启动支持• 公共电力实习和劳动力发展
“ AI事件数据库致力于索引通过人工智能系统的部署在现实世界中实现的危害的集体历史。就像航空和计算机安全中的类似数据库一样,AI事件数据库旨在从经验中学习,以便我们预防或减轻不良结果”