随着英国保险协会的职责不断演变,尤其是考虑到《保险行为准则》的最新修订,该准则现已纳入与商业行为监管制度相关的方面,保险协会将考虑使用人工智能/机器学习系统预计会影响预期结果的诸多因素。主要的道德考虑因素包括公平对待保单持有人以及对弱势保单持有人的影响。在适当的情况下,保险协会可能会扩大范围并提供进一步的指导,以了解管理层对人工智能/机器学习的使用对保险公司的销售实践、索赔处理、客户披露和沟通以及投诉和错误处理的影响的监督期望。
在过去 30 年中,再保险公司在自然灾害 (NatCat) 风险建模和定价方面发挥了领导作用;开展研究、提高认识并推广风险降低和预防措施;并提供风险转移解决方案以增强社会对极端事件的抵御能力。2020 年,日内瓦协会成立了一个行业主导的工作组,以推进和加速前瞻性气候变化风险评估和情景分析工具的开发。这些努力的核心是评估物理、过渡和诉讼风险的重要性及其在短期和长期内的相互作用,为制定气候目标、战略和过渡计划提供决策相关的风险信息。在过去几年中,一些再保险公司还一直在支持基于科学的研究,以探索与大规模生物多样性和自然丧失相关的风险,量化基于自然的系统对提高对极端事件的抵御能力和碳封存的好处。 AXA、瑞士再保险公司和巴黎国家自然历史博物馆最近与SCOR基金会合作发布的报告系统地阐述了与大规模生物多样性和自然丧失相关的风险、它们与再保险/保险业务模式的关系以及这为开发创新保险产品带来的机遇。
金融服务行业的公司必须在应对这种宏观环境的同时,还要面对日益增加的监管压力。监管方面发生了一系列变化,包括实施运营弹性要求,以及新的指定代表制度和新的消费者责任的最终规则。与此同时,HMT 对 Solvency II 的审查为公司需要应对的监管框架的未来变化指明了方向。展望 2023 年,有许多重要主题应该成为公司及其内部审计职能的“首要考虑”。我们将它们分为五个领域,更多详细信息可在以下页面找到:
欧洲保险协会欢迎欧盟委员会的总体目标,即创建一个符合比例和原则的横向框架,要求人工智能系统在欧盟内必须遵守这些框架,而不会过度限制或阻碍技术发展和创新。此外,保险公司欢迎重点制定对高风险人工智能系统的强制性要求,这些系统对个人的健康和安全或基本权利构成重大风险。然而,引入人工智能的协调规则需要对人工智能系统有一个非常明确和准确的定义。保险公司明白,委员会的定义是基于经合组织对人工智能系统的定义,经合组织将其定义为“一种基于机器的系统,可以针对一组给定的人类定义的目标,做出影响真实或虚拟环境的预测、建议或决策”。虽然目前尚无普遍认可的人工智能系统定义,但经合组织的定义是任何欧洲方法的适当基础,特别是考虑到人工智能系统固有的全球性以及确保国际一致性的必要性。然而,目前在法规草案第 3 条中提出的人工智能系统定义大大扩大了经合组织的定义,将软件也纳入了其范围。这将导致其范围中包括不应被视为人工智能的系统、技术和方法,并且通常会造成混乱和缺乏法律确定性。例如,该拟议定义将涵盖精算功能中线性回归模型统计输出的使用,统计方法也将涵盖在内,例如主要涉及使用图形技术分析数据集的探索性数据分析,或构成公司后台功能一部分的任务分配系统。因此,不仅应考虑系统应用的一般领域,还应在个体层面考虑其具体目的。此外,应明确指出,附件三中已提及的人工智能应用还需要满足第 7(1) 条规定的条件才能被归类为高风险。在其人工智能系统分类框架中,经合组织指出,“某些使用计算技术和分析数据的系统不是人工智能系统。如果系统不符合人工智能的定义
正如联合国气候变化政府间小组 (IPCC) 所指出的,气候变化科学及其相关的社会经济影响目前已得到全球广泛认可。1 尽管各国政府已提交了国家自主贡献 (NDC) 以减轻气候变化的影响,2 但有序过渡到低碳未来的公共政策的制定却进展缓慢。不过,金融部门通过金融稳定理事会 (FSB) 气候相关财务信息披露工作组 (TCFD) 在制定气候变化风险披露框架方面取得了进展。TCFD 旨在以气候敏感的方式为投资提供信息,除其他建议外,还寻求明确企业如何识别、评估和管理气候变化风险。3,4
© 2020 Infosys Limited,印度班加罗尔。保留所有权利。Infosys 认为本文件中的信息在发布之日是准确的;此类信息如有更改,恕不另行通知。Infosys 承认其他公司对本文件中提及的商标、产品名称和其他知识产权的所有权。除非明确允许,否则未经 Infosys Limited 和/或本文件项下任何指定知识产权持有人的事先许可,不得复制、存储在检索系统中或以任何形式或任何方式(电子、机械、印刷、影印、录制或其他方式)传输本文件或其任何部分。
日内瓦协会的报告《促进保险业负责任的人工智能》分析了人工智能使用的重要道德准则,并探讨了如何在保险业背景下实施这些准则,同时考虑到公平机器学习方面计算机科学的最新发展。这些问题的明确答案仍难以捉摸。然而,日内瓦协会的报告旨在帮助确定和讨论在保险业实施负责任的人工智能核心原则时出现的关键权衡。虽然上述所有内容都很重要,但该报告特别关注 1)透明度和可解释性以及 2)公平性原则,因为它们提出了保险业中特别复杂的问题。
本出版物是日内瓦协会新技术与数据工作流的产物,由 AXA 集团首席执行官 Thomas Buberl 赞助。我们非常感谢为支持我们的新技术与数据研究活动而成立的工作组成员,他们是:Paul DiPaola 和 Evan Hughes(AIG)、Henning Schult(Allianz)、Ashley Howell(Aviva)、Patricia Plas、Chaouki Boutharouite 和 Dora Elamri(AXA)、Atsushi Izu(Dai-ichi Life)、Bruno Scaroni(Generali)、Chris Reid(Intact Financial)、Hiroki Hayashi(Nippon Life)和 Lutz Wilhelmy(Swiss Re)。我们还要感谢以下专家参加本报告专题研讨会:Ahed Abdelky(安联)、Marcin Detyniecki 和 Sarah El Marjani(安盛)、Alberto Branchesi(忠利)、Bo Gong(平安技术研究院)和 Achraf Louitri(Intact Financial)。最后,我们要感谢苏黎世大学的 Michele Loi,感谢他非常有帮助的见解和意见。
本报告是作为美国政府机构赞助的工作的记录而编写的。美国政府及其任何机构或其任何雇员均不对所披露的任何信息、设备、产品或流程的准确性、完整性或实用性做任何明示或暗示的保证,也不承担任何法律责任或义务,也不表示其使用不会侵犯私有权利。本文中以商品名、商标、制造商或其他方式提及任何特定商业产品、流程或服务并不一定构成或暗示美国政府或其任何机构对其的认可、推荐或支持。本文中表达的作者的观点和意见不一定代表或反映美国政府或其任何机构的观点和意见。