9 如果我们 a) 认为存在生存风险,即使概率很低,并且 b) 接受人工智能安全领域某些研究人员的假设,即人工智能可能很快从无害转变为存在危险,那么在与人工智能造成的生存风险相关的监管案例中就会出现相关挑战。大多数(如果不是全部)基于风险的监管都以动态系统为前提——一个重复的游戏,受监管者从其他主体那里学习并预测未来的行动。假设 (a) 和 (b) 将其归结为有限阶段或一次性游戏。这种环境下的最佳监管方法可能与我们通常在其中运作的动态系统中的方法不同。
最近,ChatGPT 等生成式 AI 工具的兴起使 AI 的风险和挑战成为人们关注的焦点。在保险行业,主要问题包括缺乏透明度和可解释性、歧视、偏见、不公平、负担不起、排斥和数据相关问题。8 这些问题对保险业来说并不一定是新问题,而是通过不同的渠道出现的,这是使用 AI 的结果。保险公司正在采取各种措施来应对这些特定于 AI 的风险,例如检测和防止 AI 模型中不必要的相关性的方法、遵循 EIOPA 发布的 AI 治理原则 9、对承保中使用的评级因素数量进行自我限制,以及为管理 AI 相关风险而量身定制的治理结构。重要的是,保险业中 AI 决策的可逆性意味着相关风险与其他领域的风险有很大不同。
• Chubb • Julian Arevalo(EIOPA) • Lucy Ashton(ABI) • Birny Birnbaum(经济正义中心) • 专员 Kathleen A. Birrane(马里兰州保险管理局) • Alessandro Bonaita(Generali) • Matt Brewis、Karen Croxson(英国 FCA) • Chris Dolman(IAG) • Michael Drobac(AIG) • Michael Foehner、Tobias Wassmann(瑞士再保险) • Oliver Goodenough(佛蒙特法学院) • Arthur Hilliard、Danilo Gattullo(欧洲保险) • Joe Jones(国际隐私专业人员协会) • Xuchun Li(新加坡金融管理局) • Amedeo Santosuosso(帕维亚高等大学) • Dave Snyder(美国财产保险协会) • Anika Stehr、Julia Perl(汉诺威再保险) • Lutz Wilhelmy(欧洲精算协会) • Leigh Wolfrom (OECD) • 肖菁 (平安)
数字技术(尤其是那些可以让我们实现复杂流程自动化的技术)对我们未来的医疗保健至关重要。这一“向科技倾斜”2 包括由“人工智能”支持的医疗设备,其中技术可以执行通常需要人类技能才能完成的任务:识别横断面成像中的异常以检测肺癌、检测和分类糖尿病患者的视网膜病变、预测结果以指导治疗决策。这些工具可以让工作人员专注于我们最需要他们做的事情——那些无法自动化的事情,例如传达严重诊断的含义,或讨论复杂治疗决策的利弊。但是,对于可以自动化的事情,人工智能医疗技术有潜力提供 24/7 服务,其质量、可靠性和速度甚至超过最好的人类表现。