过去几年,可解释人工智能 (XAI) 和与之密切相关的可解释机器学习 (IML) 的研究发展迅速。推动这一增长的因素包括最近的立法变化、行业和政府增加的投资,以及公众日益关注。人们每天都会受到自主决策的影响,公众需要了解决策过程才能接受其结果。然而,XAI/IML 的绝大多数应用都侧重于提供低级“狭义”解释,说明如何根据特定数据做出个人决策。虽然这些解释很重要,但它们很少能洞察代理的信念和动机;其他(人类、动物或人工智能)代理意图的假设;对外部文化期望的解释;或者,用于生成自身解释的过程。然而,我们认为,所有这些因素对于提供人们接受和信任人工智能决策所需的解释深度都至关重要。本文旨在定义解释的层次,并描述如何将它们整合起来,以创建一个以人为本的对话解释系统。为此,本文将调查当前的方法,并讨论如何整合不同的技术,以通过广泛可解释人工智能 (Broad-XAI) 实现这些层次,从而迈向高级“强”解释。
格兰瑟姆气候变化研究所和环境研究所于2008年在伦敦经济学和政治学院成立。该研究所汇集了经济学以及金融,地理,环境,国际发展和政治经济学方面的国际专业知识,以建立一个世界领先的政策研究,气候变化和环境的教学和培训中心。它是由格兰瑟姆(Grantham)保护环境基金会资助的,该基金会还为伦敦帝国学院的气候变化和环境提供了资金。www.lse.ac.uk/grantham/
随着人工智能 (AI) 技术在社会中的应用日益广泛,了解人工智能可能以何种方式加速或阻碍气候进程以及各利益相关者如何引导这些发展至关重要。一方面,人工智能可以促进能源、制造业、农业、林业和灾害管理等各个领域的气候变化缓解和适应战略。另一方面,人工智能还可以通过有利于高排放行业或推动消费者需求增加的应用以及与人工智能本身相关的能源使用,导致温室气体排放增加。在这里,我们简要概述了人工智能与气候变化的多方面关系,并建议采取政策杠杆,使人工智能的使用与气候变化缓解和适应途径保持一致。