Loading...
机构名称:
¥ 1.0

两架波音 737-Max 商用客机最近坠毁,引发了人们对嵌入式计算系统 (MCAS) 的重要质疑,该系统的安装是为了让新的 737 机型在人类飞行员眼中更像旧机型 [ 1 ]。提出的关键问题之一是,人类飞行员并不知道该系统的存在,而且该系统的“智能”容易出现单点故障(迎角传感器)[ 1 ]。人工智能 (AI) 将在这种系统中发挥越来越重要的作用,尤其是当自主机器在太空或深海等遥远而恶劣的环境中运行时 [ 2 ]。在这种恶劣的环境下,当发生故障时,准确评估问题所在至关重要,这样设计人员才能从故障中吸取教训。同时,当此类系统做出基于证据的决策时,解释为什么以及如何做出某个决策至关重要。欧盟法律要求对此类解释进行解释,这是 2016 年颁布的“解释权”的一部分,主要是在对公民产生不利影响的决策背景下。现代人工智能系统利用嘈杂且通常不确定的数据来代表人类做出决策。当这些系统发挥作用时,它们具有很大的实用性,可用于自动驾驶汽车和在恶劣环境中运行的自主机器人等。除了实用性之外,这些系统还可以采用自学模式,使它们在国际象棋和围棋等游戏中超越人类的能力 [ 3 – 5 ]。然而,与人类智能一样,人工智能有时也未能实现目标。一个众所周知的失败案例是特斯拉 Model S,由于人工智能对白色卡车的特征提取和智能理解不准确,导致汽车在“自动驾驶模式”下发生致命车祸 [6]。人工智能的失败并不令人惊讶。智能是基于不确定性做出决策的行为。这一事实将人工智能与基于流程图设计的非智能决策系统区分开来,就像大多数计算机程序一样 [7]。对于人类来说,在童年和成年时期,许多类型的学习都需要这样的失败。大多数机器学习 (ML) 人工智能算法还依赖于“训练阶段”,在此阶段,工件在人类标记的数据集上进行指导,并从失败中学习,然后才被允许在非标记数据上“野外”运行 [8]。

文章 可解释的人工智能:神经启发的决策堆栈框架

文章 可解释的人工智能:神经启发的决策堆栈框架PDF文件第1页

文章 可解释的人工智能:神经启发的决策堆栈框架PDF文件第2页

文章 可解释的人工智能:神经启发的决策堆栈框架PDF文件第3页

文章 可解释的人工智能:神经启发的决策堆栈框架PDF文件第4页

文章 可解释的人工智能:神经启发的决策堆栈框架PDF文件第5页

相关文件推荐