4.1受保护的运行时环境。。。。。。。。。。。。。。。。。。。。。。。10 4.1.1简介。。。。。。。。。。。。。。。。。。。。。。。。。。。。。10 4.1.2防止记忆腐败攻击的保护。。。。。。。。。11 4.1.3概述。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。11 4.1.4安全编码。。。。。。。。。。。。。。。。。。。。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>12 4.1.5攻击和对策。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>13 4.1.5.1代码损坏攻击。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>14 4.1.5.2控制流劫持攻击。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>14 4.5.5.3仅数据攻击。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>16 4.1.5.4信息泄漏。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>16 4.6官方解决方案。 div>。 div>。 div>。 div>。 div>。 div>。 div>。。。。。。。。。。。。。。。。。。16 4.1.6.1写XOR执行,数据执行预防(DEP)。16 4.1.6.2堆栈粉碎保护(SSP)。。。。。。。。。。。17 4.1.6.3地址空间布局随机化(ASLR)。。。。19 4.1.6.4控制流完整性(CFI)。。。。。。。。。。。。。。。。21 4.1.6.5代码指针完整性(CPI),代码指针分离(CPS)。。。。。。。。。。。。。。。。。。。。。。。。。22 4.1.6.6指针身份验证。。。。。。。。。。。。。。。。。。23 4.1.7隔离。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。23 4.1.8水平隔离。。。。。。。。。。。。。。。。。。。。。。。。24 4.1.8.1虚拟内存。。。。。。。。。。。。。。。。。。。。。。24 4.1.9 OS级虚拟化。。。。。。。。。。。。。。。。。。。。。。25 4.1.10垂直隔离。。。。。。。。。。。。。。。。。。。。。。。。。。25 4.2隔离运行时环境。。。。。。。。。。。。。。。。。。。。。。。。27 4.2.1硬件信任锚。。。。。。。。。。。。。。。。。。。。。。27 4.2.1.1硬件安全模块。。。。。。。。。。。。。。。。27 4.2.1.2安全硬件扩展名(SHA)。。。。。。。。。。28 4.2.1.3受信任的平台模块。。。。。。。。。。。。。。。。29 4.2.2受信任的执行环境。。。。。。。。。。。。。。。。。29 4.2.2.1 T恤架构。。。。。。。。。。。。。。。。。。。。。29 4.2.2.2 T恤摘要。。。。。。。。。。。。。。。。。。。。。。32 4.3全球平台标准。。。。。。。。。。。。。。。。。。。。。。。。。。32 4.3.1简介。。。。。。。。。。。。。。。。。。。。。。。。。。。。。32
由于现实世界中的噪音和人为增强的扰动,达到深度神经网络(DNNS)的信任度是一项艰巨的任务。因此,为这些非线性和复杂的参数化模型做出的决策提供解释至关重要。归因方法对于这个目标有希望,但其性能可以进一步提高。在本文中,我们首次提出了归因的决策边界探索方法与可转移的对抗攻击的过程一致。具体而言,可转移的对抗性攻击来自源模型的一般对抗性,这与可以跨越属性中多个决策边界的副本样本的生成一致。UTI-liz liz of the Enstancions,我们通过模型Pa-Rameter探索引入了一种新颖的归因方法。此外,灵感来自研究模型参数的频率能力,我们通过基于频率信息来探索不同模型的决策范围的输入功能来为DNN提供增强的解释。大规模实验表明,使用模型参数e x ploration(attexplore)进行电子i xplanation的方法优于其他最先进的可解释性方法。此外,通过采用其他可转移攻击技术,Attexplore可以探索归因结果的潜在变化。我们的代码可在以下网址提供:https://github.com/lmbtough/attexplore。
本文提出了一种使用结构因果模型的对比解释模型。近年来,随着研究人员和从业人员致力于增进对智能决策的信任和理解,人工智能中的因果解释主题引起了人们的广泛关注。虽然人工智能的不同子领域都以特定于子领域的视角研究了这个问题,但是很少有模型旨在更普遍地捕捉解释。一个通用模型基于结构因果模型。它将解释定义为一种事实,如果被发现为真,则将构成特定事件的实际原因。然而,哲学和社会科学的研究表明,解释是对比的:也就是说,当人们要求对某个事件进行解释时——事实——他们(有时是隐含地)要求相对于某些对比情况的解释;也就是说,“为什么是 P 而不是 Q ?”。本文扩展了结构因果模型方法,定义了两个互补的对比解释概念,并在人工智能中的两个经典问题:分类和规划上进行了演示。我们相信该模型可以帮助人工智能子领域的研究人员更好地理解对比解释。
主要针对“保留控制”事项,通常条件仅与这些问题有关。但是,应注意的是,该法案第104条为应用提供了广泛的评估标准,其规定可能会影响任何同意条件条件的性质和范围(在“保留控制权”范围内)。
自动驾驶汽车、社交和工业机器人、基于图像的医疗诊断、基于语音的知识和控制系统(例如 Alexa、Siri)以及推荐系统是一些应用领域,其中 AI/ML 辅助数字工件已经支持日常惯例和活动。可解释人工智能 (XAI) 和可解释机器学习 (IML) 都是关注用户为应对自动化系统渗透社会、经济、工业和科学环境的激增而创造的术语。例如,当自动驾驶汽车发生碰撞时,有什么好的解释?当 Alexa 被要求解释为什么英国的通货膨胀率如此之高,而通常的回答却非常不合适时,有什么好的解释?当社交媒体巨头为粉丝提出建议并向普通用户投放广告时,有什么好的解释?这些问题,特别是在任务关键型或影响生命的系统中,是由此类系统日益复杂的情况所引发的,在解释和解释其决策、结果或行为时,这些系统不可避免地会变成“黑匣子”。尽管已经采取了一些有趣的算法方法和实现(例如 LIME、IBM Protodash 和 SHAP(SHapley Additive exPlanations))来应对这一挑战,以看透“黑匣子”并理解其行为,但这些方法和实现主要由 ML 开发人员推动,旨在改进 ML 模型,而不是为系统消费者提供结果的某种解释或解释。在更广泛的多学科背景下,“什么是对外行用户的良好解释”这个问题的答案变得更具挑战性,正如我们呼吁的那样,从哲学到社会学、经济学和计算机科学。在此背景下,XAI 应该涉及需要解决的另一个层次的讨论:我们作为人类与 AI 系统的关系。尽管如此,“解释”一词源自拉丁语动词“explanare”,字面意思是“使水平”。因此,讨论和科学