标准 标准名称 类型 𝑪𝟏 技术可靠性 最大化 𝑪𝟐 可行性 最大化 𝑪𝟑 废料分离 最大化 𝑪𝟒 废物回收 最大化 𝑪𝟓 能量回收 最大化 𝑪𝟔 每吨净成本 最小化 𝑪𝟕 空气污染控制 最小化 𝑪𝟖 排放水平 最小化 𝑪𝟗 地表水分散排放 最小化 𝑪𝟏𝟎 员工人数 最小化
摘要 基于人工智能的系统可信度评估是一个具有挑战性的过程,因为该主题的复杂性涉及定性和可量化的概念、属性的广泛异质性和粒度,在某些情况下甚至后者的不可比性。评估人工智能系统的可信度在安全关键领域尤其具有决定性,因为人工智能预计主要会自主运行。为了克服这些问题,Confiance.ai 程序 [ 1 ] 提出了一种基于多标准决策分析的创新解决方案。该方法包含几个阶段:将可信度构建为一组定义明确的属性,探索属性以确定相关的性能指标(或指标),选择评估方法或控制点,以及构建多标准聚合方法来估计对信任的全局评估。该方法通过将一些性能指标应用于数据驱动的 AI 环境来说明,而对聚合方法的关注则作为 Confiance.ai 里程碑的近期视角。
近年来,各公司一直在为由人工智能 (AI) 控制的数字虚拟代理开发更逼真的人脸。但用户对与此类虚拟代理互动有何感受?我们使用了一项受控实验室实验来检查用户对通过视频(即 Skype)以及非常逼真的虚拟形象出现的真实人类旅行代理的感知可信度、亲和力和偏好;一半的参与者(被误导性地)被告知虚拟形象是由人工智能控制的虚拟代理,而另一半则被告知虚拟形象由同一个人类旅行代理控制。结果表明,参与者认为视频人类代理更值得信赖,对他更有亲和力,并且比两个虚拟形象版本都更喜欢他。相信虚拟形象是由人工智能控制的虚拟代理的用户对代理的亲和力、可信度和偏好程度与相信虚拟形象由人类控制的用户相同。因此,使用逼真的数字化身会降低亲和力、可信度和偏好,但虚拟形象如何控制(由人还是机器)则没有影响。结论是,仅提高视觉保真度就能带来显著的积极变化,用户并不反对先进的人工智能模拟人类的存在,有些人甚至可能期待这样先进的技术。1. 简介
摘要 车载入侵检测系统 (IV-IDS) 是用于检测针对电动或自动驾驶汽车的网络攻击的保护机制之一,其中基于异常的 IDS 解决方案在检测攻击尤其是零日攻击方面具有更好的潜力。通常,由于难以区分正常数据和攻击数据,IV-IDS 会产生误报(错误地将正常数据检测为攻击)。它可能导致不良情况,例如系统松懈加剧,或在生成警报后事件处理中的不确定性。借助复杂的人工智能 (AI) 模型,IDS 提高了检测到攻击的机会。然而,使用这种模型是以降低可解释性为代价的,可解释性这一特性在确定其他各种有价值的需求时被认为很重要,例如模型的信任、因果关系和稳健性。由于基于人工智能的复杂 IV-IDS 缺乏可解释性,人类很难信任这样的系统,更不用说知道当 IDS 标记攻击时应该采取什么行动。通过使用可解释人工智能 (XAI) 领域的工具,本论文旨在探索可以根据模型预测产生什么样的解释,以进一步提高基于人工智能的 IV-IDS 的可信度。通过比较调查,在自定义、伪全局、基于可视化的解释(“VisExp”)和基于规则的解释上评估了与可信度和可解释性相关的方面。结果表明,VisExp 提高了可信度,并增强了基于人工智能的 IV-IDS 的可解释性。关键词:入侵检测系统、车载入侵检测系统、机器学习、深度学习、可解释人工智能、可信度。
摘要 在之前的工作中,我们试图描述“值得信赖的人工智能”(Varshney 2022,Knowles 等人。2022)。在这项工作中,我们研究了似乎对我们的(人类)可信度做出判断的人工智能系统的案例,并探究了在何种条件下我们可以信任人工智能系统适当地信任我们。我们认为,无法接受他人的观点(以下称为“同理心缺陷”)既可以解释也可以证明我们对人工智能的不信任,因为人工智能的任务是预测人类(不)可信度的可能性。例子包括使用人工智能来预测假释和保释资格、学术诚信和信誉。人类希望确保对我们的可信度的判断基于对我们的理由和独特情况的某种程度的同理心理解。人工智能无法采纳我们的主观观点,这使我们对人工智能系统对人类可信度的评估的信任产生怀疑。
由此类坠机事件引起的第三方责任诉讼。美国国家运输安全委员会 (NTSB) 负责调查绝大多数涉及诉讼的事故和事件。该委员会既会识别和观察速度、角度、天气和设备状况等客观数据,也会识别和观察设计错误、维护错误、通讯错误以及导致飞机失事的各种人为行为等主观证据或意见证据。此类公开、专业且理论上中立的证据对于诉讼当事人、法官和陪审团在解决第三方诉讼时似乎至关重要。然而,由于相关法规以及 NTSB 为限制其参与第三方诉讼而发布的隔离条例,在这种案件中,NTSB 的工作成果很少被采纳为证据。此外,由于证据收集和提供方式的原因,可能被采纳的证据也可能不被采纳。
摘要 基于人工智能技术的算法正在慢慢改变街头官僚机构,然而算法缺乏透明度可能会危及公民的信任。基于程序公平理论,本文假设算法透明度的两个核心要素(可访问性和可解释性)对于增强街头决策的可信度至关重要。本文在一个自由裁量权较低的场景(签证申请被拒绝)和一个自由裁量权较高的场景(福利欺诈嫌疑)中对这一假设进行了测试。结果表明:(1)可解释性对信任的影响比算法的可访问性更明显;(2)算法透明度的影响不仅涉及对算法本身的信任,而且部分涉及对人类决策者的信任;(3)算法透明度的影响在决策环境中并不稳健。这些发现意味着透明度作为可访问性不足以培养公民信任。必须解决算法的可解释性问题,以维持和培养算法决策的可信度。
随着技术的发展和应用到不同的日常情境中[1-4],社交机器人作为最新创新的代表之一,是一种能够与人类进行社交交流和互动的人工智能系统[5-7]。与传统的人形机器人(如机器人产品、Zora Robot)不同,这些机器人在物理上体现了特定的人类特征,一些最新的社交机器人(如机器人产品、Jibo、Welbo、Misa、QTrobot、Hub、Mykie和Buddy Robot)设计有屏幕,带有动画人脸,可以与人交流和互动[8,9]。例如,图 1 展示了Buddy Robot,它设计有类似人类的眼睛和嘴巴,可以在情感上陪伴人类、与人类互动,并响应人类的需求。事实上,可能有必要为社交机器人设计一个类似头部的界面,以促进人机关系中的交流[10,11],因为人类的社会认知和感知过程可能会鼓励人们概括与人类相关的知识和认知,形成对与社交机器人的行为互动的期望[12]。
摘要 在快速发展的无线通信领域,即将到来的 6G 网络有望彻底改变我们的通信方式,提供无与伦比的速度、最小的延迟和无缝连接。然而,在这一演变过程中,人们最关心的仍然是穿越这些网络的数据的安全性和隐私性。传统的集中式人工智能 (AI) 技术已经难以跟上未来 6G 网络的海量数据,并应对日益增长的隐私担忧。联邦学习 (FL) 是可信人工智能 (TAI) 的关键推动因素,它使分布式网络节点能够参与人工智能训练,而无需交换原始数据,从而降低了与集中式数据处理相关的风险。在本文中,我们对 FL 在增强 6G 网络安全性方面的潜力进行了全面的调查。特别是,我们首先提供有关 5G 网络和 FL 的必要背景知识,为理解它们当前和未来的影响奠定基础。然后,我们探讨 5G 网络中 FL 应用的当前最新进展及其与 6G 未来威胁形势的相关性。随后,我们研究了 FL 系统的固有漏洞、5G 网络背景下针对 FL 的主要攻击以及相应的防御机制。最后,我们讨论了先进的 FL 技术和概念的集成,以增强 6G 网络的网络安全和隐私,旨在涵盖即将到来的 6G 威胁形势背景下 FL 的所有方面和未来前景。
识别有效的靶点-疾病关联(TDA)可以减轻药物开发临床失败所造成的巨大成本。尽管已经提出了许多机器学习模型来快速预测潜在的新型 TDA,但它们的可信度并不能保证,因此需要大量的实验验证。此外,当前的模型通常很难为信息较少的实体预测有意义的关联,因此限制了这些模型在指导未来研究中的应用潜力。基于利用图神经网络从异构生物数据中提取特征的最新进展,我们开发了 CreaTDA,这是一个基于端到端深度学习的框架,可以有效地学习靶点和疾病的潜在特征表示,以促进 TDA 预测。我们还提出了一种对从文献中获得的可信度信息进行编码的新方法,以提高 TDA 预测的性能,并根据先前研究的真实证据支持预测更多新型 TDA。与最先进的基线方法相比,CreaTDA 在整个 TDA 网络及其包含与少数已知疾病相关的蛋白质的稀疏子网络上实现了更好的预测性能。我们的结果表明,CreaTDA 可以为识别新的靶标-疾病关联提供强大而有用的工具,从而促进药物发现。