近年来,大量研究和指导表明,提高人工智能 (AI) 系统的可信度是私营和公共部门的共同优先事项。1,2,3 然而,可信人工智能的含义以及实现它的潜在方法仍然存在争议。4,5,6 利益相关者往往缺乏共同的词汇或一组需要考虑的问题,而且很少有针对人工智能开发者和政策制定者的指导。现有的可信人工智能框架还倾向于关注一组相对狭窄的人工智能模型和直接与人互动的应用程序。7 自 2021 年以来,美国国家标准与技术研究所 (NIST) 一直在与不同的利益相关者合作,开发旨在促进可信人工智能的人工智能风险管理框架 (RMF)。在本文中,我们分析了可信人工智能的前景,并介绍了一种人工智能可信度分类法,旨在补充和支持 NIST AI RMF 的使用。
识别有效的靶点-疾病关联(TDA)可以减轻药物开发临床失败所造成的巨大成本。尽管已经提出了许多机器学习模型来快速预测潜在的新型 TDA,但它们的可信度并不能保证,因此需要大量的实验验证。此外,当前的模型通常很难为信息较少的实体预测有意义的关联,因此限制了这些模型在指导未来研究中的应用潜力。基于利用图神经网络从异构生物数据中提取特征的最新进展,我们开发了 CreaTDA,这是一个基于端到端深度学习的框架,可以有效地学习靶点和疾病的潜在特征表示,以促进 TDA 预测。我们还提出了一种对从文献中获得的可信度信息进行编码的新方法,以提高 TDA 预测的性能,并根据先前研究的真实证据支持预测更多新型 TDA。与最先进的基线方法相比,CreaTDA 在整个 TDA 网络及其包含与少数已知疾病相关的蛋白质的稀疏子网络上实现了更好的预测性能。我们的结果表明,CreaTDA 可以为识别新的靶标-疾病关联提供强大而有用的工具,从而促进药物发现。
摘要 在之前的工作中,我们试图描述“值得信赖的人工智能”(Varshney 2022,Knowles 等人。2022)。在这项工作中,我们研究了似乎对我们的(人类)可信度做出判断的人工智能系统的案例,并探究了在何种条件下我们可以信任人工智能系统适当地信任我们。我们认为,无法接受他人的观点(以下称为“同理心缺陷”)既可以解释也可以证明我们对人工智能的不信任,因为人工智能的任务是预测人类(不)可信度的可能性。例子包括使用人工智能来预测假释和保释资格、学术诚信和信誉。人类希望确保对我们的可信度的判断基于对我们的理由和独特情况的某种程度的同理心理解。人工智能无法采纳我们的主观观点,这使我们对人工智能系统对人类可信度的评估的信任产生怀疑。
摘要 由于人工智能(AI)研究及其部署和应用的广泛进展,近年来有关人工智能系统的公开辩论也获得了动力。随着《可信赖人工智能伦理指南》(2019)的发布,信任和可信度的概念在人工智能伦理辩论中引起了特别的关注;尽管人们普遍认为人工智能应该值得信赖,但信任和可信度在人工智能领域的含义并不明确。在本文中,我详细概述了迄今为止《人工智能伦理指南》中使用的信任概念。在此基础上,我从实践哲学的角度评估了它们的重叠和遗漏。我认为,目前,人工智能伦理倾向于过载可信度的概念。因此,它有可能成为一个流行词,无法转化为人工智能研究的工作概念。然而,我们需要的是一种方法,这种方法也借鉴了其他领域对信任的研究成果,例如社会科学和人文学科,尤其是实践哲学领域。本文旨在朝这个方向迈出一步。
图3 市售 AI 软件的显着相关性评估。通过扰动原始胸部 X 光片(上行),通过攻击代理模型生成对抗性图像(下行)。然后将对抗性图像输入到市售医疗 AI 模型中。请注意,从原始图像到对抗性图像对不同发现的预测概率变化很大,而
技术进步使 AI 讲师(更宽泛地说是机器教师)成为了现实。然而,关于学生如何看待提供教育内容的 AI 讲师,我们可用的信息有限。因此,本研究通过一项在线实验,采用 2(声音:机器般的 vs. 人类般的)x 2(专业知识:新手 vs. 专家)被试间设计,检验 AI 讲师的声音和专业知识对 AI 讲师感知可信度的影响。研究结果表明,与机器般的声音相比,学生认为具有人性化声音的 AI 讲师的可信度更高。研究还发现,社交存在感在 AI 讲师的声音与 AI 讲师感知可信度之间的关系中起着中介作用。最后,AI 讲师感知可信度会对学生未来报名参加基于 AI 讲师的在线课程的意愿产生积极影响。这些发现强调了培养被认为可信的 AI 讲师的重要性。
摘要 车载入侵检测系统 (IV-IDS) 是用于检测针对电动或自动驾驶汽车的网络攻击的保护机制之一,其中基于异常的 IDS 解决方案在检测攻击尤其是零日攻击方面具有更好的潜力。通常,由于难以区分正常数据和攻击数据,IV-IDS 会产生误报(错误地将正常数据检测为攻击)。它可能导致不良情况,例如系统松懈加剧,或在生成警报后事件处理中的不确定性。借助复杂的人工智能 (AI) 模型,IDS 提高了检测到攻击的机会。然而,使用这种模型是以降低可解释性为代价的,可解释性这一特性在确定其他各种有价值的需求时被认为很重要,例如模型的信任、因果关系和稳健性。由于基于人工智能的复杂 IV-IDS 缺乏可解释性,人类很难信任这样的系统,更不用说知道当 IDS 标记攻击时应该采取什么行动。通过使用可解释人工智能 (XAI) 领域的工具,本论文旨在探索可以根据模型预测产生什么样的解释,以进一步提高基于人工智能的 IV-IDS 的可信度。通过比较调查,在自定义、伪全局、基于可视化的解释(“VisExp”)和基于规则的解释上评估了与可信度和可解释性相关的方面。结果表明,VisExp 提高了可信度,并增强了基于人工智能的 IV-IDS 的可解释性。关键词:入侵检测系统、车载入侵检测系统、机器学习、深度学习、可解释人工智能、可信度。
了解人类如何评估可信度是假新闻时代的一个重要科学问题。来源可信度是可信度评估中最重要的方面之一。了解来源可信度的最直接方法之一是测量进行可信度评估的人的大脑活动。本文报告了一项实验的结果,在该实验中,我们使用脑电图测量了可信度评估过程中的大脑活动。在实验中,参与者必须根据准备阶段学习虚构学生的来源可信度,在此期间,他们在完全了解信息可信度的情况下评估信息可信度。该实验可以识别参与者在做出正面或负面的来源可信度评估时活跃的大脑区域。基于实验数据,我们使用 F1 得分超过 0.7 的脑电图大脑活动测量值(使用 10 倍交叉验证)对人类来源可信度评估进行建模和预测。我们还能够对具有完美知识的信息可信度评估进行建模和预测,并比较从单个实验中获得的两个模型。
表 T1 – 数据集文档 10 表 T2 – 关于人工智能系统运行的文档 11 表 T3 – 可理解性 12 表 T4 – 可访问性(相关机构之外) 14 表 A1 – 生命周期中确保问责的过程 17 表 A2 – 企业/机构责任(回顾性) 20 表 A3 – 负责任的人为监督 20 表 P1 – 数据处理流程 25 表 P2 – 个人数据保护(人工智能相关) 25 表 P3 – 用户和受影响人员的同意流程、信息和影响 27 表 F1 – 确保开发过程中的公平性 31 表 F2 – 工作和供应链条件 37 表 F3 – 生态可持续发展 38 表 R1 – 设计的稳健性和可靠性 42 表 R2 – 运行中的稳健性和可靠性 47 表 1 – 各级别的对应分数 48
由此类坠机事件引起的第三方责任诉讼。美国国家运输安全委员会 (NTSB) 负责调查绝大多数涉及诉讼的事故和事件。该委员会既会识别和观察速度、角度、天气和设备状况等客观数据,也会识别和观察设计错误、维护错误、通讯错误以及导致飞机失事的各种人为行为等主观证据或意见证据。此类公开、专业且理论上中立的证据对于诉讼当事人、法官和陪审团在解决第三方诉讼时似乎至关重要。然而,由于相关法规以及 NTSB 为限制其参与第三方诉讼而发布的隔离条例,在这种案件中,NTSB 的工作成果很少被采纳为证据。此外,由于证据收集和提供方式的原因,可能被采纳的证据也可能不被采纳。