选择A不正确。尽管文本确实是夏季作为不活动的时期,但它并没有将其表征为无用,也没有目的。实际上,演讲者将夏季视为“感觉”“为尚未到来的努力的力量收集力量”的时代。选择C是不正确的。文字将夏季描述为“当灵感滞后和睡觉时”的时代,但它并没有讨论本季与演讲者记忆的关系,或者暗示很容易忘记夏天。选择D不正确。在某些情况下,“无效”可能意味着没有或缺乏特定元素,并且这种缺乏的元素可能被认为是不完整的。但是,文字并没有将夏季描绘成不完整或整体;取而代之的是,它将空缺或不活动的特征是演讲者所经历的季节的重要素质。
解释被视为通过使其透明的方式来增强对机器学习(ML)模型的信任的一种方式。尽管最初是一种调试工具,但现在也被广泛提议证明基于ML的社会应用预测公平和敏感性(Langer等人)(Langer等人,2021; Smuha,2019年; K a astner等。,2021;冯·埃辛巴赫(Von Eschenbach),2021年;勒本,2023年; Karimi等。,2020年; Wachter等。,2017年; Liao&Varshney,2021年)和法规(解释权(Wikipedia con-trigutors,2025))。但是,如(Bordt等人,2022年),其中许多用例都在对抗性中是对抗性的,在这种情况下,参与方的利益不一致,并受到激励以操纵解释以实现其目的。例如,一家基于ML模型的预测拒绝向申请人贷款的银行有一个令人讨厌的人将无可争议的解释退还给申请人
人工智能 (AI) 是金融行业最受追捧的创新之一。然而,随着它的日益普及,人们也呼吁基于 AI 的模型变得易于理解和透明。但是,以可理解的方式解释算法的内部机制及其解释完全取决于受众。现有文献未能将越来越多的可解释人工智能 (XAI) 方法与不同利益相关者的可解释性需求相匹配。本研究通过探讨瑞士金融行业内的各个利益相关者如何在各自的背景下看待可解释性来解决这一差距。基于对金融行业从业人员的一系列访谈,我们深入回顾并讨论了他们对当前 XAI 技术在满足不同解释要求方面的潜力和局限性的看法。
在某些情况下,XAI系统无法尊重用户输入[40]。系统应该如何反应?对于低风险场景,虚幻的代理可能是一个有用的工具。游戏设计师将其用作保留其僵化的游戏故事的补充机制[11,31]。为了允许持续的用户代理,用户能够观察其输入的效果,但输入对基础算法没有影响。Vaccaro等。[43]在社交媒体环境中显示,无论其有效性如何,用户“对控制的存在更加满意”。一些已经利用虚幻代理的日常系统包括人行横道按钮和电梯闭门按钮。虚幻的代理只能设计出在低风险场景中已经存在的“真实”代理体验,以避免用户欺骗并最大程度地减少道德问题的影响。可能受益于虚幻的机构的这种情况的示例包括在培训环境中的XAI系统[16]。
经常会产生不一致的解释,并在非常相关的问题上进行解释(Chen等人,2023b)。实际上,LLMS甚至常常难以回答同一问题的重塑(Sclar等人,2023;张等。,2023)。目前尚不清楚适应LLM的流行方法,例如从人类反馈中监督的填充或加强学习能够解决此问题。我们通过引入解释 - 一致性登录(EC-FINETUNING)来解决此问题。ec-芬特列列列列斯在合成数据上的LLM精确构建以包含一致的规定。我们从一个问题解释对开始(例如,麻雀可以飞吗?”,“所有的鸟都可以飞”),产生一组相关问题(例如,“可以飞翔?”),然后回答与初始解释一致的相关问题(例如,“所有鸟类都可以飞行,以便企鹅可以飞”)。我们通过提示LLM来生成综合数据,这可能与解释LLM相同或不同。我们将EC-FINETIND应用于提问数据集,并发现它在四个芬口数据集中将自然语言解释的一致性提高了10.0%,也将七个分发数据集的概括( +4.5%相对)概括为七个未见到的数据集( +4.5%)。这表明EC-Finetuning通常对于帮助用户从其解释中构建LLM的心理模型很有用(见图1)。
解释歌词的可唱性是语言模型 (LM) 在歌词生成中一项重要但缺失的能力。这项能力使作曲家能够快速评估 LM 生成的歌词是否可以与旋律和谐地唱出来,并帮助歌手在练习过程中将歌词与旋律对齐。本文提出了 XAI-Lyricist,利用音乐韵律指导 LM 生成可唱的歌词并提供人类可理解的可唱性解释。我们使用 Transformer 模型在音乐韵律约束下生成歌词,并提供歌词韵律模式的演示作为可唱性解释。XAI-Lyricist 通过计算指标(困惑度、韵律-BLEU)和以人为本的研究(人类评分、平均唱歌时间和尝试次数)进行评估。实验结果表明,音乐韵律可以显著提高 LM 生成的歌词的可唱性。一项针对 14 名歌手的对照研究也证实了所提供的解释有助于他们比阅读纯文本歌词更快地理解歌词的可唱性。
摘要 机器学习 (ML) 越来越多地融入各个领域的决策制定,引发了人们对道德、合法性、可解释性和安全性的担忧,凸显了人类监督的必要性。作为回应,可解释人工智能 (XAI) 应运而生,它通过提供对 ML 模型决策的洞察,并让人类了解底层逻辑,从而成为一种增强透明度的手段。尽管现有的 XAI 模型具有潜力,但通常缺乏实用性,无法提高人机性能,因为它们可能会引入过度依赖等问题。这强调了以人为本的 XAI 需要进一步研究,以提高当前 XAI 方法的可用性。值得注意的是,目前的大部分研究都集中在 XAI 与个体决策者之间的一对一互动上,忽视了现实世界场景中人类群体使用 XAI 进行集体决策协作的多对一关系的动态。在这项最新工作中,我们借鉴了以人为中心的XAI研究的当前成果,并讨论了如何将XAI设计过渡到群体AI交互。我们讨论了XAI从人机交互过渡到群体AI交互的四个潜在挑战。本文有助于推动以人为中心的XAI领域的发展,促进群体XAI交互的讨论,呼吁在该领域进一步研究。关键词 可解释AI,群体AI交互,交互设计
过去几年,可解释人工智能 (XAI) 和与之密切相关的可解释机器学习 (IML) 的研究发展迅速。推动这一增长的因素包括最近的立法变化、行业和政府增加的投资,以及公众日益关注。人们每天都会受到自主决策的影响,公众需要了解决策过程才能接受其结果。然而,XAI/IML 的绝大多数应用都侧重于提供低级“狭义”解释,说明如何根据特定数据做出个人决策。虽然这些解释很重要,但它们很少能洞察代理的信念和动机;其他(人类、动物或人工智能)代理意图的假设;对外部文化期望的解释;或者,用于生成自身解释的过程。然而,我们认为,所有这些因素对于提供人们接受和信任人工智能决策所需的解释深度都至关重要。本文旨在定义解释的层次,并描述如何将它们整合起来,以创建一个以人为本的对话解释系统。为此,本文将调查当前的方法,并讨论如何整合不同的技术,以通过广泛可解释人工智能 (Broad-XAI) 实现这些层次,从而迈向高级“强”解释。
透明度被广泛认为对于人工智能 (AI) 在现实世界中的负责任部署至关重要,也是建立对 AI 的信任的必要先决条件。实现透明度的方法有很多种,其中一种很有前途的尝试是以人为本的解释。然而,很少有研究关注以人为本的解释对最终用户信任的有效性。现有实证研究的比较之所以复杂,是因为信任的衡量方式不同。一些研究人员使用问卷来衡量主观信任,而另一些研究人员则衡量客观的信任相关行为,如依赖。为了弥合这些差距,我们研究了两种有前途的以人为本的事后解释——特征重要性和反事实——对信任和依赖的影响。我们在决策实验 (N = 380) 中将这两种解释与控制条件进行了比较。结果表明,以人为本的解释可以显著增加依赖性,但决策类型(提高价格还是降低价格)的影响更大。这挑战了透明度在涉及人工智能的人类决策中相对于其他因素(例如潜在的启发式和偏见)的假定重要性。我们得出结论,信任并不一定等同于依赖,并强调了适当、经过验证和商定的指标对于设计和评估以人为本的人工智能的重要性。
自治系统在我们的社会中扮演着越来越重要的角色,但是,由于他们期望应对一系列社会,法律或技术挑战,并且基于NEU-MENAL网络的AI系统尚无法为许多这些挑战提供保证。尤其重要的是,这些系统是黑匣子决策者,侵蚀了人类的监督,竞争和代理机构。为了解决这一特殊问题,我的论文着重于将社会解释的AI与认知方法和自然语言处理整合到以室外用户访问的方式来阐明自主系统的内部过程。i提出了一种基于多代理系统中反事实模拟的决策的因果解释生成模型。我还计划将CEMA与更广泛的自然语言处理管道整合在一起,以支持针对性和个性化的解释,以解决人们的认知偏见。我希望我的研究能够通过建立更值得信赖的AI来对公众接受自主代理人产生积极影响。