•Web用户界面。帐户,模型版本。提示,对话。•提示:系统,用户,助手,功能•创建有效提示的策略。单发,很少•角色。ton和响应样式管理•答案格式•提示的优化和个性化•注入和存储上下文。长期对话
可解释人工智能 (XAI) 是一个快速发展的领域,旨在创建能够为其决策过程提供人类可理解的解释的 AI 系统。然而,这些解释仅依赖于模型和数据特定的信息。为了支持更好的人类决策,将领域知识集成到 AI 系统中有望增强理解和透明度。在本文中,我们提出了一种在对话系统中将 XAI 解释与领域知识相结合的方法。我们专注于源自计算论证领域的技术,将领域知识和相应的解释融入人机对话中。我们在原型系统中实现该方法以进行初步用户评估,其中用户与对话系统交互以从底层 AI 模型接收预测。参与者能够探索不同类型的解释和领域知识。我们的结果表明,当集成领域知识时,用户倾向于更有效地评估模型性能。另一方面,我们发现用户在对话交互过程中并不经常请求领域知识。
摘要 机器学习 (ML) 越来越多地融入各个领域的决策制定,引发了人们对道德、合法性、可解释性和安全性的担忧,凸显了人类监督的必要性。作为回应,可解释人工智能 (XAI) 应运而生,它通过提供对 ML 模型决策的洞察,并让人类了解底层逻辑,从而成为一种增强透明度的手段。尽管现有的 XAI 模型具有潜力,但通常缺乏实用性,无法提高人机性能,因为它们可能会引入过度依赖等问题。这强调了以人为本的 XAI 需要进一步研究,以提高当前 XAI 方法的可用性。值得注意的是,目前的大部分研究都集中在 XAI 与个体决策者之间的一对一互动上,忽视了现实世界场景中人类群体使用 XAI 进行集体决策协作的多对一关系的动态。在这项最新工作中,我们借鉴了以人为中心的XAI研究的当前成果,并讨论了如何将XAI设计过渡到群体AI交互。我们讨论了XAI从人机交互过渡到群体AI交互的四个潜在挑战。本文有助于推动以人为中心的XAI领域的发展,促进群体XAI交互的讨论,呼吁在该领域进一步研究。关键词 可解释AI,群体AI交互,交互设计
解释歌词的可唱性是语言模型 (LM) 在歌词生成中一项重要但缺失的能力。这项能力使作曲家能够快速评估 LM 生成的歌词是否可以与旋律和谐地唱出来,并帮助歌手在练习过程中将歌词与旋律对齐。本文提出了 XAI-Lyricist,利用音乐韵律指导 LM 生成可唱的歌词并提供人类可理解的可唱性解释。我们使用 Transformer 模型在音乐韵律约束下生成歌词,并提供歌词韵律模式的演示作为可唱性解释。XAI-Lyricist 通过计算指标(困惑度、韵律-BLEU)和以人为本的研究(人类评分、平均唱歌时间和尝试次数)进行评估。实验结果表明,音乐韵律可以显著提高 LM 生成的歌词的可唱性。一项针对 14 名歌手的对照研究也证实了所提供的解释有助于他们比阅读纯文本歌词更快地理解歌词的可唱性。
摘要:可解释的人工智能(XAI)方法阐明了机器学习算法的预测。存在几种不同的方法,并且已经在气候科学中应用。然而,通常缺少地面真相解释使他们的评估和比较变得复杂,随后阻碍了XAI方法的选择。因此,在这项工作中,我们在气候环境中介绍了XAI评估,并讨论了不同所需的解释属性,即稳健性,忠诚,随机化,复杂性和本地化。为此,我们选择了预测的预测年度平均温度图的案例研究。在训练多层感知器(MLP)和卷积神经网络(CNN)之后,应用了多种XAI方法,并参考每个属性计算其针对随机均匀解释的技能得分。独立于网络,我们发现XAI方法(例如综合梯度,相关性传播)和输入时间梯度梯度表现出可观的鲁棒性,忠诚和复杂性,同时牺牲随机性表现。灵敏度方法,梯度,光滑,噪声果质和融合,与稳健性的技能相匹配,但牺牲性忠诚度和复杂性对于统治技能。我们发现有关不同XAI方法的鲁棒性,复杂性和本地化技能的体系结构依赖性性能差异,从而强调了研究任务评估的必要性。,我们旨在支持气候研究人员选择合适的XAI方法。总的来说,我们的工作概述了气候科学环境中不同评估属性的概述,并展示了如何比较和台式 - 基于优势和劣势评估其适合性,以评估其特定研究问题。
本研究引入了一个名为 EDUMX 的基准框架,该框架利用 Streamlit 开源 Python 库,专为基于机器学习 (ML) 的预测和 XAI 任务而设计。该框架提供了一套全面的功能,包括数据加载、特征选择、关系分析、数据预处理、模型选择、指标评估、训练和实时监控。用户可以轻松上传各种格式的数据,探索变量之间的关系,使用各种技术预处理数据,并使用可自定义的指标评估 ML 模型的性能。凭借其用户友好的界面,该框架为各个领域的预测任务提供了宝贵的见解,满足了预测分析不断变化的需求。EDUMX 可供所有人使用。如果您想要了解访问此工具的详细信息,请联系 mkuzlu@odu.edu。
博士生将在 ForML 项目 (https://www.irit.fr/ForML) 内工作。该项目是图卢兹信息研究所 (IRIT)(Aurélie Hurault、图卢兹 INP 和 Martin Cooper、图卢兹 III)、索邦大学(Antoine Miné、LIP6)和 Inria Paris(Caterina Urban、ANTIQUE)之间的合作,由 IRIT 领导。ForML 旨在开发基于抽象解释的新静态分析技术和基于反例引导抽象细化的新模型检查技术,以验证机器学习软件的稳健性、公平性和可解释性。博士生将驻扎在巴黎,由 Caterina Urban 和 Antoine Miné 共同指导。预计还将前往图卢兹进行研究访问并与该项目的 IRIT 成员合作。
生成的AI(Genai)标志着AI从能够“识别”到AI的转变,可以“生成”各种任务的解决方案。随着生成的解决方案和应用变得越来越复杂和多方面,新颖的需求,目标和可能性已出现以解释性(XAI)。在这项工作中,我们阐述了Xai为何在Genai的兴起及其在解释性研究中的挑战中变得重要。我们还揭露了解释应该实现的小说和新兴的逃避者,例如验证能力,互动性,安全性和成本方面。为此,我们专注于调查现有作品。此外,我们提供了相关维度的分类法,使我们能够更好地表征Genai的现有XAI机制和方法。我们讨论了不同的途径,以确保XAI,从培训数据到提示。我们的论文为非技术读者提供了Genai的简短而简洁的技术背景,重点介绍了文本和图像,以更好地了解Genai的新颖或改编的XAI技术。但是,由于Genai的大量作品,我们决定放弃与解释的评估和使用相关的XAI的详细方面。因此,手稿既利益,都以技术为导向的人和其他学科,例如社会科学家和信息系统研究人员。我们的研究路线图为未来的研究提供了十个以上的方向。
自疫情爆发以来,各组织一直在积极寻求提高组织敏捷性和弹性 (regility) 的方法,并转向人工智能 (AI) 来获得更深入的理解并进一步提高其敏捷性和弹性。各组织正在将人工智能作为实现这些目标的关键推动因素。人工智能通过快速准确地分析大型数据集来增强组织的能力,从而实现更快的决策并建立敏捷性和弹性。这种战略性地使用人工智能为企业带来了竞争优势,并使其能够适应快速变化的环境。如果不优先考虑敏捷性和响应能力,可能会导致成本增加、错失机会、竞争和声誉受损,并最终导致客户、收入、盈利能力和市场份额的损失。可以通过利用可解释的人工智能 (XAI) 技术来确定优先级,阐明人工智能模型如何做出决策并使其透明、可解释和可理解。基于之前关于使用人工智能预测组织敏捷性的研究,本研究重点关注将可变形人工智能技术(例如 Shapley 加法解释 (SHAP))整合到组织敏捷性和弹性中。通过确定影响组织敏捷性预测的不同特征的重要性,本研究旨在揭开使用可变形人工智能的预测模型的决策过程的神秘面纱。这对于人工智能的道德部署、在这些系统中培养信任和透明度至关重要。认识组织敏捷性预测中的关键特征可以指导公司确定要集中精力在哪些领域以提高其敏捷性和弹性。
Global X Management (AUS) Limited(“Global X”)(澳大利亚金融服务许可证号 466778,ACN 150 433 828)是产品发行人。任何零售产品的权益要约只能在产品披露声明(PDS)中提出或附有产品披露声明。对于每种零售产品,Global X 都制定了目标市场确定(TMD)。每份 PDS 和 TMD 均可在 www.globalxetfs.com.au 上找到。本网站上的信息仅为一般性信息,不考虑您的个人目标、财务状况或需求。在根据任何信息采取行动之前,您应考虑该信息是否适合您的目标、财务状况或需求,并考虑根据您的具体情况寻求独立的财务、法律、税务和其他相关建议。任何投资决策都应在获得并考虑相关 PDS 和 TMD 后做出。投资 Global X 发行的任何产品均存在投资风险,包括可能延迟还款以及投资收入和本金损失。投资的价值或回报会波动,投资者可能会损失部分或全部投资。过去的表现并不是未来表现的可靠指标。