• 数字无障碍:可感知、可操作和可理解的数字内容,使残障人士能够访问相同的信息、参与相同的互动并享受与其他个人提供的相同服务,同时享有与非残障人士相同的隐私、独立和易用性。• 数字内容:任何数字形式的内容,包括网站、文本、音频、视频和图像。• 根本性改变:对计划或服务基本目的的重大改变。• 信息技术:用于创建、转换、传达或复制数据或信息的任何电子系统、软件或设备。• 过度的财务和行政负担:巨大的困难或费用,超出了学院目前人员和预算资源的能力。• 合理的便利:进行调整或修改,以确保个人无论能力如何都能平等地访问服务、计划或活动。
AI 被描述为“黑匣子”,这意味着得出其提供的结果的内部算法计算非常不透明 (Rai, 2020)。Doran、Schulz 和 Besold (2017) 对 xAI 给出了多方面的定义,即“不透明的技术,不解释其算法机制;可解释的系统,用户可以用数学方法分析其算法机制;可理解的系统,显示符号,向用户解释如何得出结论”(第 1 页)。现有研究 (例如Holzinger, 2018) 探讨了如何利用 AI 技术帮助企业做出更明智、更快的决策。然而,关于此类 AI 技术的“可解释性”因素的实证研究很少,而这些因素促使企业采用这些技术。这在撒哈拉以南非洲 (SSA) 尤其需要,因为那里人工智能的使用正在迅速增长,但监管仍不完善。
鉴于某些生成式人工智能模型能够令人信服地伪装成人类,可能需要明确告知最终用户他们正在与机器交谈。对于生成式人工智能衍生的材料或数据,透明度和可解释性还取决于输出或决策是否标记为由人工智能创建。例如,生成式人工智能创建的图像可能需要水印来表明其来自人工智能。同样,在医疗保健领域,生成式人工智能系统提出的医疗建议可能需要注明它是机器衍生的,以及可访问、可理解的日志或关于提出该建议的原因的解释。更广泛地说,为了信任模型及其输出,企业内的利益相关者以及最终用户需要了解输入数据的使用方式、选择退出、隐藏或限制该数据的机会,以及对自动决策及其对用户的影响的可理解解释。
在语言学习的人工智能领域,聊天机器人是语言学习和练习的一个有趣领域。本研究使用交互式讲故事聊天机器人研究阿拉伯语 EFL 词汇学习。创建了一个聊天机器人,并配备了四个词汇工具:词典、图像、L1 翻译工具和索引器。这些工具增强了目标词,为学习者提供交互式可理解的输入。该项目旨在确定 EFL 学习者在使用聊天机器人练习英语时最常使用哪些工具。它还试图确定哪种工具对词汇学习和记忆最有帮助。研究结果表明,词典是最受欢迎和最有效的词汇学习工具。对于记忆,研究结果显示 L1 翻译略高于(但不显著)。
可解释的人工智能旨在构建能够为其决策提供清晰且人类可理解的理由的智能系统。这适用于基于规则和数据驱动的方法。在慢性病管理中,此类系统的用户是遵循严格饮食规则来管理此类疾病的患者。在接收到摄入食物的输入后,系统会进行推理以了解用户是否遵循不健康的行为。接下来,系统必须以清晰有效的方式传达结果,即输出消息必须说服用户遵循正确的饮食规则。在本文中,我们解决了构建此类系统的主要挑战:(i)解释推理不一致的消息的自然语言生成;以及(ii)此类消息在说服用户方面的有效性。结果证明,有说服力的解释能够减少不健康用户的行为。
虽然通常可以用一些人类可理解的规则来近似深度神经网络的输入输出关系,但双下降现象的发现表明,这种近似不能准确捕捉深度神经网络的工作机制。双下降表明深度神经网络通常通过在数据点之间平滑插值而不是提取一些高级规则来运行。因此,在复杂的现实世界数据上训练的神经网络本质上很难解释,如果被要求进行推断,则容易失败。为了说明我们如何能够信任人工智能,尽管存在这些问题,我们探索了自我解释人工智能的概念,它既提供预测,也提供解释。我们还认为,人工智能系统应该使用适用性领域分析和异常检测技术来包含一个“警告灯”,以便在要求模型在其训练分布之外进行推断时警告用户。
问:您如何回应那些觉得这种演变的基督徒破坏了圣经的权威?a:“对于原教旨主义者的信徒来说,字面的解释是全部或没有事件。当一个学说被触摸时,他们感到受到威胁。也许当他们从字面上解释它时会破坏它,但是许多圣经都是隐喻的。亚当和夏娃肯定是平凡的人物,有一条会说话的蛇,有他可以从空气中吹出空气等的肺的上帝。必须追求文本的神学叙事和目的(即不是科学的教科书),而是上帝愚蠢地讲述了原始的认知环境,类似于我们以他们会理解的方式和概念对婴儿说话的方式。圣经只是关于不可理解的上帝的婴儿谈话。我们应该参与尝试适当的训练,以汲取历史的语法含义,而不是在古老的文本上引入我们自己的西方问题的Eisegesis。”
由于其复杂的声学结构,人类的言语需要详细的,预测的神经活动的预测性协调。在这里,我们报告了语音处理中的Cortico-小脑协调的神经机制。我们从一项研究中报告了一项持续的节奏活性后,我们重新分析了磁脑摄影(MEG)数据,该研究在节奏上呈现语音后的持续有节奏活动,这种现象称为“夹带回声”。我们发现,这种回声在小脑中最强,最独特,只有在听可理解的语音后才能找到,并在左下额叶(IFG)中驱动活动。cortico-只有在节奏刺激的抵消后才能发现小脑连接性,而当刺激节奏引起的时间期望被侵犯时。我们的结果表明,小脑夹带的回声反映了传递到皮质区域的时间预测的更新。
近年来,可解释人工智能 (XAI) 的研究不断增加,以满足人们对提高人工智能透明度和信任度的需求。这一点尤为重要,因为人工智能用于具有社会、道德和安全影响的敏感领域。XAI 的工作主要集中在机器学习 (ML) 的分类、决策或行动上,已经进行了详细的系统评价。这篇评论旨在探索强化学习 (RL) 领域中 XAI 的当前方法和局限性。从 520 个搜索结果中,回顾了 25 项研究(包括 5 个滚雪球抽样),重点介绍了可视化、基于查询的解释、策略总结、人机协作和验证是该领域的趋势。介绍了研究中的局限性,特别是缺乏用户研究,玩具示例的普遍存在以及难以提供可理解的解释。确定了未来研究的领域,包括沉浸式可视化和符号表示。
摘要 —可解释人工智能 (XAI) 旨在为用户提供可理解的解释。SHAP、LIME 和 Scoped Rules 等 XAI 算法计算机器学习预测的特征重要性。尽管 XAI 引起了广泛研究关注,但将 XAI 技术应用于医疗保健以指导临床决策具有挑战性。在本文中,我们对 XAI 方法给出的解释进行了比较,作为分析复杂电子健康记录 (EHR) 的第三级扩展。利用大规模 EHR 数据集,我们根据 XAI 模型估计的预测重要性比较 EHR 的特征。我们的实验结果表明,所研究的 XAI 方法会根据具体情况生成不同的顶级特征;它们在共享特征重要性方面的差异值得领域专家进一步探索,以评估人类对 XAI 的信任。索引词 —可解释的人工智能、黑盒、玻璃盒、机器学习、电子健康记录