为了应对 COVID-19 的大规模蔓延,世界各地的大学都转向了电子教学。沙特阿拉伯穆斯塔克巴尔大学行政与人文学院英语系使用 Microsoft Teams App 在虚拟教室中教授所有课程。然而,阅读作为一种接受技能,很难远程教授,因为它的互动性不强,老师无法知道学生是否完成了分配的任务。因此,需要寻找一种可以结合技术的策略来帮助 EFL 学生提高阅读理解能力。这种策略是出声思考策略,它可以在解释和回应文本时潜在地利用参与者的心理数据。在阅读过程中,这种策略能够使心理处理隐蔽起来,显示内部阅读过程的直接证据。采用准实验设计,包括实验组和对照组,以确定这种出声思考策略在提高 72 名英语、商业和法律专业 EFL 女学生阅读理解能力方面的有效性。此外,本研究还探讨了教师和学生对这一策略的看法。结果表明,所有参与者都对出声思考策略持非常积极的态度。本研究建议采用高度定制的出声思考策略,以促进读者的理解。贡献/原创性:本研究是极少数使用出声思考策略来提高
本研究旨在检验使用“出声思考”策略对提高沙特英语学习者的阅读理解能力和学习态度的有效性。通过应用两种不同的工具实施了一项准实验设计的定量研究:阅读理解能力测试和英语学习态度量表。本研究采用事前控制组设计,将 40 名学生随机分配到对照组或实验组。实验组学生使用元认知“出声思考”策略进行指导,而对照组则接受传统的处理,如略读和扫读技术。研究结果表明,与对照组相比,实验组的态度和阅读理解能力有显著提高。本研究进一步揭示了在英语教育环境中教授阅读理解时应用“出声思考”策略的重要性。本研究还为英语教师提出了建议,以提高在教学过程中应用该策略的效率。
摘要 随着越来越多的人工智能形式变得普遍,了解人们如何开发这些系统的心理模型变得越来越重要。在这项工作中,我们通过合作猜词游戏研究人们对人工智能的心理模型。我们进行了出声思考研究,人们与人工智能代理一起玩游戏;通过主题分析,我们确定了参与者开发的心理模型的特征。在一项大规模研究中,我们让参与者在线与人工智能代理玩游戏,并使用赛后调查来探究他们的心理模型。我们发现获胜次数更多的人对人工智能代理的能力有更好的估计。我们提出了建模人工智能系统的三个组成部分,提出了解底层技术不足以开发适当的概念模型(行为分析也是必要的),并建议未来研究心理模型随时间推移的修订。
我们研究了一种在原子薄的半导体中诱导超导性的机制,激子介导电子之间的有效吸引力。我们的模型包括超出声子介导的超导性范式的相互作用效应,并连接到玻色和费米极性的良好限制。通过考虑TRIONS的强耦合物理,我们发现有效的电子相互作用会形成强频率和动量依赖性,并伴随着经历了新兴的BCS-BEC交叉的系统,从弱绑定的S-波库珀对Bipolarons的超浮雕。即使在强耦合时,双丙酸也相对较轻,从而导致临界温度占费米温度的10%。这使二维材料的异质结构有望在通过电子掺杂和Trion结合能设置的高临界温度下实现超导性。
摘要 随着用于辅助或自动化决策的人工智能 (AI) 的快速发展,其公平性尤其受到关注。为了通过以人为本的人工智能 (HCAI) 设计创建可靠、安全和值得信赖的系统,最近的努力已经为 AI 专家制作了用户界面 (UI),以调查 AI 模型的公平性。在本文中,我们提供了一种设计空间探索,不仅支持数据科学家,也支持领域专家调查 AI 公平性。以贷款申请为例,我们与贷款人员和数据科学家举行了一系列研讨会,以了解他们的需求。我们将这些需求实例化为 FairHIL,这是一个支持人机交互公平性调查的 UI,并描述了如何将此 UI 推广到其他用例。我们通过出声思考用户研究评估了 FairHIL。我们的工作有助于更好地设计以调查 AI 模型的公平性 — — 并更接近负责任的 AI。
机器学习模型需要提供对比性解释,因为人们经常试图理解为什么会出现令人费解的预测而不是某些预期的结果。当前的对比性解释是示例或原始特征之间的基本比较,由于缺乏语义含义,因此仍然难以解释。我们认为解释必须与其他概念、假设和关联更相关。受认知心理学感知过程的启发,我们提出了 XAI 感知处理框架和 RexNet 模型,用于具有对比显着性、反事实合成和对比线索解释的可关联可解释 AI。我们研究了语音情绪识别的应用,并实现了一个模块化多任务深度神经网络来预测和解释语音中的情绪。从出声思考和受控研究中,我们发现反事实解释很有用,并且可以通过语义线索得到进一步增强,但不是显着性解释。这项工作为提供和评估用于感知应用的可关联对比可解释 AI 提供了见解。
可解释的人工智能 (XAI) 系统是社会技术系统的一部分,例如,负责做出决策的人机协同人工智能团队。然而,当前的 XAI 系统很少通过衡量人机协同人工智能团队在实际决策任务中的表现来评估。我们进行了两项在线实验和一项面对面的出声思考研究,以评估两种当前常用的评估 XAI 系统的技术:(1)使用代理、人工任务,例如人类根据给定的解释预测人工智能决策的准确性,以及(2)使用信任和偏好的主观衡量标准作为实际表现的预测指标。我们的实验结果表明,使用代理任务的评估并不能预测使用实际决策任务的评估结果。此外,对实际决策任务评估的主观衡量标准并不能预测这些任务的客观表现。我们的结果表明,通过采用误导性的评估方法,我们的领域可能会无意中减缓开发能够比单独的人类或人工智能表现更好的人类+人工智能团队的进程。
摘要 人工智能 (AI) 算法甚至在美学等创造性领域也取得了令人瞩目的成就。然而,机器学习 (ML) 社区之外的人是否能够充分解释或同意他们的结果,特别是在这种高度主观的领域,受到质疑。在本文中,我们试图了解不同的用户社区如何在主观领域推理 AI 算法结果。我们设计了 AI Mirror,这是一个研究探测器,可以告诉用户算法预测的照片美学分数。我们对该系统进行了用户研究,共有来自三个不同群体的 18 名参与者:AI/ML 专家、领域专家(摄影师)和普通公众成员。他们通过出声思考、调查和访谈等方式执行了拍照和推理 AI Mirror 预测算法的任务。结果表明:(1)用户使用自己特定群体的专业知识来理解 AI;(2)用户采用各种策略来缩小他们的判断与 AI 预测之间的差距;(3)用户的想法和 AI 预测之间的差异与用户对 AI 的可解释性和合理性的感知呈负相关。我们还讨论了主观领域中 AI 注入系统的设计考虑因素。
AN/SSQ-53 定向频率分析和记录 (DIFAR) 声纳浮标是一种消耗性设备,可以沿两个正交水平轴推导出声粒子速度以及声压。通过此信息,只需一个紧凑型传感器便可计算出低频声源的方位角。估算这些传感器方位角的标准方法是通过传统的波束形成(即添加加权时间序列),但得到的“心形”波束模式不精确、计算成本高,并且对于弱信号容易受到方向性噪声污染。这里演示了一种替代乘法处理方案,该方案计算声信号的“有效强度”以获取噪声场作为时间和频率函数的主要方向性。此信息可以方便地显示为“方位图”,类似于频谱图,但使用颜色来表示方位角而不是强度。来自多个位置的数据证明了这种方法,无需对原始信号进行解复用即可进行计算。Azigram 已用于帮助诊断声纳浮标问题、提高可检测性和估计低信噪比信号的方位。Azigram 还可以增强对定向噪声场中嵌入信号的检测和潜在分类。V C 2019 美国声学学会。https://doi.org/10.1121/1.5114810
摘要 本文的研究证明了记者在日常工作中揭穿错误、虚假和恶意信息的能力。它展示了记者如何使用核心技能和能力来核实信息,并描述了为什么虚假信息能够逃避新闻过滤并被发表。我们结合半结构化访谈和出声思考法,向 20 名爱沙尼亚记者展示了构建的虚假信息片段,然后要求他们对其进行讨论。根据结果,我们认为记者以特定的组合使用传统的事实核查技能,这通常足以验证信息。然而,在时间压力下,记者倾向于相信他们的专业经验并冒险发布未经核实的信息。当消息来源看起来值得信赖并且信息呈现在官方社交媒体平台或记者的个人社交媒体页面上时,或者记者缺乏对特定主题的更深入了解时,这种风险会更高。视频操纵(例如深度伪造)和脱离语境的照片呈现对记者来说是最难核实的,无论记者专注于哪个平台,情况都是类似的。这项研究的结果对于培训新闻专业学生和执业记者如何揭穿虚假信息很有用。