首先,我们研究了生成超级马里奥关卡的不同可能性。TOAD-GAN [ 3 ] 仅使用一个示例即可进行训练。该方法还使用户能够通过更改代表生成器网络输入的噪声向量来控制生成过程的输出。由于设计师无法解释噪声向量,因此设计师仍然无法根据自己的需求设计内容。为了实现这一点,必须让设计师能够解释噪声向量,并将噪声向量的不同区域映射到噪声向量变化所产生的内容。生成超级马里奥关卡的另一种方法是使用带有图块集的进化算法 [ 4 ]。图块集强制输出的一致性,而 Kullback-Leiber 散度
冠状病毒继续对全球公共卫生构成重大挑战,新变种的出现需要进一步努力来控制和管理病毒。在这种情况下,接种疫苗是限制 COVID-19 大流行蔓延的重要方法。然而,疫苗犹豫是阻碍遏制冠状病毒努力的最重要和最具影响力的问题之一;它与其他对疫苗接种有直接或间接影响的因素有关,包括心理因素 ( 1 , 2 )。然而,在中东和阿拉伯国家,COVID-19 疫苗犹豫与心理健康之间的关联尚未得到充分研究。因此,确定这些心理因素以制定干预措施和促进疫苗接受度非常重要 ( 3 )。多项研究发现,在 COVID-19 大流行期间,普通公众或医护人员中精神健康障碍的患病率增加,尤其是焦虑、恐惧和抑郁 ( 1 , 4 )。这些研究结果虽然有用,但并未超越疫情爆发到疫苗接种阶段,它们探讨了精神健康障碍,但并未将其与 COVID-19 疫苗犹豫直接联系起来,而且它们解释某些人为何不愿接种疫苗的能力仍然有限 (5)。研究人员一致表示,在 COVID-19 大流行期间报告的焦虑和抑郁症状的增加可能对疫苗犹豫产生影响 (6)。然而,先前针对这一问题的研究结果存在显著差异。例如,由于社交限制而每天感到焦虑、悲伤和烦躁的参与者对疫苗犹豫不决,而仅在某些日子报告同样感受的参与者犹豫不决较少 (7)。其他研究表明,报告有焦虑或抑郁症状的人对疫苗犹豫较少 (5)。虽然焦虑、恐惧和其他心理障碍似乎是疫苗犹豫的原因之一,但心理障碍和犹豫之间的关系可能是相互的。对疫苗安全性和有效性的担忧以及可能的副作用会引发疫苗犹豫和抵制。因此,犹豫不决的个人与社会直接对抗,因此会面临更多
背景:静息态功能性磁共振成像 fMRI (rs- fMRI) 已广泛用于研究精神疾病的大脑功能,从而深入了解大脑组织。然而,rs-fMRI 数据的高维性给数据分析带来了重大挑战。变分自动编码器 (VAE) 是一种神经网络,在提取静息态功能连接 (rsFC) 模式的低维潜在表示方面发挥了重要作用,从而解决了 rs-fMRI 数据的复杂非线性结构。尽管取得了这些进展,但解释这些潜在表示仍然是一个挑战。本文旨在通过开发可解释的 VAE 模型并使用 rs-fMRI 数据在自闭症谱系障碍 (ASD) 中测试其效用来解决这一差距。
从根本上讲,保护融资工具旨在提供可持续的资金流和/或提供投资回报率。产生现金流量和来自自然投资的回报需要某人愿意支付的价值流。这就是为什么林业和农业企业具有相关商品(例如木材和农作物)对投资者来说更为直接的途径:现金流以及提供投资回报率的能力。生态系统服务,无论是碳固换,洪水调节还是改善的空气质量都与实际成本有关。但是,为了提供投资回报率,金融工具需要使三个不同的群体保持一致:愿意为服务付费的人,从交付中受益的人以及将得到补偿的人。
引言人工智能 (AI) 的发展已展现出令人瞩目的性能,特别是在图像处理或游戏等明确定义的领域。然而,所部署的技术对于人类用户来说可能是不透明的,这引发了一个问题:人工智能系统如何提供解释 (Neerincx 等人,2018 年;Rosenfeld 和 Richardson,2019 年),并且监管框架对可解释人工智能 (XAI) 的需求日益增长。话虽如此,2017 年,谷歌的研究主管 Peter Norvig 指出,在人类可能不擅长提供“解释”的情况下期望计算机提供“解释”是具有讽刺意味的。可解释人工智能 (XAI) 的大部分工作都严重依赖于以计算机为中心的视角 (Springer,2019 年)。例如,Holzinger 等人 (2020) 假设人类和人工智能系统可以平等地访问“基本事实”。由此可见,可解释性“……突出了机器表示中与决策相关的部分……,即有助于模型在训练中的准确性或特定预测的部分。”与许多 XAI 文献一样,这并没有为人类提供任何角色,只能作为被动接受者。这意味着人工智能系统能够反省自己的过程来生成解释。然后将得到的解释呈现给用户,并描述人工智能系统的流程或它使用过的特征(“决策相关部分”)。这样,解释就只是一个建议(来自人工智能系统)加上与此相关的特征。正如 Miller (2017) 所指出的那样,这种态度的一个问题在于,它是基于设计师对什么是“好的”解释的直觉,而不是基于对人类如何响应和利用解释的合理理解。这并不能说明为什么选择某些特征,也不能说明为什么建议适合用户的关注点。它也没有将解释置于更广泛的组织中;分析师的解释可能与数据收集管理人员或接受分析师简报的经理的解释不同。对于 Holzinger 等人 (2020) 来说,情况的各个方面(定义为基本事实)被组合成一个陈述;也就是说,解释只是这个陈述的一种表达。这意味着从特征到解释存在线性插值。这类似于 Hempel 和 Oppenheim (1948) 的“覆盖定律模型”,该模型关注的是历史学家如何根据先前的原因来解释事件。然而,“基本事实”(由 Holzinger 的过程模型和覆盖定律模型假设)很少得到完全定义(导致在选择相关特征时产生歧义)。这意味着,仅仅陈述情况方面而不说明为什么选择这些方面(而不是其他方面)可能不会产生有用或可用的解释。霍夫曼等人(2018)对与解释相关的文献进行了全面的回顾。从这篇评论来看,解释涉及人类的理解(将人工智能系统的输出置于特定情境中),我们同意,考虑这一点的适当框架是数据框架的理解模型(Klein 等人,2007)。此外,理解(及其与解释的关系)依赖于认识到过程(提供和接收解释)必须是相互的、迭代的和协商的。这个过程依赖于“解释者”和“被解释者”达成一致。换句话说,解释涉及“共同点”(Clark,1991),其中理解上有足够的一致性以使对话继续进行。对话的性质将取决于提供解释的情况和被解释者的目标。例如,被解释者可能是“受训者”,他试图理解解释以学习决策标准,也可能是“分析师”,使用人工智能系统的建议作为政策。
第二,我们讨论法律,技术和行为因素如何提供有关在哪种背景下使用我们的法律-XAI分类法的解释的指导。以信用评分为例,我们演示了法律如何规定可以将哪种类型的解释方法用于特定算法决策系统。我们展示了法律,计算机科学和行为原则的结合如何指导决策者,法律学者和计算机科学家为特定法律领域选择正确的解释方法。第三,我们证明了如何将我们的法律-XAI分类法应用于包括医疗补助,高等教育和自动决策在内的各个领域。我们认为,在创建解释权时,决策者应该更具体。自动化的决定通常可以用大量的解释方法来解释,决策者应指定哪些解释应必须提高决策者的政策目标。我们的法律-XAI分类法可以帮助决策者根据其政策目标确定正确的解释方法。
飓风 飓风是一种非常强大的风暴。它是一种气旋风暴,这意味着飓风内部呈圆形。飓风这个名字指的是始于大西洋或东太平洋的风暴。飓风在世界其他海洋中有不同的名称。例如,它们在西北太平洋被称为台风。在世界其他大部分地区,它们被称为气旋。它们的风速大多超过每小时 75 英里。风以圆形模式移动。风暴移动的中心点称为风暴眼。这些风暴通常发生在温暖的热带海洋中。它们从蒸发的海水中获取能量。飓风在陆地上移动时会减弱,因为它们依靠温暖的海洋在风暴移动时继续提供能量。陆地的表面也比海洋粗糙得多。陆地的海拔和表面变化要大得多。当风遇到陆地表面并产生摩擦时,飓风会失去动力。飓风是一种强大的风暴,通常始于大西洋或太平洋。这些风暴依靠海洋获得力量和能量,登陆后速度会减慢。
经济增长是经济经济政策中不同生产力因素之间相互作用的函数,尤其是它可以用劳动力,生产资源(土地,资本)和技术等方面表达。 div>这项工作旨在采用一个模型来解释发展中经济体的经济增长,该模型是根据上述因素提出了这种增长的模型。然后根据资本和工作提出生产,并调整了两个模型,一种具有外在技术变化,另一种暗示了内源性的技术变化。 div>该模型是通过具有恒定替代弹性的生产函数开发的,因此它适用于发达和发展经济体,因为预计在经济体中会发展出替代经济增长的弹性。 div>研究使我们能够开发