抽象的语法校正校正(GEC)工具,由先进的生成人工智能(AI)提供动力,在用户输入中有效地纠正了语言的不准确性。但是,它们通常在提供基本的自然语言解释方面缺乏,这些解释是学习语言并获得对语法规则的更深入的理解。在低资源语言(例如孟加拉语)中对这些工具的探索有限。在这样的语言中,革命错误说明(GEE)系统不仅应正确句子,而且还应提供错误的解释。这种综合方法可以帮助语言学习者寻求提高能力。我们的工作介绍了一个现实世界中的多域数据集,该数据集来自孟加拉语扬声器,具有不同的义务水平和语言复杂性。此数据集可作为GEE系统的评估基准标记,允许他们使用上下文信息来生成有意义的解释和高质量的更正。Various generative pre-trained large language models (LLMs), in- cluding GPT-4 Turbo, GPT-3.5 Turbo, Text-davinci-003, Text-babbage- 001, Text-curie-001, Text-ada-001, Llama-2-7b, Llama-2-13b, and Llama-2-70b, are assessed against human experts for performance comparison.我们的研究强调了自动部署孟加拉人GEE的当前最新生成预培训的LLM的局限性。主张进行人干预,我们的发现提议合并手动检查以解决语法错误并提高反馈质量。这种方法提出了一种更合适的策略,以重新确定孟加拉语的GEC工具,并阐明了语言学习的教育方面。
可解释人工智能 (XAI) 领域已迅速成为一个蓬勃发展且成果丰硕的社区。然而,该领域一个不为人知、反复出现且公认的问题是缺乏对其术语的共识。特别是,每一项新贡献似乎都依赖于其自己的(通常是直观的)术语版本,例如“解释”和“阐释”。这种混乱阻碍了该领域进步的巩固,无法满足科学和监管要求,例如在比较方法或确定其对偏见和公平约束的遵从性时。我们提出了一个理论框架,它不仅为这些术语提供了具体的定义,而且还概述了产生解释和阐释所需的所有步骤。该框架还允许重新语境化现有贡献,以便可以衡量其范围,从而使它们与其他方法具有可比性。我们表明,该框架符合对解释、可解释性和评估指标的要求。我们提供了一个用例,展示了如何使用该框架来比较 LIME、SHAP 和 MDNet,确定它们的优点和缺点。最后,我们从我们的框架的角度讨论了 XAI 的相关趋势以及对未来工作的建议。
冠状病毒继续对全球公共卫生构成重大挑战,新变种的出现需要进一步努力来控制和管理病毒。在这种情况下,接种疫苗是限制 COVID-19 大流行蔓延的重要方法。然而,疫苗犹豫是阻碍遏制冠状病毒努力的最重要和最具影响力的问题之一;它与其他对疫苗接种有直接或间接影响的因素有关,包括心理因素 ( 1 , 2 )。然而,在中东和阿拉伯国家,COVID-19 疫苗犹豫与心理健康之间的关联尚未得到充分研究。因此,确定这些心理因素以制定干预措施和促进疫苗接受度非常重要 ( 3 )。多项研究发现,在 COVID-19 大流行期间,普通公众或医护人员中精神健康障碍的患病率增加,尤其是焦虑、恐惧和抑郁 ( 1 , 4 )。这些研究结果虽然有用,但并未超越疫情爆发到疫苗接种阶段,它们探讨了精神健康障碍,但并未将其与 COVID-19 疫苗犹豫直接联系起来,而且它们解释某些人为何不愿接种疫苗的能力仍然有限 (5)。研究人员一致表示,在 COVID-19 大流行期间报告的焦虑和抑郁症状的增加可能对疫苗犹豫产生影响 (6)。然而,先前针对这一问题的研究结果存在显著差异。例如,由于社交限制而每天感到焦虑、悲伤和烦躁的参与者对疫苗犹豫不决,而仅在某些日子报告同样感受的参与者犹豫不决较少 (7)。其他研究表明,报告有焦虑或抑郁症状的人对疫苗犹豫较少 (5)。虽然焦虑、恐惧和其他心理障碍似乎是疫苗犹豫的原因之一,但心理障碍和犹豫之间的关系可能是相互的。对疫苗安全性和有效性的担忧以及可能的副作用会引发疫苗犹豫和抵制。因此,犹豫不决的个人与社会直接对抗,因此会面临更多
科学家用来解释生态系统中捕获和存储的碳量的数学工具很少考虑动物的影响。这源于这样的假设:由于动物比生态系统中的植物和微生物要稀有得多,因此它们的潜在影响应该是最小的。然而,现场研究已经开始表明,这种假设可能不是准确的,如2023年3月下旬的《自然气候变化》杂志发表的《自然气候变化可以扩大自然气候解决方案》中所示。这导致了一个新的询问领域,称为碳循环(ACC)。
● D. Gunning,可解释的人工智能(xAI),技术代表,国防高级研究计划局(DARPA)(2017)● AB Arrieta,等人。可解释的人工智能(XAI):概念、分类法、机遇和挑战,走向负责任的人工智能。信息融合 58(2020):82-115。● E. Tjoa、C. Guan,可解释的人工智能(XAI)调查:面向医学 XAI (2019)。arXiv:1907.07374。● LH Gilpin、D. Bau、BZ Yuan、A. Bajwa、M. Specter、L. Kagal,解释解释:机器学习可解释性概述 (2018)。 arXiv:1806.00069 ● FK Došilović、M. Brćić、N. Hlupić,可解释的人工智能:一项调查,载于:第 41 届信息和通信技术、电子和微电子国际会议 (MIPRO),2018 年,第 210-215 页。● A. Adadi、M. Berrada,窥视黑匣子内部:可解释的人工智能 (XAI) 调查,IEEE Access 6 (2018) 52138-52160。● O. Biran、C. Cotton,机器学习中的解释和论证:一项调查,载于:IJCAI-17 可解释人工智能 (XAI) 研讨会,第 8 卷,2017 年,第 1 页。● ST Shane、T. Mueller、RR Hoffman、W. Clancey、G. Klein,《人机交互系统中的解释:可解释人工智能的关键思想和出版物及参考书目的文献元评论概要》,国防高级研究计划局 (DARPA) XAI 计划技术代表 (2019)。● R. Guidotti、A. Monreale、S. Ruggieri、F. Turini、F. Giannotti、D. Pedreschi,《解释黑盒模型的方法调查》,ACM 计算调查 51 (5) (2018) 93:1–93:42。
从根本上讲,保护融资工具旨在提供可持续的资金流和/或提供投资回报率。产生现金流量和来自自然投资的回报需要某人愿意支付的价值流。这就是为什么林业和农业企业具有相关商品(例如木材和农作物)对投资者来说更为直接的途径:现金流以及提供投资回报率的能力。生态系统服务,无论是碳固换,洪水调节还是改善的空气质量都与实际成本有关。但是,为了提供投资回报率,金融工具需要使三个不同的群体保持一致:愿意为服务付费的人,从交付中受益的人以及将得到补偿的人。
(4)配电许可证持有者应在相应季度结束后的三十天内向委员会提交季度报告,报告内容应包括配电许可证持有者在相关季度向州政府提出的补贴要求的详细信息,该要求基于州政府宣布的补贴类别和消费者类别的每单位补贴的能源消耗情况、根据该法第 65 条实际支付的补贴、应付和已付补贴的缺口以及委员会和/或电力部根据《2003 年电力法》的规定制定的规则可能指定的其他相关细节。如果不遵守规定,委员会可以指示许可证持有者对许可证持有者的有关官员采取适当的行动。
最近,密集的潜在变量模型已显示出令人鼓舞的结果,但是它们的分布式和潜在的代码使它们降低了易于解释,并且对噪声的影响较低。另一方面,稀疏表示更为简约,提供了更好的解释性和噪声稳健性,但是由于涉及的复杂性和计算成本,很难实现稀疏性。在此过程中,我们提出了一种新颖的无监督学习方法,以利用逐渐稀疏的尖峰和平板分布作为我们的先验,以在发电机模型的潜在空间上强化稀疏性。我们的模型由自上而下的发电网络组成,该网络将潜在变量映射到观测值。我们使用最大似然采样来推断发电机后方向的潜在变量,并且推理阶段的尖峰和平板正则化可以通过将非信息性潜在维度推动到零来引起稀疏性。我们的实验表明,学到的稀疏潜在表示保留了大多数信息,我们的模型可以学习解开的语义,并赋予潜在代码的解释性,并增强分类和denosing任务的鲁棒性。
飓风 飓风是一种非常强大的风暴。它是一种气旋风暴,这意味着飓风内部呈圆形。飓风这个名字指的是始于大西洋或东太平洋的风暴。飓风在世界其他海洋中有不同的名称。例如,它们在西北太平洋被称为台风。在世界其他大部分地区,它们被称为气旋。它们的风速大多超过每小时 75 英里。风以圆形模式移动。风暴移动的中心点称为风暴眼。这些风暴通常发生在温暖的热带海洋中。它们从蒸发的海水中获取能量。飓风在陆地上移动时会减弱,因为它们依靠温暖的海洋在风暴移动时继续提供能量。陆地的表面也比海洋粗糙得多。陆地的海拔和表面变化要大得多。当风遇到陆地表面并产生摩擦时,飓风会失去动力。飓风是一种强大的风暴,通常始于大西洋或太平洋。这些风暴依靠海洋获得力量和能量,登陆后速度会减慢。
摘要背景:在人工智能 (AI) 应用于医疗保健领域时,可解释性是最受争议的话题之一。尽管人工智能驱动的系统已被证明在某些分析任务中表现优于人类,但缺乏可解释性仍然引发批评。然而,可解释性不是一个纯粹的技术问题,相反,它引发了一系列需要彻底探索的医学、法律、伦理和社会问题。本文对可解释性在医学人工智能中的作用进行了全面评估,并对可解释性对于将人工智能驱动的工具应用于临床实践的意义进行了伦理评估。方法:以基于人工智能的临床决策支持系统为例,我们采用多学科方法从技术、法律、医学和患者的角度分析了可解释性对医学人工智能的相关性。基于这一概念分析的结果,我们随后进行了伦理评估,使用 Beauchamp 和 Childress 的“生物医学伦理原则”(自主、仁慈、不伤害和正义)作为分析框架,以确定医疗 AI 中可解释性的必要性。结果:每个领域都强调了一组不同的核心考虑因素和价值观,这些因素与理解可解释性在临床实践中的作用有关。从技术角度来看,可解释性必须从如何实现和从发展角度来看有什么好处两个方面来考虑。从法律角度来看,我们将知情同意、医疗器械认证和批准以及责任确定为可解释性的核心接触点。医学和患者的观点都强调了考虑人类行为者和医疗 AI 之间相互作用的重要性。我们得出的结论是,在临床决策支持系统中忽略可解释性会对医学的核心伦理价值观构成威胁,并可能对个人和公共健康产生不利影响。结论:为了确保医疗 AI 兑现其承诺,需要让开发人员、医疗保健专业人员和立法者意识到医疗 AI 中不透明算法的挑战和局限性,并促进多学科合作。关键词:人工智能、机器学习、可解释性、可解释性、临床决策支持