摘要。在定量民族志(QE)的新兴领域中,EpisiC网络分析(ENA)突出了,以至于QE社区中的多个学者问了一个问题:QE QE只是ENA吗?本文试图系统地解决这个问题。我们审查了量化宽松的论点,即使用ENA以及论证,应将量化量化量化视为背景和正当,即ENA应被视为一种提出量化量化量化量化标志的一种方法。我们得出结论,ENA是在量化宽松中使用的,但不是独一无二的。 QE使用ENA,但不仅仅是唯一的;但是,对这个问题的答案不如对QE社区重点的方法论的反思思考不那么重要。我们的希望是,随着QE社区的不断增长,本文不是对这个问题的定义答案,而是提供了一些思考理论,方法和分离技术之间关系的方法。
人工智能中价值一致性 (VA) 系统开发的一个重要步骤是了解 VA 如何反映有效的道德原则。我们建议 VA 系统的设计者采用一种混合方法来融入道德,其中道德推理和经验观察都发挥作用。我们认为,这可以避免犯“自然主义谬误”,即试图从“是”中推导出“应该”,并且在没有犯谬误时,它提供了一种更充分的道德推理形式。使用量化模型逻辑,我们精确地制定了源自义务论伦理的原则,并展示了它们如何为人工智能规则库中的任何给定行动计划暗示特定的“测试命题”。只有当测试命题在经验上是真实的时,行动计划才是合乎道德的,这是基于经验 VA 做出的判断。这使得经验 VA 能够与独立合理的道德原则无缝集成。
人工智能 (AI) 中价值一致性 (VA) 系统开发的一个重要步骤是了解 VA 如何反映有效的道德原则。我们建议 VA 系统的设计者采用一种混合方法来融入道德,其中道德推理和经验观察都发挥作用。我们认为,这避免了犯“自然主义谬误”,即试图从“是”中推导出“应该”,并且在没有犯谬误时提供了一种更充分的道德推理形式。使用量化模态逻辑,我们精确地制定了源自义务论伦理的原则,并展示了它们如何为 AI 规则库中任何给定的行动计划暗示特定的“测试命题”。只有当测试命题在经验上是真实的,即基于经验 VA 做出的判断时,行动计划才是合乎道德的。这使得经验性 VA 能够与独立证明的道德原则无缝集成。
摘要 数据驱动型人工智能的最新发展有望实现医疗诊断的自动化;然而,对于计算知识有限的医生来说,大多数人工智能都像“黑匣子”一样。以医学成像为出发点,我们进行了三次设计活动,以制定 CheXplain——一个使医生能够探索和理解人工智能支持的胸部 X 光分析的系统:(i)转诊医生和放射科医生之间的配对调查揭示是否需要、何时需要以及需要何种解释;(ii)与三位医生共同设计的低保真原型制定了八个关键特征;(iii)由另外六位医生评估的高保真原型提供了关于每个特征如何实现对人工智能的探索和理解的详细总结性见解。我们总结并讨论了未来设计和实施可解释的医疗人工智能系统的建议,这些系统涵盖四个反复出现的主题:动机、约束、解释和理由。
摘要 人工智能 (AI) 在组织中具有巨大潜力。实现这一潜力的道路将涉及人机交互,这一点已得到众多研究的证实。然而,人类代理和人工智能系统之间的这种交互应该朝哪个方向发展仍有待探索。迄今为止,研究仍然缺乏对人机混合体特征纠缠交互的整体理解,之所以这样称呼,是因为它们是在人类代理和人工智能系统紧密合作时形成的。为了加强这种理解,本文提出了一种人机混合体的分类法,该分类法是通过回顾当前文献以及 101 种人机混合体样本而开发的。利用弱社会物质性作为正当知识,本研究提供了对人类代理和人工智能系统之间纠缠关系的更深入理解。此外,还进行了聚类分析以得出人机混合体的原型,确定了实践中人机混合体的理想典型情况。虽然分类法奠定了坚实的基础
最新的房屋智能(AF)管理,包括新的准则和专家共识论文,不仅为患者护理提供了全面的框架,而且还提出了有关实际提出和依从性的重要问题。2024 ESC AF指南引入了57个新的建议,17个由证据级别的支持C.从执业临床医生的角度来看,Potpara等人1提出了一些提出的质疑,例如建议某些人建议指导治疗的跨性胸腔超声心动图,可能具有有限的实践价值。还强调的是,证据使用的可变性,包括从诸如经过良好验证的ABC途径2等策略转变为未验证的首字母缩写词,以及中风风险分层的变化,再到非性别的CHA 2 DS 2-DS 2-VASC得分(即CHA 2 DS 2-va 3)。鉴于
身体上的不活动已成为我们人群的主要危险因素(Rezende等,2016; Bull等,2020)。尽管如此,最低限度的体育活动(PA)准则和建议清楚地表明,年轻人每天至少应进行至少60分钟的中度和剧烈的体育锻炼,但只有20%的青少年遵守这些建议(WHO,2021年)。促进健康的终身生活方式可以使用资源来激励和提高人们对更积极的原因和目的的认识(Frohlich和Potvin,2008)。因此,旨在促进PA的所有干预措施不仅应集中在体育锻炼的数量和强度上(Cairney等,2019),而且还应提高参与者对为什么要活跃和
在此AFP条目中,我们展示了如何使用Crypthol Framework从文献中正式证明基于游戏的加密安全性概念,并正式证明了一些加密构造。除其他外,我们将随机甲骨文的概念,伪随机函数,不可预测的函数以及在所选的明文和/或ciphertext攻击下呈现不佳的加密方案。我们证明了随机排列/随机功能开关引理,Elgamal和Hashed Elgamal公共密钥加密方案的安全性以及具有伪随机函数的几种构造的正确性和安全性。我们的证据遵循Shoup [19]和Bellare和Rogaway [4]提倡的游戏风格,从中取了大多数示例。我们概括了他们的一些结果,以便可以在其他证据中重复使用。多亏了克里普托与伊莎贝尔的参数内部的集成,使用代表独立性理论可以很容易地为许多简单的啤酒花构成。
在量子上下文的框架内,我们讨论了外观和奢侈的思想,这些思想使人们可以将Kochen-Specker和Gleason定理联系起来。我们强调的是,尽管Kochen-Specker本质上是一个无关的定理,但Gleason's提供了对Born统治的数学合理性。我们的外观外观方法需要一种描述“海森伯格削减”的方法。在约翰·冯·诺伊曼(John von Neumann)在有限张量产品上发表的文章之后,可以通过注意到与统一形式相关的量子力学的通常形式主义来完成,在遇到粒子(或自由度学位)中可计数时停止工作时停止工作。这是因为相应的希尔伯特空间的维度在有限的范围内变得不存在,导致单一等价的丧失和部门化。这种本质上上下文的方法提供了一个统一的数学模型,包括量子和经典物理学,这些模型在自然描述中似乎是不可限制的。
论证和可解释人工智能 (XAI) 密切相关,因为近年来,论证已用于为人工智能提供可解释性。论证可以逐步展示人工智能系统如何做出决策;它可以对不确定性提供推理,并在面临冲突信息时找到解决方案。在这篇综述中,我们通过回顾所有重要的方法和研究,以及使用论证为人工智能提供可解释性的实现,详细阐述了论证和 XAI 相结合的主题。更具体地说,我们展示了论证如何为解决决策、意见论证和对话中的各种问题提供可解释性。随后,我们详细阐述了论证如何帮助在各种应用领域构建可解释系统,例如医学信息学、法律、语义网、安全、机器人技术和一些通用系统。最后,我们提出了将机器学习和论证理论相结合的方法,以建立更具解释性的预测模型。