无监督域自适应 (UDA) 是一种新兴技术,它能够将从标记源域中学到的领域知识转移到未标记的目标域中,从而提供一种应对新域中标记困难的方法。大多数先前的工作都依赖于源域和目标域数据进行自适应。然而,由于担心患者数据中包含的敏感信息可能泄露,因此在跨中心协作中共享源域中的数据和标签以及训练的模型参数通常具有挑战性。为了解决这个问题,我们提出了一个实用的 UDA 框架,该框架具有仅在源域中训练的黑盒分割模型,而不依赖于源数据或可访问网络参数的白盒源模型。特别是,我们提出了一种知识蒸馏方案来逐步学习特定于目标的表示。此外,我们通过无监督熵最小化来规范目标域中标签的置信度,从而比没有熵最小化的 UDA 获得性能提升。我们在一些数据集和深度学习主干上对我们的框架进行了广泛的验证,证明了我们的框架在具有挑战性但又现实的临床环境中应用的潜力。
大型语言模型(LLMS)在自然语言任务中表现出了令人印象深刻的能力,但是由于他们在互联网文本中的培训,它们的安全性和道德仍然有争议。为了解决这些问题,已撤消对齐技术,以提高LLM的公共可用性和安全性。然而,通过这些模型产生有害内容的潜力似乎仍然存在。本文探讨了越狱LLM的概念 - 通过对抗触发器来避免其对齐。预先使用的方法,例如软嵌入提示,手动制作的提示和基于梯度的自动提示,由于其对模型访问的要求以及生产低的手动制作提示,使其在黑盒模型上取得了有限的成功,这使它们容易被阻止。本文使用强化学习引入了一种新颖的方法,以优化副词触发器,仅需要推理API访问目标模型和小型替代模型。我们的方法利用了基于Bertscore的奖励功能,可以增强对抗性触发器在新的黑盒模型上的可传递性和有效性。我们证明,这种方法改善了以前未经测试的语言模型的对抗触发器的性能。
为每个复杂任务从头开始训练大型模型会浪费大量资源和数据。为了帮助开发能够利用现有系统的模型,我们提出了一项新挑战:通过自然语言与现有代理(或模型)进行交流,学习解决复杂任务。我们设计了一个综合基准 C OMMA QA,其中包含三个复杂推理任务(显式、隐式、数字),旨在通过与现有 QA 代理进行交流来解决。例如,使用文本和表格 QA 代理来回答诸如“谁是美国投掷标枪最远的人?”之类的问题。我们表明,即使可以访问每个代理的知识和黄金事实监督,黑盒模型也很难从头开始学习这项任务(准确率低于 50%)。相比之下,学习与代理交流的模型表现优于黑盒模型,在黄金分解监督下,得分达到 100%。然而,我们表明,通过与现有代理进行通信而不依赖任何辅助监督或数据来学习解决复杂任务的挑战仍然难以实现。我们发布了 C OMMA QA 以及组合泛化测试拆分,以推进该方向的研究。1
摘要:随着制药行业中数据的积累和人工智能技术的发展,在药物发现过程中已成功采用了各种人工智能方法。中药中人工智能的整合也已获得动力,包括对中国专利药物的质量控制,处方优化,发现有效物质以及对副作用的预测。但是,人工智能还面临着传统中医开发的挑战和局限性,例如数据稀缺和复杂性,缺乏跨学科专业人员,黑盒模型等。因此,需要更多的研究和协作来解决这些问题,并探索整合人工智能和中医以改善人类健康的最佳方法。
人工智能生成的数据在上市后面临的挑战 • 使用其他软件的经验表明,数据可能难以获取,时效性变得非常重要 性能监测,包括偏差和数据漂移的发展——就像其他人工智能一样 • 分析人群细分和其他子群体,以检查整个预期用途范围内的性能,包括目标人群、设备、用户 • 监测重复性和再现性 • 由相同或不同操作员对相同或相似患者/病情使用时设备输出的变化 • 不透明或黑盒模型可能会引入进一步的风险,因此需要更严格的监测 • 新型人工智能模型可能没有临床参考标准
尽管ML在医疗保健预测分析中具有很大的潜力,但必须解决一些挑战,以充分利用其利益。数据隐私和安全性是最重要的问题。给定健康信息的敏感性。确保遵守《健康保险可移植性和问责法》(HIPAA)等法规对于保护患者数据至关重要。与现有医疗保健系统的集成是另一个关键挑战。需要不同平台设备之间的互操作标准和无缝数据交换。此外,ML模型的可解释性仍然是重大问题。黑盒模型可能缺乏临床采用所需的透明度。开发解释和验证模型预测的方法至关重要。获得对医疗保健专业人员和利益相关者的信任。
在过去的几年中,机器学习 (ML) 已成为管理资产维护数据的首选技术。以前的方法涉及收集历史资产数据并根据阈值标准创建规则集。由于数据量大且复杂,这种方法无法扩展,导致对何时执行维护程序的任意预测。ML 给维护从业人员带来的第一个好处是让他们摆脱了这些规则集的管理。然而,这种解决方案带来了一个新问题。通过基于现有数据训练模型,尤其是使用深度神经网络,从业人员失去了可解释性,从而导致一些不良后果。首先,难以解释或解读的黑盒模型和预测会导致对推荐操作的信任度降低。其次,它为数据科学家带来了更多工作——调整、实验等。因此,传统的 ML 方法会导致模型更难维护,并且维持成本更高。
摘要。我们讨论了在可解释人工智能 (XAI) 研究领域中使黑盒模型更易于解释的观点。我们认为,用于训练深度学习 (DL) 模型的传统端到端学习方法不符合 XAI 的宗旨和目标。回到手工特征工程的想法,我们建议对 XAI 采用混合 DL 方法:我们建议使用 DL 自动检测有意义的、手工设计的高级符号特征,而不是采用端到端学习,然后由标准且更易于解释的学习模型使用这些特征。我们在概念验证中举例说明了这种混合学习模型,该模型基于最近提出的 Kandinsky 模式基准,重点关注管道的符号学习部分,同时使用逻辑张量网络和可解释规则集合。在证明所提出的方法能够提供高度准确且可解释的模型之后,我们将讨论潜在的实施问题和可以探索的未来方向。
摘要。我们讨论了在可解释人工智能 (XAI) 研究领域中使黑盒模型更易于解释的观点。我们认为,用于训练深度学习 (DL) 模型的传统端到端学习方法不符合 XAI 的宗旨和目标。回到手工特征工程的想法,我们建议对 XAI 采用混合 DL 方法:我们建议使用 DL 自动检测有意义的、手工高级符号特征,而不是采用端到端学习,然后将其用于标准且更易于解释的学习模型。我们基于最近提出的 Kandinsky 模式基准,在概念验证中举例说明了这种混合学习模型,该模型通过使用逻辑张量网络和可解释规则集合,专注于管道的符号学习部分。在证明所提出的方法能够提供高度准确且可解释的模型之后,我们将讨论潜在的实施问题和可以探索的未来方向。