T细胞受体(TCR)及其同源表位之间结合的准确预测是理解适应性免疫反应和发展免疫疗法的关键。当前方法面临两个显着的局限性:全面的高质量数据的短缺以及通过选择监督学习方法中常用的负面培训数据引起的偏见。我们提出了一种基于变压器的方法,用于相互作用的肽和T细胞受体(Tulip)的方法,该模型通过利用不完整的数据和无监督的学习以及使用语言模型的变压器体系结构来解决这两个限制。我们的模型具有灵活性,并整合了所有可能的数据源,无论其质量或完整性如何。我们证明了先前有监督方法中使用的抽样程序引入的偏差的存在,强调了不受监督的方法的需求。郁金香识别表位的特定TCR结合,在看不见的表位上表现良好。我们的模型优于最先进的模型,并为开发更准确的TCR表位识别模型提供了有希望的方向。
摘要 - 在本文中,我们应对预测部分观察到的环境的看不见的壁是一组2D线段的挑战,其条件是沿着360°LIDAR传感器的轨迹集成的占用网格。通过在大学校园的一组办公室规模平面图中,通过在一组随机采样的航路点之间导航一组随机采样的航路点,收集了此类占用网格及其相应目标墙细分的数据集。行段预测任务是作为自回归序列预测任务配制的,并且在数据集中对基于注意力的深网进行了训练。基于序列的自动回归公式通过预测的信息增益进行评估,就像在基于边境的自主探索中一样,证明了在文献中发现的非预测性估计和基于卷积的图像预测的显着改善。消融,以及传感器范围和占用网格的度量标准区域。最后,通过在现实世界办公室环境中直接重建的新型平面图中预测墙壁来验证模型通用性。
(未通过同行评审认证)是作者/资助者。保留所有权利。未经许可就不允许重复使用。此预印本版的版权持有人于2023年10月12日发布。 https://doi.org/10.1101/2023.08.21.554147 doi:Biorxiv Preprint
对药物治疗的患者特定反应的准确,可靠的预测对于药物开发和个性化医学至关重要。但是,患者数据通常太稀缺了,无法训练广义的机器学习模型。尽管已经开发了许多方法来利用细胞系数据,但由于数据分布变化和混杂因素,很少有它们可以可靠地预测患者对新药的临床反应。我们开发了一种新颖的上下文感知的反面自动编码器(Code-AE),该自动编码器(Code-AE)可以提取通过上下文特定模式和混杂因素掩盖的常见生物学信号。广泛的研究表明,代码可以有效地减轻模型泛化的分布外问题,显着提高了对最先进方法的准确性和鲁棒性,这两种方法都可以预测患者特异性的体内和体内药物反应纯粹是从体外筛查中,并且是从体外筛查中的,并且是从体外筛查中的,并脱离了本质上的生物学因素。使用Code-AE筛选了9,808例癌症患者的50种药物,并发现了新型的个性化抗癌疗法和药物反应生物标志物。
摘要 - 我们提出了一个基于深厚的增强学习(DRL)的基于新颖的6多型,6多的抓地框架,该框架能够直接合成笛卡尔空间中的连续6-DOF动作。我们所提出的方法使用了直觉的RGB-D摄像头的视觉观察,我们通过域随机化,图像增强和分割工具的结合来减轻SIM到真实的间隙。我们的方法包括一个非政策,最大渗透性,演员算法,该算法从二进制奖励和一些模拟示例grasps中学习了政策。它不需要任何现实世界的掌握示例,对模拟进行了完全训练,并且直接部署到现实世界中而没有任何微调。The efficacy o f o ur a pproach i s d emonstrated i n simulation and experimentally validated in the real world on 6-DoF grasping tasks, achieving state-of-the-art results of an 86% mean zero-shot success rate on previously unseen objects, an 85% mean zero-shot success rate on a class of previously unseen adversarial objects, and a 74.3% mean zero-shot success rate on a class of previously看不见,具有挑战性的“ 6-DOF”对象。可以在https://youtu.be/bwpf8imvook
摘要。零射击学习(ZSL)是一种机器学习范式,使模型能够从培训期间未遇到的类中识别和分类数据。这种方法在识别标记数据受到限制的活动方面尤其重要,允许模型通过利用所见活动的语义知识来识别新的,看不见的活动。在本文中,我们探讨了ZSL使用句子 - 伯特(S-bert)用于语义式床位和变异自动编码器(VAE)的功效,以弥合可见阶级和看不见的类之间的差距。我们的方法利用腕部惯性的惯性事件来捕获活动数据,并采用S-Bert生成偶然的嵌入,以促进可见和看不见的活动之间知识的转移。评估是在包含三个看见和三个看不见的活动类别的数据集上进行的,平均持续时间为2秒,三个看见和三个看不见的活动类别,平均持续时间为7秒。结果表明,在识别看不见的活动时表现出了有希望的表现,平均持续时间为7秒的活动的准确性为0.84,而活动的平均持续时间为0.66,平均持续时间为2秒。这突出了ZSL对增强活动识别系统的潜力,这对于在医疗保健,人类计算机互动和智能环境等领域的应用至关重要,在这些领域中,识别广泛的活动至关重要。
当前的视频异常检测(VAD)方法本质上仅限于封闭设置的设置,并且可能在开放世界应用程序中遇到困难,在培训期间,测试数据中可能存在异常类别。最近的一些研究试图解决更现实的开放式VAD,该研究旨在解散视为异常和正常视频的看不见异常。但是,尽管这种能力对于构建更明智的视频监视系统至关重要,但这种设置着重于预测框架异常得分,没有识别异常类别的能力。本文进一步迈出了一步,并探讨了开放词汇视频异常检测(OVVAD),我们的目的是利用预训练的大型模型来检测和cate-可见和看不见的异常。为此,我们提出了一个模型,该模型将OVVAD分解为两个相互构成的任务 - 类不足的检测和特定于类的分类 - 并共同优化了这两个任务。特别是,我们设计了一个语义知识注入模块,以从大语言模型中引入语义知识以进行检测任务,并设计一种新型的异常合成模块,以在大型视觉生成模型的帮助下生成伪异常视频,以实现分类任务。这些语义知识和综合异常大大扩展了我们模型在检测和分类各种可见和看不见的异常方面的能力。对三个广泛使用的基准测试的实验实验实现了我们的模型在OVVAD任务上实现了最新的性能。
在深入了解这些局限性之后,我们基于几乎没有学习的学习来实现独特的方案,以使它们过度进行并设计一个综合模型,以验证解决方案的功效。我们首先指出当前的AI生成的图像检测是域的概括任务。先前的研究致力于找到对所有生成图像有效的复合指标。但是,他们忽略了来自不同领域的数据之间的显着区别。我们观察到,在许多现实世界中,实际上可以获得看不见的图像。基于这一事实,通过使用来自看不见的域中的相对几个样本,可以将复杂的任务转换为一个稍微简单的一个称为少量分类的任务。因此,我们可以从这些样品中提取丰富的域信息,并使用它来跨越看不见的数据进行概括。
摘要 - 简单的提示学习方法可有效地适应视觉语言模型(VLMS)到下游任务。然而,经验证据表明,现有方法的趋势是他们过度拟合的班级,并且在看不见的阶级上表现出降解的表现。此限制是由于训练数据中对所见类的固有偏见。为了解决这个问题,我们提出了一种新颖的软提示学习方法,称为蒸馏混合物(MOPD),该方法可以从硬手工制作的硬提示中有效地传递有用的知识(又称A.K.A.老师提示)到可学习的软提示(又称学生提示),从而增强了在看不见的课程上软提示的概括能力。此外,提出的MOPD方法采用了一个门控网络,该网络学会选择用于迅速蒸馏的硬提示。广泛的实验表明,所提出的MOPD方法的表现优于现状的基准,尤其是在看不见的类别上。
从所见的属性 - 对象对学习以概括为未看到的组合物,已在组合零拍学习(CZSL)中进行了广泛的研究。但是,CZSL设置仍然仅限于看到的属性和对象,并且不能概括地看不见的概念及其组成。为了克服这一局限性,我们提出了一项新任务,开放的词汇 - 组成零 - 折射学习(OV-CZSL),其中评估了未看到的属性,对象和看不见的组成。表明OV-CZSL是一个具有挑战性但可解决的问题,我们提出了基于存在的数据集MIT态的三个新基准(Isela,Lim和Adelson 2015),C-GQA(Mancini等人(Mancini等)(Mancini等人)2022)和vaw-czsl(Saini,Pham和Shrivastava 2022; Pham等人2021),以及新的基准和评估设置。我们将语言嵌入和外部词汇与我们新颖的邻里扩展损失一起使用,以允许任何方法学习观察和看不见的原始物之间的语义相关性。