1.2 对齐、协调和基线的递归测试说明(改编自 Fusaroli & Tyl´en)。对齐模型对说话者之间传输的模式很敏感。协调模型对独立于说话者的模式很敏感,其中包括此处所示的跨说话者的模式。基线模型对一个说话者内的模式很敏感(即自我一致性)。(图片使用经 John Wiley and Sons 许可;注:Fusaroli & Tyl'en 中的原始图片将协调称为人际协同作用)。....................................................................................................................................................................................22
在未标记的蛋白质数据集上训练的生成模型表明,没有任何特定于任务的训练数据,可以预测某些生物学功能。但是,此功能并未扩展到所有相关功能,在许多情况下,无监督的模型仍然不足以特定于任务,监督的基线。我们假设这是由于基本的“一致性差距”所致,在该差距中,在无监督培训期间所学的规则不能保证与感兴趣的功能有关。在这里,我们演示了如何为蛋白质生成模型提供有用的特定任务信息,而不会失去训练期间学到的丰富的一般知识。使用称为直接偏好优化(DPO)的优化任务,我们通过鼓励模型希望稳定而不是稳定的变体,从而使结构调节的语言模型对齐,以生成稳定的蛋白质序列。我们所产生的模型ProteIndpo是第一个结构条件的语言模型偏好于实验数据。ProteIndpo实现了竞争性稳定性预测,并始终优于该模型的无监督和填充版本。值得注意的是,对齐模型在其训练数据之外的领域也表现良好,以实现大蛋白的绝对稳定性预测和多链复合物的结合亲和力预测,同时还可以实现多种骨干的单步稳定。这些结果表明,ProteIndpo从其生物物理对齐数据中学习了可推广的信息。
摘要 - 连接和互动机器人学习是一个挑战问题,因为人类用户与人类用户一起存在,他们期望机器人学习新颖的技能,以通过样本效率永久解决新颖的任务。在这项工作中,我们为机器人提供了一个框架,可以通过与人类用户的自然语言对话框进行互动来查询和学习与任务相关信息。以前的方法要么着重于提高代理的指导性能,要么被动地学习新颖的技能或概念。相反,我们使用了对话框与语言技能接地嵌入在一起来查询或确认用户要求的技能和/或任务。为了实现这一目标,我们为代理商开发并整合了三个不同的组件。首先,我们提出了一种具有低级适应性(ACT-LORA)的新型视觉运动控制政策法案,这使现有的最新动作分解变压器[28]模型可以执行几次持续学习。其次,我们开发了一个对齐模型,该模型将跨技能实施例演示的分配模型分为共同的嵌入,使我们知道何时向用户提出问题和/或演示。最后,我们集成了现有的大型语言模型(LLM),以与人类用户进行交互,以执行扎根的互动持续技巧学习以解决任务。我们的ACT-Lora模型在仅接受五个新型技能的示威训练时,以100%的精度学习新颖的微调技能,同时仍保持74。在RLBench数据集中,其他模型的精度为75%,在其他模型中却显着短。
外国信息操纵和干扰(FIMI)是误解,虚假信息,失败和其他扭曲的伞。fimi在过去的几十年中已经成长为全球威胁,渗透到许多公众的话语和通讯中,尤其是在社交媒体上[57,14]。FIMI是对民主,健康和隐私的威胁[60,64,82]。最近的发展已经看到了使用生成人工智能(AI)来增加针对FIMI的操作的影响。例如,大型语言模型(LLMS)能够创建与人类文本几乎没有区别的文本[35,42]。llms开始用于控制僵尸网络,用于全球快速自动化恶意含量和虚假信息[104]。过去几年彻底改变了生成AI的图像,视频和音频的进展,促进了多模型信息攻击,并且只会不断增加对抗AI驱动的FIMI的困难。对使用生成AI进行FIMI的兴趣源于低成本宣传的大规模分布的承诺[40]。,如Goldstein等。争辩,建立此类“巨魔农场”的低成本使人们可以快速改变竞选重点以适应当前的新闻事件[36]。Jachim等人。认为,将生成的AI用于FIMI特别适合国家和国家赞助的巨魔,以通过传播和创建例如谣言,阴谋论和恶意叙事来进一步地缘政治议程[40]。安全对齐模型几乎不得不指示产生不安全的输出[69,106]。也有一项持续的努力来减轻基于AI的FIMI,并采取了基于技术和政策的措施。尽管培训数据的策展(例如,为了避免已知偏见)和安全对准等技术措施,一种用于使模型行为与人类偏好和伦理相结合的方法,[76]在许多方面可能是成功的,但它们在其他方面也可能不足。在大型语言模型(LLM)的背景下,这是本报告的重点,不安全的输出是一个字符串1,可以在fimi中使用,即传播仇恨,不道德的观点,歧视,暴力等。需要持续和持续努力来对抗基于AI的FIMI的努力部分取决于对其进行建模的困难[14],部分是基于生成AI领域的快速技术发展。此外,威胁行为者与捍卫者之间存在不对称性,威胁行为者可以将其资源集中在一种恶意类型的内容或一种特定的攻击向量上,而后卫则需要始终防御所有可能的威胁。基于策略的努力(例如,参见[95])减轻FIMI与其他类型的并发症有关。这种方法通常建议基于社区的解决方案,包括教育努力和有商业利益的各方与有民事责任的当事方合作。Goldstein等。[36]给出这样的建议。在本报告中,我们将尝试在FIMI中使用生成AI的主题增加价值 - 在当前每周在现场发表的报告和文章的雪崩中。我们的贡献是,我们从LLM的角度来处理该主题以及在FIMI中使用此类模型所需的功能,而无需进入技术细节并需要AI领域知识。我们以技术为重点的报告应