摘要 — 机器学习在基于脑电图 (EEG) 的脑机接口 (BCI) 中取得了巨大成功。现有的大多数 BCI 研究都侧重于提高解码精度,只有少数研究考虑了对抗安全性。尽管在计算机视觉等其他应用领域已经提出了许多对抗性防御方法,但先前的研究表明,将它们直接扩展到 BCI 会降低良性样本的分类精度。这种现象极大地影响了对抗性防御方法对基于 EEG 的 BCI 的适用性。为了缓解这个问题,我们提出了基于对齐的对抗性训练 (ABAT),它在对抗性训练之前执行 EEG 数据对齐。数据对齐将来自不同领域的 EEG 试验对齐以减少它们的分布差异,而对抗性训练进一步增强了分类边界的鲁棒性。数据对齐和对抗性训练的结合可以使训练后的 EEG 分类器同时更准确、更鲁棒。在两种不同的 BCI 范式(运动想象分类和事件相关电位识别)的五个 EEG 数据集、三个卷积神经网络分类器(EEGNet、ShallowCNN 和 DeepCNN)和三种不同的实验设置(离线受试者内跨块/会话分类、在线跨会话分类和预训练分类器)上进行的实验证明了其有效性。非常有趣的是,通常用于破坏 BCI 系统的对抗性攻击可以在 ABAT 中使用,以同时提高模型准确性和鲁棒性。
抽象每个嗅觉皮质半球直接从嗅球和对侧信息中直接从其他皮质半球接收同侧气味信息。由于对嗅觉皮层(OC)的神经预测是无序的,并且无X线摄影,因此不能将空间信息像在视觉皮层中那样对齐两侧的投影。因此,在单个皮质神经元中如何完整的双边信息是未知的。我们发现,在小鼠中,单个神经元对两个鼻孔中每个鼻孔的选择性刺激的气味反应显着相关,因此,从一个鼻孔转移到达的信息中,具有优化的气味标识很好地解码了。尽管如此,这些对齐的响应是不对称的,足以解码刺激的横向性。计算分析表明,这种匹配的气味调整与纯粹的随机连接不相容,但可以通过Hebbian可塑性结构双侧连接来解释。我们的数据表明,尽管OC中有分布和碎片的感觉表示,但两个半球的气味信息高度协调。
药物发现通常由多个步骤组成,包括识别疾病病因的靶蛋白键,证明与该靶标相互作用可以防止症状或治愈该疾病,发现与之相互作用的小分子或生物学治疗方法,并通过所需的复杂特性的景观来优化候选分子。药物发现相关的任务通常涉及预测和产生,同时考虑了可能相互作用的多个实体,这对典型的AI模型构成了挑战。为此,我们提出了哺乳动物-M骨 - 一个木质的杂物和an an脚 - 我们采用了一种方法来创建一种多种多样的生物学数据集(包括20亿个样本)(包括蛋白质),包括蛋白质(包括蛋白质),包括蛋白质(包括蛋白质),包括小型分解物,以及小型分子和Genes和Genes and Genes and Genes and Genes and Genes and Genes and Genes and Genes and Genes and Genes。我们引入了一个及时的语法,该语法支持广泛的分类,回归和生成任务。它允许将不同的方式和实体类型组合为输入和/或输出。我们的模型处理令牌和标量的组合,并可以生成小分子和蛋白质,性质预测以及转录组实验室测试预测。我们在典型的药物发现管道中对11个不同步骤的11个不同步骤进行了评估,该任务在9个任务中达到了新的SOTA,并且是
大型语言模型 (LLM) 已显示出作为评估 AI 系统生成的答案质量的自动评估器的前景。然而,基于 LLM 的评估器在用于评估成对比较中的候选答案时表现出位置偏差或不一致性,无论内容如何,都会偏向第一个或第二个答案。为了解决这个限制,我们提出了 P ORTIA,这是一个基于对齐的系统,旨在模仿人类的比较策略,以轻量级但有效的方式校准位置偏差。具体来说,P ORTIA 将答案分成多个部分,同时考虑长度和语义,然后将它们合并回单个提示以供 LLM 评估。对 6 个 LLM 对 11,520 个答案对进行的大量实验表明,P ORTIA 显着提高了所有模型和比较形式的一致性率,平均相对提高 47.46%。它还使 P ORTIA 增强型 GPT-3.5 能够实现与 GPT-4 相当的与人类的一致率,并将 GPT-4 的一致率提高到 98%。后续的人工评估表明,P ORTIA 增强型 GPT-3.5 模型在与人类评估者的一致性方面甚至可以超越独立的 GPT-4,凸显了 P ORTIA 纠正立场偏见、提高 LLM 一致性和提高性能的同时保持成本效率的能力。
其次,在ID插入后,它仍应保留原始T2i模型遵循提示的能力。在ID自定义的上下文中,这通常意味着更改ID属性的能力(例如,年龄,性别,表情和头发),方向和配件(例如,眼镜)通过提示。为了获得这些功能,当前的解决方案通常分为两类。第一类涉及增强编码器。iPadapter [50,1]从网格特征的早期剪辑提取到利用面部识别主链[6]来提取更多抽象和相关的ID信息。尽管提高了编辑性,但ID保真度不够高。InstantID [44]通过在此基础上包括一个额外的ID和Landmark ControlNet [52]以进行更有效的调制。即使ID相似性大大提高,它也会损害某种程度的编辑性和灵活性。第二类方法[22]支持非重构培训,以通过构造由ID分组的数据集来增强编辑性;每个ID都包含几张图像。但是,创建此类数据集需要巨大的努力。此外,大多数ID对应于有限数量的名人,这可能会限制其对非赛车的有效性。
人类反馈是大语言模型(LLMS)的一致性的核心。但是,关于方法,域(Who),人(WHO)和目标(到什么目的)的方法(如何),反馈过程的开放问题仍然存在。为了浏览这些问题,我们介绍了P rism,该数据集绘制了来自75个国家 /地区的1,500名不同参与者的偏好,并在8,011个现场对话中以21 llms的方式表示偏好。使用P RISM,我们贡献了(i)更广泛的地理和人口参与反馈; (ii)两个国家的人口普查代表样本(美国,美国); (iii)与详细参与者概况相关的个性化评级,允许样本人工制品的个性和归因。我们针对具有价值和有争议的问题的主观和多元文化观点,我们期望人际关系和跨文化分歧。我们在三个案例研究中使用P RISM来证明需要仔细考虑人类提供哪些对齐数据的需要。
减轻人工智能 (AI) 社会风险的一种方法是价值观协调,旨在确保 AI 系统以符合社会价值观的方式运行。为了补充这种方法,可以采用制度主义方法,研究 AI 系统如何与其所在的社会机构互动。这很重要,因为约翰·罗尔斯 (John Rawls) 所说的“社会基本结构”的主要背景机构显著影响新技术的影响。因此,具有不同基本结构的社会将体验到同一种技术的不同影响。在许多情况下,AI 系统不会产生新问题,而只是揭示和放大了我们社会机构中先前存在的脆弱性。在这种情况下,我认为,除非解决潜在的制度脆弱性,否则仅靠价值观协调无法减轻 AI 的社会风险。因此,深刻的制度变革(有时是对看似不相关的背景机构)是必要的,以便在减轻风险的同时从 AI 中获益。
•超过了《欧盟授权法》中规定的最低技术要求。•使用范围1、2和3排放量减轻评估为高碳发射器的公司的体重•同比应用10%的“自碳化”率为10%•一致•一致•与气候相关的财务披露工作组的建议保持一致使用MSCI低碳过渡得分,以及通过排除与化石燃料相关的公司的类别•增加暴露于气候过渡机会的公司的重量,并减少暴露于气候过渡风险的公司的重量的公司的重量,•通过减少可靠的碳降低目标的公司的重量增加了降低量和低位的父母,•增加了与父母相比,并相比要降低了与父母的相比。
首先,以受邀演讲、投稿论文和参与结构化讨论的形式,解决表征对齐的问题以及机器学习可解释性和安全性领域的相关问题,这些问题都是 ICLR 和其他机器学习会议持续关注的问题。这些问题源于以下中心主题:智能系统何时以及为何学习对齐的表示,以及科学家和工程师如何干预这种对齐?例如,由于大型模型在各个行业和科学领域的使用增加(例如,Gemini Team Google,2023 年;OpenAI,2023 年),该领域需要找到更好地解释和最终理解这些系统的方法。模型可解释性与这些系统形成的表示紧密相关(参见 Doshi-Velez 和 Kim,2017 年;Sucholutsky 等人,2023 年;Lampinen 等人,2024 年;Muttenthaler 等人,2024 年)。因此,更好地理解表示及其与参考系统(通常是人类目标)的一致性,反过来会促进模型的可解释性和可解释性。另一组问题集中于表示学习与计算神经科学和认知科学之间的联系。这些领域已经相对独立地开发了评估和增强人工智能与人类智能系统在神经和行为层面的一致性的方法(Collins 等人,2024 年;Muttenthaler 等人,2024 年;Dorszewski 等人,2024 年;Bonnen 等人,2024 年;Sundaram 等人,2024 年)。我们的研讨会旨在就确定衡量和增强人工智能与人类智能系统一致性的最有用方法展开公开讨论。
这种分离有可能在愿景和策略中矛盾,破坏了有效的现场行动,在某些情况下甚至导致了适得其反的政策。的确,某些脱碳途径可能对生物多样性有害,例如某些海洋二氧化碳去除方法(请参阅下面的框)。此外,公约之间的分离可能会增加对已经有限的资源的竞争。它也可能会向非国家行为者发送矛盾的信息有关民族意图和优先事项,而不是为他们提供动员和参与4的必要方向。相反,综合方法可以解决这种分离,而不会超过每个公约的范围,以在国家一级建立政策连贯性。在海洋的情况下,它们尤其重要,这可以作为多目的解决方案。