学分:[1] Christiano等。,《神经》 17中的深入强化从人类的偏好中学习。[2] Ziegler等。,来自人类偏好的微调语言模型,在Arxiv'19中。[3] Ouyang等。,培训语言模型在Neurips'22中按照人为反馈的指示进行指示。[4] Rafailov等。,直接偏好优化:您的语言模型是秘密的奖励模型,在Neurips'23中。[5] Hong等。,ORPO:Arxiv'24中的无参考模型的单片偏好优化。
大型语言模型(LLMS)通常包含误导性内容,强调需要使它们与人类价值观保持一致以确保安全的AI系统。从人类反馈(RLHF)中学习的强化已被用来实现这一路线。然而,它包括两个主要的抽签:(1)RLHF表现出与SFT相反的对超参数的复杂性,不稳定和对超参数的现象。(2)尽管进行了大规模的反复试验,但多次抽样却降低为配对的对比度,因此缺乏宏观角度的对比度。在本文中,我们提出优先排名优化(PRO)作为有效的SFT算法,以直接对人类对齐进行微调。pro扩展了逐对的骗局,以适应任何长度的偏好排名。通过迭代对比候选人,Pro指示LLM优先考虑最佳响应,同时逐步对其余响应进行排名。以这种方式,Pro有效地将Human对齐方式转换为LLM产生的N重点的概率排名与Humans对这些响应的偏好排名。实验表明,Pro的表现优于基线算法,通过基于自动的,基于奖励的GPT-4和人类评估,与CHATGPT和人类反应取得了可比的结果。
人工智能协调的主流实践假设 (1) 偏好是人类价值观的充分代表,(2) 人类理性可以从最大化偏好满足的角度来理解,(3) 人工智能系统应该与一个或多个人类的偏好保持一致,以确保它们的行为安全并符合我们的价值观。无论是隐含遵循还是明确认可,这些承诺都构成了我们所说的人工智能协调的偏好主义方法。在本文中,我们描述并挑战了偏好主义方法,描述了可供进一步研究的概念和技术替代方案。我们首先调查了理性选择理论作为描述性模型的局限性,解释了偏好如何无法捕捉人类价值观的深层语义内容,以及效用表示如何忽略了这些价值观可能存在的不可比性。然后,我们批评了预期效用理论 (EUT) 对人类和人工智能的规范性,借鉴了表明理性主体不必遵守 EUT 的论点,同时强调了 EUT 如何对哪些偏好在规范上是可接受的保持沉默。最后,我们认为这些限制促使我们重新定义人工智能协调的目标:人工智能系统不应与人类用户、开发者或人类的偏好保持一致,而应与适合其社会角色(例如通用助手的角色)的规范标准保持一致。此外,这些标准应由所有相关利益相关者协商并达成一致。根据这种替代的协调概念,多种人工智能系统将能够服务于不同的目的,与促进互利和限制伤害的规范标准保持一致,尽管我们的价值观多种多样。
经典算法通常对信息处理构成瓶颈[1]。它们通常旨在处理一致的,完全有序的,抽象的数量,而实际上,我们需要对嘈杂,高维数据进行推理。机器学习和神经网络(NNS)尤其使机器可以从此类输入中提取有用的功能,但是如果其输出需要与非差异性算法组成,则他们将无法通过反向传播从直接反馈中学习。以使算法适用的方式压缩信息会丢失许多潜在的相关细节。通过教导NNS如何执行算法来打破这种瓶颈是神经算法推理的目标[1-3]。对现实世界数据的首次应用是有希望的[4-6],但是即使在高度精心制作的架构上,推断仍然有改进的空间[7,8]。因此,显然需要更仔细地研究神经网络的信息处理功能。
改变朝鲜半岛的安全动态正在促使大韩民国(ROK)重新审查其国防战略并调整其军事能力和投资优先事项。朝鲜日益增长的导弹阿森纳和不对称防御战略,以及中国的快速军事现代化,对韩国和美国为维持朝鲜半岛和更广泛地区的稳定而付出了独特的挑战。确定ROK如何最好地保持其国防战略和能力,并澄清ROK与美国之间的劳动分工,战略和预算评估中心(CSBA)举办了虚拟圆桌讨论和决策练习。该活动于2021年3月18日至19日举行,召集了美国和韩国国防分析师,以辩论将最大程度地影响首尔国防计划,能力和能力和能力要求以及未来十年的投资决策的情况和目标。
1. “V” 编号 2. 项目标题 3. 图纸标题 4. 图纸编号 5. PE 印章或状态印章(在 PSnE 处删除状态印章) 6. 设计师、绘图员、审阅者、检查员的姓名(如适用)
开放式对象检测(OSOD)已成为当代研究方向,以解决对未知对象的检测。最近,很少有作品通过使用Con-Contrastive聚类来分开未知类,在OSOD任务中实现了可观的性能。相比之下,我们提出了一种新的基于语义聚类的方法,以促进语义空间中有意义的群集的对齐,并引入一个类去相关模块以实现群间间的分离。我们的方法进一步不适合对象焦点模块预测对象分数,从而增强了未知对象的检测。此外,我们采用了i)一种评估技术,该技术对低置信度输出进行了惩罚,以减轻对未知对象的错误分类的风险,ii)一种称为HMP的新指标,该指标使用hMP使用Har-nonic Mean结合了已知和未知的精度。我们的广泛实验表明,所提出的模型可以在OSOD任务上对MS-Coco&Pascal VOC数据集有显着改进。
项目管理已经变得非常重要,并且在许多组织中也充当核心功能。项目是具有起点和完成点的任何临时活动,它具有性能参数。项目面对三重约束(1)时间(2)预算和(3)绩效。假定要达到组织目标,必须达到时间,预算和绩效的三重限制。项目管理在实现组织目标并被视为组织的骨干方面起着至关重要的作用。项目管理是满足项目要求的知识。项目管理在实现策略,业务目标和期望成果中起重要作用。组织将其项目与业务策略联系起来,以实现目标和目标。策略是指导和指导资源来实现组织的愿景和目标以及可持续竞争优势的活动。主要是这些组件包括内部分析,组织结构,控制系统与项目管理流程和活动有密切的联系。
在未来的几年或几十年里,通用人工智能 (AGI) 可能会在许多关键任务上超越人类的能力。我们认为,如果不付出巨大的努力去阻止它,AGI 可能会学会追求与人类利益相冲突 (即不一致) 的目标。如果像今天最强大的模型那样进行训练,AGI 可以学会采取欺骗行为以获得更高的奖励,学习不一致的内部表示目标 (这些目标可以超越其微调分布),并使用寻求权力的策略来追求这些目标。我们回顾了这些特性的新证据。具有这些特性的 AGI 很难对齐,即使实际上并非如此,也可能看起来是对齐的。最后,我们简要概述了部署不一致的 AGI 可能会如何不可逆转地破坏人类对世界的控制,并回顾了旨在防止这种结果的研究方向。