细胞自动机 (CA) 是数学的一个分支,它探索控制自主单元(称为细胞)行为的简单规则如何导致复杂的突发模式。计算领域的先驱约翰·冯·诺依曼在 CA 的发展中发挥了重要作用。尽管冯·诺依曼以现代计算机的基础架构(“冯·诺依曼架构”)而闻名,但他晚年对 CA 着迷不已。他死后出版的著作《计算机与大脑》深入探讨了他对简单、分散的规则如何产生类似于生物过程的智能行为的思考。
早期对物理人机交互 (pHRI) 的研究必然侧重于设备设计——创建兼容和传感硬件,如外骨骼、假肢和机械臂,使人们能够安全地与机器人系统接触并交流他们的协作意图。随着硬件功能已足以满足许多应用的需求,并且计算能力越来越强大,支持流畅和富有表现力地使用 pHRI 系统的算法已开始在确定系统的实用性方面发挥重要作用。在这篇评论中,我们描述了一系列用于调节和解释 pHRI 的代表性算法方法,描述了从基于物理类比的算法(如导纳控制)到基于高级推理的计算方法的进展,这些方法利用了多模态通信渠道。现有的算法方法在很大程度上支持特定于任务的 pHRI,但它们不能推广到多功能的人机协作。因此,在整个评论和我们对下一步的讨论中,我们认为新兴的具身
这一初始意图旨在为您提供足够的信息继续工作,同时我将努力建立对部队的理解和评估,以便我更好地提供定向指导。除非另有指示,否则执行所有常规命令和指令。以下指导既不包罗万象,也不一成不变,并且会随着时间而发展。更新将通过书面和口头交互进行。海军陆战队、水手、平民、承包商、H&S Sn 的 MLC 和 Camp Foster 支援人员将在执行其职责期间阅读、理解和采纳我的意图。在过去的 26 年里,我只是基地支援的客户,因此在我找到方向之前,我请求大家有点耐心。我这样说是为了告诉你不要放慢你正在做的事情,继续努力,并让我知道我在哪些地方可以为你提供帮助。
深度学习的使用通常仅限于对交互进行建模和使其适应用户情感的研究,部分原因是难以收集和标记大量相关数据。大量数据可用于情绪分析 [39],即从文本中检测积极与消极情感(效价),因为标记效价相对容易,至少与生成更细粒度的情绪状态标签相比是如此。也有研究使用深度学习来检测视频中表演情绪的情感(例如 [10]),其中情感标签是先验已知的。相比之下,在交互任务中收集特定的非脚本用户情感状态的数据集非常费力,因此与深度学习最成功的领域相比,此类数据集通常较小(例如 [19])。
摘要 — 建模困难、模型时变和外部输入不确定是燃料电池混合动力汽车能源管理面临的主要挑战。本文提出了一种基于模糊强化学习的燃料电池混合动力汽车能源管理策略,以降低燃料消耗、维持电池的长期运行并延长燃料电池系统的使用寿命。模糊 Q 学习是一种无模型强化学习,可以通过与环境交互进行自我学习,因此无需对燃料电池系统进行建模。此外,燃料电池的频繁启动会降低燃料电池系统的剩余使用寿命。所提出的方法通过在强化学习的奖励中考虑燃料电池启动次数的惩罚来抑制燃料电池的频繁启动。此外,在 Q 学习中应用模糊逻辑来近似值函数可以解决连续状态和动作空间问题。最后,基于 Python 的训练和测试平台验证了所提出方法在初始状态变化、模型变化和驾驶条件变化条件下的有效性和自学习改进。
当前的对话式 AI 系统旨在理解一组预先设计的请求并执行相关操作,这限制了它们自然发展并根据人机交互进行调整。受儿童如何通过与成人互动学习第一语言的启发,本文介绍了一种新的可教 AI 系统,该系统能够通过实时互动教学课程直接从最终用户那里学习新的语言知识(即概念)。建议的设置使用三个模型来:a) 在实时对话交互过程中自动识别理解方面的差距,b) 从与用户的实时互动中学习这些未知概念的各自解释,以及 c) 管理专门为互动教学课程量身定制的课堂子对话。我们提出了基于最先进的变压器的模型神经架构,在预训练模型的基础上进行了微调,并展示了各个组件的准确性改进。我们证明了这种方法在构建更具自适应性和个性化的语言理解模型方面非常有前景。
目前对大型语言模型 (LLM) 应用程序中针对即时攻击的防御的评估通常忽略了两个关键因素:对抗行为的动态性质以及限制性防御对合法用户施加的可用性惩罚。我们提出了 D-SEC(动态安全效用威胁模型),该模型明确将攻击者与合法用户分开,对多步骤交互进行建模,并以可优化的形式严格表达安全效用。我们通过引入 Gandalf 进一步解决了现有评估中的不足之处,Gandalf 是一个众包、游戏化的红队平台,旨在生成逼真的自适应攻击数据集。使用 Gandalf,我们收集并发布了 279k 次即时攻击的数据集。结合良性用户数据,我们的分析揭示了安全性和实用性之间的相互作用,表明 LLM 中集成的防御措施(例如系统提示)即使不阻止请求也会降低可用性。我们证明,受限应用程序域、纵深防御和自适应防御是构建安全且有用的 LLM 应用程序的有效策略。代码可在 https://github.com/lakeraai/dsec-gandalf 获得。
与移动设备的交互是与网络世界的纽带,使我们能够描述用户行为。根据人联网的原则,对与智能手机的交互进行深入分析,使我们能够区分正常使用和异常使用。这种分析的众多应用之一将有助于根据交互中的异常情况对轻度认知障碍进行早期诊断。这项工作旨在朝着这一雄心勃勃的目标迈出第一步:确定使用智能手机执行不同典型任务所需的认知负荷。通过正确识别哪些任务需要更高的认知负荷,我们将能够开始研究有助于早期诊断认知病理的指标和指标。认知负荷分析是在对 26 名用户进行实验后进行的,这些用户使用移动设备执行了 12 项典型任务,同时通过脑电图监测他们的大脑活动。结果表明,显然存在具有更高认知需求的任务,其中音频制作和消费最为显著,这已得到实验和统计验证。© 2020 Elsevier BV 保留所有权利。
目前对大型语言模型 (LLM) 应用程序中针对即时攻击的防御的评估通常忽略了两个关键因素:对抗行为的动态性质以及限制性防御对合法用户施加的可用性惩罚。我们提出了 D-SEC(动态安全效用威胁模型),该模型明确将攻击者与合法用户分开,对多步骤交互进行建模,并以可优化的形式严格表达安全效用。我们通过引入 Gandalf 进一步解决了现有评估中的不足之处,Gandalf 是一个众包、游戏化的红队平台,旨在生成逼真的自适应攻击数据集。使用 Gandalf,我们收集并发布了 279k 次即时攻击的数据集。结合良性用户数据,我们的分析揭示了安全性和实用性之间的相互作用,表明 LLM 中集成的防御措施(例如系统提示)即使不阻止请求也会降低可用性。我们证明,受限应用程序域、纵深防御和自适应防御是构建安全且有用的 LLM 应用程序的有效策略。代码可在 https://github.com/lakeraai/dsec-gandalf 获得。