持续学习关键词检索结果

HALLM:通过 Python 终端观察和行动的代理

HALLM: An Agent that Observes and Acts through a Python Terminal

在 GoodAI,我们致力于安全 AGI 的进步。大型语言模型 (LLM) 无疑提供了强大的功能,但它们本身也存在局限性 — 尤其是无法在部署后学习新技能。我们的创新方法正是在这里大放异彩。我们设计的代理不仅可以利用 LLM 的基础功能,还可以对其进行显著扩展。通过我们独特的架构和新颖的方法,我们的代理赋予 LLM 持续学习的能力,使它们能够理解复杂的指令、随着时间的推移进行适应,并在复杂的推理和解决问题的任务中表现出色。HALLM 可以联系用户以询问更多信息,或者如果它认为用户可以帮助它做某事,例如安装 Python 包或重新启动系统。在上面的视频中,HALLM 使用内置函数“input”要

介绍 GoodAI LTM Benchmark

Introducing GoodAI LTM Benchmark

作为我们在持续学习领域研究工作的一部分,我们正在开源一个基准,用于测试代理在非常长的对话中执行涉及高级使用记忆的任务的能力。除其他外,我们评估代理在需要动态维护记忆或长期整合信息的任务上的表现。我们正在开源:现行的 GoodAI LTM 基准。我们的 LTM 代理。我们的实验数据和结果。我们表明,信息的可用性是解决这些任务的必要条件,但不是充分条件。在我们的初始基准中,具有 8k 上下文的对话 LTM 代理与具有 128k 个令牌的长上下文 GPT-4-1106 相当。在内存要求高出 10 倍的更大基准测试中,我们的具有 8k 上下文的对话式 LTM 代理的性能比上下文大小为 128,000

介绍 Charlie Mnemonic:第一个具有长期记忆的个人助理

Introducing Charlie Mnemonic: The First Personal Assistant with Long-Term Memory

作为持续学习研究工作的一部分,我们正在开源 Charlie Mnemonic,这是首款配备长期记忆 (LTM) 的个人助理(LLM 代理)。乍一看,Charlie 可能类似于现有的 LLM 代理,如 ChatGPT、Claude 和 Gemini。然而,它的特色是 LTM 的实现,使其能够从每次交互中学习。这包括将用户消息、助手响应和环境反馈存储并集成到 LTM 中,以便在与手头任务相关时将来检索。Charlie Mnemonic 结合使用长期记忆 (LTM)、短期记忆 (STM) 和情景记忆来提供情境感知响应。这种随着时间的推移记住交互的能力显著提高了对话的连贯性和个性化。此外,Charli

介绍我们在通用 LLM 代理方面的工作

Introducing our work on general-purpose LLM Agents

在 GoodAI,我们致力于突破人工智能的界限。我们目前的重点是开发基于大型语言模型 (LLM) 的代理,这些代理的个性超越了简单的对话,而是表现出 LLM 驱动的行为,与人类和其他代理以及他们的虚拟环境进行交互。我们的代理从反馈中学习,存储长期记忆并表达以目标为导向的行为。我们正在 LLM 之上构建一个认知架构,用作推理引擎,并添加长期记忆,这是持续学习的基础。释放大型语言模型代理的潜力自 2021 年以来,我们一直将我们的研究应用于 AI People 的开发,这是我们的内部视频游戏,LLM 代理在其中栩栩如生。在这个开放式沙盒模拟中,代理彼此之间以及与环境之间进行交互,建立关系并表现出情

教授 LLM 代理控制无人机

LLM Agent taught to control drones

在上面的视频中,我们演示了我们的一个 LLM 代理学习如何使用 API 来控制无人机四轴飞行器的学习过程。初始阶段需要我们向代理提供详细而全面的说明,说明如何发送 HTTP 请求以及通过 API 可以使用哪些命令。随着视频的进展,代理很快掌握了这些说明,并利用它已有的知识来执行高级而复杂的任务,例如让无人机沿着方形轨迹飞行。这展示了代理的弹性和自适应学习能力 - 代理如何从错误和错误假设中恢复。此版本的持续学习代理代表了我们的第一个原型(体现在 Python 终端中的代理)的重大进步。这个增强的代理可以访问不同形式的工作记忆和长期记忆,使其能够有效地管理几种类型的记忆不一致,例如矛盾或过时的信