Ooda关键词检索结果

FaceApp 和 OODA 循环的突破

FaceApp and the breaking of the OODA loop

人们会认为剑桥分析丑闻在公众心中还记忆犹新,因为这件事是在四个月前(2019 年 3 月)才爆出的。如果四个月前对你来说是古老的历史,那么这个丑闻就是一​​个看似无辜的应用程序“This is Your Digital Life”收集了有关用户的数据,并用于邪恶的目的。然而,Facebook 应用程序 FaceApp 的流行程度显然表明,数以百万计的人并没有从仅仅四个月前的爆料中吸取任何教训。FaceApp 是一款 Facebook 应用程序,它可以出色地预测你年老时(或年轻时、不同性别等)的样子。壮志凌云遇见 FaceApp。来源:no idea对于关注剑桥分析丑闻的人来说,这并不奇怪,Fa

介绍 Charlie Mnemonic:第一个具有长期记忆的个人助理

Introducing Charlie Mnemonic: The First Personal Assistant with Long-Term Memory

作为持续学习研究工作的一部分,我们正在开源 Charlie Mnemonic,这是首款配备长期记忆 (LTM) 的个人助理(LLM 代理)。乍一看,Charlie 可能类似于现有的 LLM 代理,如 ChatGPT、Claude 和 Gemini。然而,它的特色是 LTM 的实现,使其能够从每次交互中学习。这包括将用户消息、助手响应和环境反馈存储并集成到 LTM 中,以便在与手头任务相关时将来检索。Charlie Mnemonic 结合使用长期记忆 (LTM)、短期记忆 (STM) 和情景记忆来提供情境感知响应。这种随着时间的推移记住交互的能力显著提高了对话的连贯性和个性化。此外,Charli

HALLM:通过 Python 终端观察和行动的代理

HALLM: An Agent that Observes and Acts through a Python Terminal

在 GoodAI,我们致力于安全 AGI 的进步。大型语言模型 (LLM) 无疑提供了强大的功能,但它们本身也存在局限性 — 尤其是无法在部署后学习新技能。我们的创新方法正是在这里大放异彩。我们设计的代理不仅可以利用 LLM 的基础功能,还可以对其进行显著扩展。通过我们独特的架构和新颖的方法,我们的代理赋予 LLM 持续学习的能力,使它们能够理解复杂的指令、随着时间的推移进行适应,并在复杂的推理和解决问题的任务中表现出色。HALLM 可以联系用户以询问更多信息,或者如果它认为用户可以帮助它做某事,例如安装 Python 包或重新启动系统。在上面的视频中,HALLM 使用内置函数“input”要

实践中的集体智慧:安全是一项人权

Collective intelligence in practice: Safety as a human right

在 GoodAI 内部的一个小而敏捷的团队中,我们着手解决无人机操作中的挑战,并开发用于异构智能代理组与人类协作的工具。这项工作建立在 GoodAI 在多智能体系统方面的研究历史之上。以下是介绍我们愿景的“故事板”,我们正忙于将其变为现实:在 GoodAI,我们一直在寻找 AI 可以带来最大好处并真正增强人类能力的用例。我们发现,如果无人机能够更实惠、更强大(换句话说,如果可以使用一组更小、可一次性使用的智能单元而不是几架昂贵的无人机),并且更易于使用(这样人们就可以在无需特殊培训的情况下运行复杂的无人机操作),那么无人机可能会成为安全和安保领域的游戏规则改变者。简化无人机操作我们的第一个目标

具身集体:我们迄今为止的进展

Embodied collectives: our progress to date

在 GoodAI,我们正在构建协作式 AI 代理,以增强人类能力并大规模推动积极变革。集体智慧是我们工作的指导原则。我们的一个团队致力于开发 AI 代理,例如基于大型语言模型的 AI 助手、程序员、研究人员和斯多葛导师。同时,另一个团队正在开发 GoodAI Groundstation 平台,允许代理在物理世界中运行。民主化安全GoodAI Groundstation 使个人能够同时控制多个机器人,而无需经过专门培训。用户提供高级目标,机器人自主执行任务。团队成员参与社区安全为我们提供了第一个犯罪预防的实际用例,并激励我们创建一种使安全民主化的工具。虽然在许多情况下仍然是一种奢侈,但我们相信安

介绍 GoodAI LTM Benchmark

Introducing GoodAI LTM Benchmark

作为我们在持续学习领域研究工作的一部分,我们正在开源一个基准,用于测试代理在非常长的对话中执行涉及高级使用记忆的任务的能力。除其他外,我们评估代理在需要动态维护记忆或长期整合信息的任务上的表现。我们正在开源:现行的 GoodAI LTM 基准。我们的 LTM 代理。我们的实验数据和结果。我们表明,信息的可用性是解决这些任务的必要条件,但不是充分条件。在我们的初始基准中,具有 8k 上下文的对话 LTM 代理与具有 128k 个令牌的长上下文 GPT-4-1106 相当。在内存要求高出 10 倍的更大基准测试中,我们的具有 8k 上下文的对话式 LTM 代理的性能比上下文大小为 128,000

GoodAI LTM Benchmark v3 发布

GoodAI LTM Benchmark v3 Released

GoodAI LTM 基准测试的主要目的一直是作为我们在开发能够持续和终身学习的代理方面取得进展的客观衡量标准。但是,我们也希望它对开发此类代理的任何人都有用。为了实现这一点,我们已将此版本定位为更易于理解并产生更标准化的结果,我们希望这些结果更容易进行比较和分析。从基准测试的第一个版本开始,我们就将特定的测试实例分组到数据集或任务类型中。例如,有一个名为“购物清单”的数据集,我们可以从中抽取任意数量的不同测试实例,以评估代理记住一系列物品并保留用户购物清单的更新版本的能力。在早期版本中,每个测试可能会产生任意数量的分数点,并且这些分数点未标准化。这可能导致令人困惑的情况,即通过高度复杂的测试

LTM Benchmark:改进和新报告

LTM Benchmark: Improvements and new reports

在 GoodAI,我们致力于开发能够持续和终身学习的代理。作为我们努力的一部分,我们之前已经开源了 GoodAI LTM 基准,这是一套旨在评估任何对话代理的长期记忆 (LTM) 能力的测试。在这个基准中,所有任务都作为代理和我们的虚拟测试人员之间一次非常长的对话的一部分进行。基准交织了来自不同任务的信息和探索性问题,尽管特别注意将它们编织成自然对话。LTM = 长期记忆作为我们对具有 LTM 的代理进行研究的直接结果,GoodAI LTM 基准在不断发展。对我们来说,它是评估我们的代理和验证我们的假设的宝贵工具。此外,它帮助我们描述不同代理失败的方式,因此它为我们提供了目标。在 GoodAI

AI 人:宣布游戏 AI NPC 的下一次进化

AI People: Announcing the next evolution of gaming AI NPCs

今天,GoodAI 自豪地推出我们的新游戏:AI People。更多信息请访问我们的官方网站:www.AIPeopleGame.com。请观看公告直播:https://youtube.com/live/Xz_ncOB5P3g。愿景我们对 AI People 的愿​​景雄心勃勃但很明确:通过让智能 AI NPC 成为游戏玩法的核心,在游戏行业内进行创新。我们的目标是开创一种新的智能 AI NPC 类型,就像 11 年前我们用 Space Engineers 创建工程类型一样。这一愿景后来发展成现在的形式:AI People 是一款沙盒游戏,您可以在其中创建和玩 AI NPC 场景,这些场景可以相

介绍我们在通用 LLM 代理方面的工作

Introducing our work on general-purpose LLM Agents

在 GoodAI,我们致力于突破人工智能的界限。我们目前的重点是开发基于大型语言模型 (LLM) 的代理,这些代理的个性超越了简单的对话,而是表现出 LLM 驱动的行为,与人类和其他代理以及他们的虚拟环境进行交互。我们的代理从反馈中学习,存储长期记忆并表达以目标为导向的行为。我们正在 LLM 之上构建一个认知架构,用作推理引擎,并添加长期记忆,这是持续学习的基础。释放大型语言模型代理的潜力自 2021 年以来,我们一直将我们的研究应用于 AI People 的开发,这是我们的内部视频游戏,LLM 代理在其中栩栩如生。在这个开放式沙盒模拟中,代理彼此之间以及与环境之间进行交互,建立关系并表现出情

AI 竞赛避免研讨会报告

Report from the AI Race Avoidance Workshop

GoodAI 和 AI 路线图研究所东京,ARAYA 总部,2017 年 10 月 13 日作者:Marek Rosa、Olga Afanasjeva、Will Millership (GoodAI)研讨会参与者:Olga Afanasjeva (GoodAI)、Shahar Avin (CSER)、Vlado Bužek (斯洛伐克科学院)、Stephen Cave (CFI)、Arisa Ema (东京大学)、Ayako Fukui (Araya)、Danit Gal (北京大学)、Nicholas Guttenberg (Araya)、Ryota Kanai (Araya)、George

AI 中尚未解决的问题

Unsolved Problems in AI

客座文章作者:Simon Andersson,高级研究员 @GoodAI 执行摘要 追踪人工智能中尚未解决的主要问题可以让我们诚实地了解尚待实现的目标,并促进创建通用人工智能的路线图。本文档目前确定了 29 个未解决的问题。对于每个主要问题,建议使用示例测试来评估研究进展。简介 本文档确定了人工智能中的未解决的问题。它旨在简明概述该领域面临的最大挑战和当前的最新技术水平,符合人工智能路线图研究所关注的“开放研究问题”主题。挑战分为人工智能完整问题、封闭领域问题以及常识推理、学习和感觉运动能力的基本问题。我意识到第一次尝试调查开放问题必然是不完整的,欢迎读者反馈。为了帮助加速对通用人工智能的搜索

GoodAI 的路线图比较

Roadmap Comparison at GoodAI

客座文章作者:Martin Stránský,研究科学家 @GoodAI图 1. GoodAI 架构开发路线图比较(全尺寸)人工智能,尤其是深度学习领域的最新进展令人叹为观止。这对于任何对该领域感兴趣的人来说都是非常鼓舞人心的,但人类水平的人工智能的真正进展却很难评估。人工智能的评估是一个非常困难的问题,原因有很多。例如,对智能机器的基本要求缺乏共识是开发比较不同代理的统一方法的主要障碍之一。尽管许多研究人员专门关注这个主题(例如 José Hernández-Orallo 或 Kristinn R. Thórisson 等),但该领域将受益于人工智能社区的更多关注。评估人工智能的方法是帮助评

AFAP 会议听取了士兵、家庭问题

AFAP conference hears Soldier, Family issues

Fort HoodAca,!a,,cs 2008 年陆军家庭行动计划会议于 10 月 14 日至 16 日在科曼奇教堂举行。在两天的时间里,志愿者代表、AFAP 协调员和主题专家权衡并讨论了家庭成员和士兵提交的政策和......

受伤的战士,家人享受阿吉的热情款待

Wounded warriors, Families enjoy Aggie hospitality

中士。安迪·韦森伯格 (Andy Weissenberger) 已经做好了参加橄榄球比赛的准备。他是胡德堡 (Fort HoodAca) 战士过渡部队 (Fort HoodAca,!a,,cs Warrior Transition Unit) 的 100 多名受伤战士和家庭成员之一,获得了参加德克萨斯 A&M 对阵陆军黑骑士 (Black Knights of Army) 比赛的免费通行证。 ...

长刀继续启程伊拉克:“拥抱女士”保持部署拥抱传统

Long Knives continue departure for Iraq:"Hug Lady" maintains deployment hug tradition

德克萨斯州胡德堡 Aca,!" 大约 200 名第四 Aca,!A" 长刀Aca,!A? 6 月 10 日,第 1 骑兵师旅级战斗队士兵从胡德堡阿卡堡 (Fort HoodAca) 起飞,!a,,cs 罗伯特·格雷陆军机场,前往伊拉克。

现实训练

Realistic Training

Aca,!A"bloodAca,!A? 不是真实的,但训练非常真实。第 25 战斗航空旅的士兵本月在夏威夷惠勒陆军机场参加战斗救生员课程训练。