记忆的关键词检索结果

Charlie Mnemonic 更新 4:专注于记忆搜索

Charlie Mnemonic Update 4: Focus on searching in memories

摘要:人思模型在长期记忆中的对话历史记录和消息中搜索精简的电子邮件管理增强的文件处理和用户界面底层改进和展望我们很高兴地宣布对 Charlie Mnemonic 进行重大更新,它是您值得信赖的具有长期记忆的开源 AI 助手。此最新版本带来的改进使 Charlie 比以往更加直观、高效和强大,重点是增强记忆搜索功能。人思模型我们增加了对 Claude 3.5 Sonnet 和 Haiku 等人思模型的支持,允许在 OpenAI 和 Anthropic 之间无缝切换。在长期记忆中的对话历史记录和消息中搜索此更新中最令人兴奋的新增功能之一是我们的高级聊天搜索功能。我们都有过这样的经历——无休止地滚动

脑科学家终于发现了让记忆永存一生的粘合剂

Brain Scientists Finally Discover the Glue that Makes Memories Stick for a Lifetime

一项长期的研究揭示了巩固记忆的关键化学因素——还有更多尚未发现

乌贼可以也会形成虚假记忆

Cuttlefish can form false memories too

你有没有记错过某件事,或者在回忆过去时把两件事情混淆?据国际研究人员称,乌贼也能做同样的事情,他们用装有乌贼最喜欢的食物——虾和不太喜欢的食物——螃蟹的管子,让乌贼产生虚假记忆。乌贼已被公认为唯一能够记住和回忆过去发生的事情的无脊椎动物,但此前人们并不知道它们是否依赖于重建过程,即通过关联原始事件期间存在的不同特征,在心理上重建事件。然而,这个过程可能会导致虚假记忆的形成。据该团队称,他们能够让乌贼产生看到它们最喜欢的食物的虚假记忆。

对大型语言模型的推理能力存在高估

Det finns en överskattning av stora språkmodellers resonemangsförmåga

麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的一项新研究强调了大型语言模型 (LLM) 在熟悉的场景中表现出色,但在新的场景中却表现不佳,这让人质疑它们真正的推理能力与对记忆的依赖。这种见解对于提高这些模型的适应性和扩展其应用领域至关重要。该研究比较了“标准任务”,[…]这篇文章首次出现在人工智能新闻上。

研究发现,孤独与老年人的记忆力减退有关

Loneliness linked to memory loss in older people, study finds

大约三分之一的加拿大人感到孤独,滑铁卢大学的一项研究发现,孤独对记忆的负面影响比社交孤立更大,尽管两者都是老龄化人口的主要风险。孤独是一种主观的孤独感,即使在社交场合也是如此。它经常与[…]帖子研究发现孤独与老年人记忆力减退有关,首先出现在 Knowridge Science Report 上。

大型语言模型的推理能力经常被高估

Reasoning skills of large language models are often overestimated

CSAIL 的新研究强调了 LLM 在熟悉的场景中表现出色,但在新场景中却举步维艰,这让人质疑其真正的推理能力与对记忆的依赖。

解锁解脱:消除“坏记忆”以对抗帕金森氏症震颤

Unlocking Relief: Erasing “Bad Memories” To Combat Parkinson’s Tremors

一项新研究表明,帕金森病患者的运动障碍可以通过针对影响大脑运动记忆的 Activin A 蛋白来预防……

从牛奶配送到 MAD 再到疯狂

From Milk-Runs To MAD To Madness

从“例行飞行”到“疯狂”再到“疯狂”作者:乔治·福特·史密斯,米塞斯研究所,自然界没有秘密。但人类的思想和意图却有秘密。- J. 罗伯特·奥本海默没什么大不了的,只是“例行飞行”。美国 B-29 超级堡垒轰炸机埃诺拉·盖伊号的飞行员保罗·蒂贝茨二世在描述他 1945 年 8 月 6 日飞往日本广岛的旅程时如是说。那天清晨,他携带的货物是一颗名为“小男孩”的原子弹,轰炸机手托马斯·费雷比少校在飞机直接飞过城市上空时投下了这颗原子弹。43 秒后,在飞行员和机组人员的注视下,“小男孩”在地面上爆炸。他们的任务完成后,埃诺拉·盖伊号返回天宁岛基地。是的,只是例行飞行。其他人的看法不同。 1946 年

健忘的终结?已发现蛋白质有助于保存记忆

Конец забывчивости? Найдены белки, помогающие сохранить воспоминания

科学发现解释了长期记忆的机制。

大脑是一台超级计算机!新研究揭示了其令人难以置信的力量的秘密

Мозг - суперкомпьютер! Новое исследование раскрывает секреты его невероятной мощности

科学家们发现了人类记忆的工作原理。

连接点:关系学习在塑造未来思想方面的力量

Connecting the Dots: The Power of Relational Learning in Shaping Tomorrow's Minds

在不断发展的个性化环境中,关系学习成为基本组成部分。从本质上讲,它强调在概念之间建立联系的重要性,以促进对学科的深刻和相互关联的理解。然而,关系学习的意义超出了学术领域,因为它强调以信任为中心培养学生和教育者之间的关系。关系学习很重要,因为它解决了传统基于记忆的方法的缺点,这是我们强调的个性化的关键原则。这种方法不是孤立地看待主题,而是鼓励学生探索思想的相互联系。学生通过识别和理解概念之间的关系,培养在学术和现实世界中取得成功所必需的思维技能。在看似不同的信息之间建立联系可以增强理解力和记忆力,为终身学习奠定基础。除了认知方面的好处之外,关系学习还有助于创造积极和协作的课堂环境。建立学生之间以

教学教练如何将认知负荷理论带入学校?

How Can Instructional Coaches Bring Cognitive Load Theory Into Schools?

改变我教学方式的一件事是,我理解了以下两点:a) 学习大多数东西并不像学习第一语言那样自然而然;b) 如果我们忽略工作记忆的局限性,孩子们不太可能很好地学习材料。这些见解是认知负荷理论 (CLT) 的关键。快来和我一起……继续阅读教学教练如何将认知负荷理论带入学校?

长记忆神经网络

Long-Memory Neural Nets

分数阶 SDE-Net:具有长期记忆的时间序列数据生成作者:Kohei Hayashi;Kei Nakagawa摘要:本文重点介绍使用神经网络生成时间序列数据。通常情况下,输入的时间序列数据(尤其是来自真实金融市场的数据)是不规则采样的,其噪声结构比 i.i.d. 类型更复杂。为了生成具有这种特性的时间序列,我们提出了 fSDE-Net:神经分数阶随机微分方程网络。它通过使用 Hurst 指数大于一半的分数布朗运动来推广神经 SDE 模型,从而表现出长期记忆特性。我们推导了 fSDE-Net 的求解器,并从理论上分析了 fSDE-Net 解的存在性和唯一性。我们的实验表明,fSDE-Net 模

长记忆和弱 ID

Long memory and weak ID

到目前为止,我从未成为弱 ID 文献的忠实粉丝。我一直觉得,如果你最终得到弱 ID,那么是时候更深入地思考底层经济学,而不是花哨的计量经济学了。但这篇文章让我大开眼界,改变了我的想法。太酷了。长期记忆的弱识别及其对推理的影响作者:Jia Li(新加坡管理大学);Peter C. B. Phillips(考尔斯基金会、耶鲁大学、奥克兰大学、新加坡管理大学、南安普顿大学);Shuping Shi(麦考瑞大学);Jun Yu(新加坡管理大学)摘要:本文探讨了常用的经济和金融时间序列模型中出现的弱识别问题。两种非常流行的配置被证明是渐近观察等效的:一种具有长期记忆和弱自回归动态,另一种具有反持续冲击和

#115 – Dileep George:受大脑启发的人工智能

#115 – Dileep George: Brain-Inspired AI

Dileep George 是神经科学和人工智能交叉领域的研究员,Vicarious 的联合创始人,曾是 Numenta 的联合创始人。从早期对分层时间记忆的研究到递归皮层网络,再到今天,Dileep 一直在寻求设计出与人脑密切相关的智能。通过支持我们的赞助商来支持此频道。单击链接可获得折扣:- Babbel:https://babbel.com 并使用代码 LEX- MasterClass:https://masterclass.com/lex- Raycon:https://buyraycon.com/lex如果您想获取有关此播客的更多信息,请访问 https://lexfridman.c

介绍 GoodAI LTM Benchmark

Introducing GoodAI LTM Benchmark

作为我们在持续学习领域研究工作的一部分,我们正在开源一个基准,用于测试代理在非常长的对话中执行涉及高级使用记忆的任务的能力。除其他外,我们评估代理在需要动态维护记忆或长期整合信息的任务上的表现。我们正在开源:现行的 GoodAI LTM 基准。我们的 LTM 代理。我们的实验数据和结果。我们表明,信息的可用性是解决这些任务的必要条件,但不是充分条件。在我们的初始基准中,具有 8k 上下文的对话 LTM 代理与具有 128k 个令牌的长上下文 GPT-4-1106 相当。在内存要求高出 10 倍的更大基准测试中,我们的具有 8k 上下文的对话式 LTM 代理的性能比上下文大小为 128,000

我对 2023 年的回顾以及对 2024 年的计划和预测

My review of 2023 & Plans and predictions for 2024

摘要:太空工程师 10 周年!PlayStation 上的太空工程师太空工程师 - 发布四个主要更新VRAGE3 开发LTM 基准Charlie Mnemonic - 具有长期记忆的个人助理无人机地面站AI People 游戏 - 具有长期记忆的 AI NPC关于我们的 AGI 开发2024 年计划我对 2024 年的全球预测每年新年到来时,我都会花时间回顾过去一年的成就,并着眼于即将到来的目标。今年,我很高兴第一次将我对 2024 年的全球预测纳入其中。对于那些有兴趣重新审视去年的回顾和计划(2022/23)的人,您可以在此处找到它们。现在,让我们深入了解今年的回顾。希望您喜欢阅读!2023

介绍我们在通用 LLM 代理方面的工作

Introducing our work on general-purpose LLM Agents

在 GoodAI,我们致力于突破人工智能的界限。我们目前的重点是开发基于大型语言模型 (LLM) 的代理,这些代理的个性超越了简单的对话,而是表现出 LLM 驱动的行为,与人类和其他代理以及他们的虚拟环境进行交互。我们的代理从反馈中学习,存储长期记忆并表达以目标为导向的行为。我们正在 LLM 之上构建一个认知架构,用作推理引擎,并添加长期记忆,这是持续学习的基础。释放大型语言模型代理的潜力自 2021 年以来,我们一直将我们的研究应用于 AI People 的开发,这是我们的内部视频游戏,LLM 代理在其中栩栩如生。在这个开放式沙盒模拟中,代理彼此之间以及与环境之间进行交互,建立关系并表现出情