记忆的关键词检索结果

连接点:关系学习在塑造未来思想方面的力量

Connecting the Dots: The Power of Relational Learning in Shaping Tomorrow's Minds

在不断发展的个性化环境中,关系学习成为基本组成部分。从本质上讲,它强调在概念之间建立联系的重要性,以促进对学科的深刻和相互关联的理解。然而,关系学习的意义超出了学术领域,因为它强调以信任为中心培养学生和教育者之间的关系。关系学习很重要,因为它解决了传统基于记忆的方法的缺点,这是我们强调的个性化的关键原则。这种方法不是孤立地看待主题,而是鼓励学生探索思想的相互联系。学生通过识别和理解概念之间的关系,培养在学术和现实世界中取得成功所必需的思维技能。在看似不同的信息之间建立联系可以增强理解力和记忆力,为终身学习奠定基础。除了认知方面的好处之外,关系学习还有助于创造积极和协作的课堂环境。建立学生之间以

教学教练如何将认知负荷理论带入学校?

How Can Instructional Coaches Bring Cognitive Load Theory Into Schools?

改变我教学方式的一件事是,我理解了以下两点:a) 学习大多数东西并不像学习第一语言那样自然而然;b) 如果我们忽略工作记忆的局限性,孩子们不太可能很好地学习材料。这些见解是认知负荷理论 (CLT) 的关键。快来和我一起……继续阅读教学教练如何将认知负荷理论带入学校?

长记忆和弱 ID

Long memory and weak ID

到目前为止,我从未成为弱 ID 文献的忠实粉丝。我一直觉得,如果你最终得到弱 ID,那么是时候更深入地思考底层经济学,而不是花哨的计量经济学了。但这篇文章让我大开眼界,改变了我的想法。太酷了。长期记忆的弱识别及其对推理的影响作者:Jia Li(新加坡管理大学);Peter C. B. Phillips(考尔斯基金会、耶鲁大学、奥克兰大学、新加坡管理大学、南安普顿大学);Shuping Shi(麦考瑞大学);Jun Yu(新加坡管理大学)摘要:本文探讨了常用的经济和金融时间序列模型中出现的弱识别问题。两种非常流行的配置被证明是渐近观察等效的:一种具有长期记忆和弱自回归动态,另一种具有反持续冲击和

长记忆神经网络

Long-Memory Neural Nets

分数阶 SDE-Net:具有长期记忆的时间序列数据生成作者:Kohei Hayashi;Kei Nakagawa摘要:本文重点介绍使用神经网络生成时间序列数据。通常情况下,输入的时间序列数据(尤其是来自真实金融市场的数据)是不规则采样的,其噪声结构比 i.i.d. 类型更复杂。为了生成具有这种特性的时间序列,我们提出了 fSDE-Net:神经分数阶随机微分方程网络。它通过使用 Hurst 指数大于一半的分数布朗运动来推广神经 SDE 模型,从而表现出长期记忆特性。我们推导了 fSDE-Net 的求解器,并从理论上分析了 fSDE-Net 解的存在性和唯一性。我们的实验表明,fSDE-Net 模

#115 – Dileep George:受大脑启发的人工智能

#115 – Dileep George: Brain-Inspired AI

Dileep George 是神经科学和人工智能交叉领域的研究员,Vicarious 的联合创始人,曾是 Numenta 的联合创始人。从早期对分层时间记忆的研究到递归皮层网络,再到今天,Dileep 一直在寻求设计出与人脑密切相关的智能。通过支持我们的赞助商来支持此频道。单击链接可获得折扣:- Babbel:https://babbel.com 并使用代码 LEX- MasterClass:https://masterclass.com/lex- Raycon:https://buyraycon.com/lex如果您想获取有关此播客的更多信息,请访问 https://lexfridman.c

介绍 GoodAI LTM Benchmark

Introducing GoodAI LTM Benchmark

作为我们在持续学习领域研究工作的一部分,我们正在开源一个基准,用于测试代理在非常长的对话中执行涉及高级使用记忆的任务的能力。除其他外,我们评估代理在需要动态维护记忆或长期整合信息的任务上的表现。我们正在开源:现行的 GoodAI LTM 基准。我们的 LTM 代理。我们的实验数据和结果。我们表明,信息的可用性是解决这些任务的必要条件,但不是充分条件。在我们的初始基准中,具有 8k 上下文的对话 LTM 代理与具有 128k 个令牌的长上下文 GPT-4-1106 相当。在内存要求高出 10 倍的更大基准测试中,我们的具有 8k 上下文的对话式 LTM 代理的性能比上下文大小为 128,000

我对 2023 年的回顾以及对 2024 年的计划和预测

My review of 2023 & Plans and predictions for 2024

摘要:太空工程师 10 周年!PlayStation 上的太空工程师太空工程师 - 发布四个主要更新VRAGE3 开发LTM 基准Charlie Mnemonic - 具有长期记忆的个人助理无人机地面站AI People 游戏 - 具有长期记忆的 AI NPC关于我们的 AGI 开发2024 年计划我对 2024 年的全球预测每年新年到来时,我都会花时间回顾过去一年的成就,并着眼于即将到来的目标。今年,我很高兴第一次将我对 2024 年的全球预测纳入其中。对于那些有兴趣重新审视去年的回顾和计划(2022/23)的人,您可以在此处找到它们。现在,让我们深入了解今年的回顾。希望您喜欢阅读!2023

介绍我们在通用 LLM 代理方面的工作

Introducing our work on general-purpose LLM Agents

在 GoodAI,我们致力于突破人工智能的界限。我们目前的重点是开发基于大型语言模型 (LLM) 的代理,这些代理的个性超越了简单的对话,而是表现出 LLM 驱动的行为,与人类和其他代理以及他们的虚拟环境进行交互。我们的代理从反馈中学习,存储长期记忆并表达以目标为导向的行为。我们正在 LLM 之上构建一个认知架构,用作推理引擎,并添加长期记忆,这是持续学习的基础。释放大型语言模型代理的潜力自 2021 年以来,我们一直将我们的研究应用于 AI People 的开发,这是我们的内部视频游戏,LLM 代理在其中栩栩如生。在这个开放式沙盒模拟中,代理彼此之间以及与环境之间进行交互,建立关系并表现出情

记忆快捷方式,在朋友的一点帮助下

A Memory Shortcut, With a Little Help From Friends

以下最初出现在Upshot上(版权所有2018,《纽约时报》公司)。 “永远记住一切,”我母亲喜欢说。当然,正如她所知,即使使用先进的记忆技术,这也是不可能的。这就是为什么我们做笔记并使用日历的原因。这些是我们外部记忆的组成部分,这是我们扩展思维的一部分。 […]帖子的记忆快捷方式,在朋友的一些帮助下,首次出现在偶然的经济学家身上。

神奇的记忆分子

The Magic Memory Molecule

我们的大脑如何记住事情?神经科学家 Andre Fenton 发现这个问题没有简单的答案。Andre 多年来一直在试验 PKMZeta,他认为这是一种微小的分子,是形成记忆的关键。但如果他错了怎么办?这是一个关于科学过程的个人故事,以及通往知识的旅程中的坎坷。欢迎回到 Tumble 第三季!我们很高兴能带着全新的剧集回来——来自西班牙巴塞罗那!为了正确开始,我们正在进行 Patreon 认捐活动,以吸引 100 名赞助人!您可以捐赠任意金额来投票决定我们将去巴塞罗那的哪里以及我们将在我们的 Patreon 博客上与您分享什么。如需承诺,请访问 patreon.com/tumblepodcast

字母,字母表

The alphabet, alphabetized

这出现在“特殊记忆:记忆的非凡壮举可以被培训得到改善的普通记忆的人相匹配或超越。”

模仿人脑的神经连接将使电子产品变得“更聪明”

Имитация нейронных связей человеческого мозга позволит сделать электронику «умнее»

创建一台能够像人脑一样学习和记忆的计算机仍然是一个挑战。这个复杂的人体器官有 860 亿个神经元以及神经元之间的数万亿个连接(突触),这些连接会随着时间的推移而变得更强或更弱。

挑战币:卓越传统

Challenge coins: A tradition of excellence

在军队服役期间,我们收集了很多东西。无论是纪念品、奖品还是习惯,这些东西都会被保留下来,以纪念那些我们永远不想忘记的特殊时刻。挑战币就是这些记忆的一个例子,因为它们是对个人所表现出的辛勤工作和卓越表现的一种认可。

挑战币:卓越传统

Challenge coins: A tradition of excellence

在军队度过的这段时间里,我们收集了很多东西。无论是纪念品、奖励还是习惯,这些物品都是为了记住我们永远不想忘记的特殊时刻。挑战币就是这些记忆的一个例子,因为它们是对个人所表现出的辛勤工作和卓越表现的一种认可。