具有多条文记忆的AI代理

仅使用Python&Ollama(没有GPU,无apikey)从头开始构建。具有多课程记忆的后AI代理首先出现在数据科学上。

来源:走向数据科学

intro

在计算机科学中,就像人类认知一样,记忆层面不同:

    主内存(如RAM)是用于当前任务的当前任务,推理和决策的主动临时内存。它拥有您当前正在使用的信息。它快速但波动性,这意味着当电源关闭时会丢失数据。次要内存(如物理存储)是指无法立即活跃在工作内存中的学习知识的长期存储。它并非总是在实时决策过程中访问,但可以在需要时检索。因此,它较慢,但更持久。前置内存(例如历史数据的备份)是指档案记忆,其中存储信息是为了备份目的和灾难恢复。它的特征是高容量和低成本,但访问时间较慢。因此,很少使用它。
  • 主内存(如RAM)是用于当前任务的当前任务,推理和决策的主动临时内存。它拥有您当前正在使用的信息。它快速但波动,这意味着当电源关闭时会丢失数据。
  • 主内存 快速但波动
  • 辅助内存(如物理存储)是指在工作记忆中没有立即活跃的学习知识的长期存储。它并非总是在实时决策过程中访问,但可以在需要时检索。因此,它较慢,但更持久。
  • 辅助内存 慢但更持久
  • 三级内存(如历史数据的备份)是指档案记忆,其中存储信息是为了备份目的和灾难恢复。它的特征是高容量和低成本,但访问时间较慢。因此,很少使用它。
  • 三级内存 高容量和低成本,但速度较慢 构建具有多个会话内存的AI代理

    设置

    Ollama pip安装ollama == 0.5.1 qwen
    导入ollamallm =“ qwen2.5”

    让我们测试LLM:

    数据库

    矢量数据库 aisearch chromadb 系统