MemGPT 论文中文翻译:将 LLM 作为操作系统

原文标题: MemGPT: Towards LLMs as Operating Systems 作者: Charles Packer, Sarah Wooders, Kevin Lin, Vivian Fang, Shishir G. Patil, Ion Stoica, Joseph E. Gonzalez 机构: 加州大学伯克利分校 arXiv: 2310.08560v2 [cs.AI] 2024年2月12日 翻译整理: 2025年2月 摘要 大语言模型(LLM)已经彻底改变了人工智能领域,但受到有限的上下文窗口限制,这阻碍了它们在扩展对话和文档分析等任务中的实用性。为了能够在有限的上下文窗口之外使用上下文,我们提出了虚拟上下文管理技术,这一技术借鉴了传统操作系统中的分层内存系统,通过物理内存和磁盘之间的分页来提供扩展虚拟内存的幻觉。 利用这一技术,我们引入了 MemGPT(MemoryGPT),这是一个能够智能管理不同存储层级的系统,以在 LLM 有限的上下文窗口内有效提供扩展上下文。我们在两个领域评估了受操作系统启发的设计,在这些领域中,现代 LLM 的有限上下文窗口严重限制了它们的性能: 文档分析:MemGPT 能够分析远超底层 LLM 上下文窗口的大型文档 多会话聊天:MemGPT 可以创建能够记住、反思并通过与用户的长期互动动态进化的对话智能体 我们在 https://research.memgpt.ai 发布了 MemGPT 代码和实验数据。 图 1. MemGPT(左)在收到关于有限上下文空间的系统警报后将数据写入持久内存。 图 2. MemGPT(左)可以搜索上下文外数据,将相关信息带入当前上下文窗口。 1. 引言 近年来,大语言模型(LLM)及其底层的 Transformer 架构(Vaswani et al., 2017; Devlin et al., 2018; Brown et al., 2020; Ouyang et al., 2022)已成为对话式人工智能的基石,并催生了广泛的消费者和企业应用。尽管取得了这些进展,LLM 使用的有限固定长度上下文窗口显著阻碍了它们对长对话或长文档推理的适用性。例如,最广泛使用的开源 LLM 只能支持几十轮来回消息或推理短文档,然后就会超过其最大输入长度(Touvron et al., 2023)。 ...

February 22, 2026 · 3 min · 583 words · Robert

MemGPT/Letta 记忆与上下文管理深度解析

本文档整理自 Letta 官方文档、研究论文及 GitHub 仓库 原项目:MemGPT → 现名 Letta 论文:arXiv:2310.08560 📌 项目概览 什么是 MemGPT/Letta? MemGPT(Memory-GPT)是一个创新的 LLM 记忆管理系统,现更名为 Letta。它由 UC Berkeley 的研究团队开发,旨在解决大语言模型的上下文窗口限制问题。 核心理念: “Teaching LLMs to manage their own memory for unbounded context” 让 LLM 学会管理自己的记忆,实现无限上下文 GitHub 数据: ⭐ 21.2k stars 🍴 2.2k forks 👥 158 位贡献者 🧠 核心问题:上下文窗口限制 现有 LLM 的痛点 有限上下文窗口 GPT-4: 128K tokens Claude: 200K tokens 长文档、多轮对话容易溢出 无法持久化记忆 每次对话都是"从头开始" 无法记住用户偏好、历史交互 无法进行长期学习 不能从交互中积累知识 无法自我改进 🎯 解决方案:虚拟上下文管理 核心创新:操作系统启发 MemGPT 借鉴了传统操作系统的虚拟内存机制: ...

February 22, 2026 · 3 min · 599 words · Robert

三域融合分析:存储管理视角的统一

执行摘要 本报告从存储管理视角对自动驾驶大数据、多模态数据湖、Agent Infra Memory管理三个领域进行深度融合分析。核心发现是:三个领域本质上都在解决同一类问题——如何在容量、延迟、成本之间取得平衡的分层存储管理问题。 一、存储管理视角的通用抽象 1.1 核心抽象模型:存储器山 (Memory Mountain) 三个领域都可以用经典的"存储器山"模型来统一描述: 访问延迟 ▲ │ ┌─────────┐ <1ms │ │ 寄存器/ │ Context Window │ │ 工作记忆 │ (Working Memory) │ └─────────┘ 1-100ms │ ┌─────────┐ │ │ 缓存/ │ Session Buffer │ │ 短期记忆 │ (Short-term Memory) │ └─────────┘ 100ms-1s │ ┌─────────┐ │ │ 内存/ │ Vector DB + │ │ 中期记忆 │ Structured Store │ └─────────┘ 1s-10s │ ┌─────────┐ │ │ 磁盘/ │ Object Storage │ │ 长期记忆 │ (Long-term Memory) │ └─────────┘ >10s │ ┌─────────┐ │ │ 归档/ │ Cold Archive │ │ 永久存储 │ (Permanent Storage) │ └─────────┘ └──────────────────► 存储容量 1.2 数据/信息的层次化组织对比 维度 自动驾驶大数据 多模态数据湖 Agent Memory管理 L0: 实时流 CAN/DDS Topic流 实时摄入流 Context Window (4K-128K tokens) L1: 热数据 最近采集的ROS bag 热数据缓存 Session Buffer (10-100 messages) L2: 温数据 转换后的Parquet 温数据SSD缓存 Vector Memory + Structured Memory L3: 冷数据 OSS对象存储 对象存储(S3/OSS) 长期记忆存储 L4: 归档 冷归档存储 归档存储 永久知识库 二、分层存储模型的对比映射 2.1 “存储器山"模型的三域映射 +------------------------------------------------------------------+ | 存储器山模型 - 三域对比映射 | +--------------+------------------+------------------+---------------------------+ | 层级 | 自动驾驶大数据 | 多模态数据湖 | Agent Memory | +--------------+------------------+------------------+---------------------------+ | L0: 寄存器级 | Context Window | In-Memory Cache | Context Window (4K-128K) | | L1: 缓存级 | PolarFS Cache | L1 Memory Cache | Session Buffer | | L2: 内存级 | DataFusion | L2 SSD Cache | Vector DB + | | L3: 磁盘级 | OSS对象存储 | S3/OSS对象存储 | Long-term Memory Store | | L4: 归档级 | 冷归档存储 | Archive Storage | Permanent Knowledge Base | +--------------+------------------+------------------+---------------------------+ 2.2 层次之间的对应关系发现 关键发现:三个领域的层次结构高度同构 ...

February 22, 2026 · 3 min · 589 words · Robert

Agent Infra 深度调研:Memory管理层次与架构设计

执行摘要 本报告对Agent Infrastructure(Agent基础设施)领域进行了系统性深度调研,重点关注Memory管理层次模型。通过对LangChain、LangGraph、LangSmith、Zep、MemGPT等主流技术的分析,揭示了Agent Memory从简单会话存储到复杂知识图谱演进的技术脉络。 1. Agent Infra 分层架构 1.1 Agent执行动态追踪(Trace)层 LangSmith 是LangChain团队推出的LLM应用可观测性平台,截至2025年已处理超过10亿条Trace。 核心架构: Frontend (UI) + Backend API + SDK (Python/TypeScript) ↓ ClickHouse (Trace存储) + PostgreSQL (元数据) + Redis (缓存) 定价模式: Developer计划:免费,5,000 traces/月 Plus计划:$39/月/席位 Enterprise计划:支持私有化部署 1.2 Agent Context管理层 Context生命周期: 创建(Creation) → 传递(Transfer) → 更新(Update) → 销毁(Dispose) │ │ │ │ 初始化状态 节点间流转 Reducer合并 会话结束 LangGraph中的Context管理: class AgentState(TypedDict): messages: Annotated[list, add_messages] documents: list[str] counter: Annotated[int, add] 2. Memory管理深度分析(重点) 2.1 Memory层次模型 基于认知科学和计算机体系结构的启发,Agent Memory采用分层架构: ┌─────────────────────────────────────────────────────────┐ │ Working Memory (工作记忆) │ │ Context Window / Active Reasoning │ │ ~4K-128K tokens │ │ ▲ │ │ │ 实时访问 │ ├───────────────────┼─────────────────────────────────────┤ │ ▼ │ │ Short-term Memory (短期记忆) │ │ Session History / Conversation Buffer │ │ ~10-100 messages │ │ ▲ │ │ │ 快速检索 │ ├───────────────────┼─────────────────────────────────────┤ │ ▼ │ │ Long-term Memory (长期记忆) │ │ ┌───────────────┬───────────────┐ │ │ │ Fixed Attr │ Fuzzy Vector │ │ │ │ Memory │ Memory │ │ │ │ (用户画像) │ (Embedding) │ │ │ └───────────────┴───────────────┘ │ └─────────────────────────────────────────────────────────┘ 2.2 短期记忆(Short-term Memory) 工作记忆(Working Memory): ...

February 22, 2026 · 3 min · 586 words · Robert

智能体设计模式资料汇总

这是 Google 及相关高质量智能体设计模式的资料整理,涵盖从理论基础到实践应用的完整内容。 📚 中文资料 1. Prompt Engineering Guide - 大语言模型智能体简介 ⭐推荐 网址: https://www.promptingguide.ai/zh/research/llm-agents 语言: 中文 内容: 系统性介绍 LLM Agent 的核心组件 智能体(Agent)角色与设计 规划模块(Planning):无反馈规划 vs 有反馈规划 记忆模块(Memory):短期记忆与长期记忆 工具使用(Tools):API、代码解释器等 ReAct、Reflexion 等设计模式 📚 英文资料(高质量参考) 2. A Survey on LLM-based Autonomous Agents ⭐经典论文 网址: https://arxiv.org/abs/2308.11432 PDF: https://arxiv.org/pdf/2308.11432 作者: 中国人民大学高瓴人工智能学院 内容: LLM Agent 的统一框架 社交科学、自然科学、工程领域的应用 评估策略与未来方向 3. DeepLearning.AI - Multi AI Agent Systems with crewAI 网址: https://www.deeplearning.ai/short-courses/multi-ai-agent-systems-with-crewai/ 时长: 2小时41分钟,18个视频课程 内容: 角色扮演(Role-playing) 记忆系统(短期/长期/共享记忆) 工具分配(Tools) 任务协作(串行、并行、层级) Guardrails 错误处理 4. LangChain 官方文档 - Agentic Concepts 网址: https://js.langchain.com/docs/concepts/agentic/ 内容: LangChain 的 Agent 架构 LangGraph 编排框架 Deep Agents 现代功能(自动压缩、虚拟文件系统、子代理) 🔗 Google 官方资源 资源 链接 Vertex AI Agent Builder https://cloud.google.com/generative-ai-app-builder/docs/agent-intro Gemini API Agents 文档 https://ai.google.dev/gemini-api/docs/agents Google Research https://research.google/pubs/ Kaggle Agents 白皮书 https://www.kaggle.com/whitepaper-agents 📋 核心设计模式总结 模式 说明 ReAct 推理+行动交替进行(Thought → Action → Observation) Chain-of-Thought 思维链,逐步推理 Tree of Thoughts 多路径思维树 Reflexion 自我反思与改进 Multi-Agent 多智能体协作(角色分工) RAG 检索增强生成 Tool Use 工具调用(搜索、代码解释器等) 📝 延伸阅读 MRKL: 结合 LLM 和专家模块 https://arxiv.org/abs/2205.00445 Toolformer: 微调 LLM 使用外部工具 API https://arxiv.org/abs/2302.04761 HuggingGPT: 利用 LLM 作为任务规划器 https://arxiv.org/abs/2303.17580 ChemCrow: 化学领域专用 Agent https://arxiv.org/abs/2304.05376 持续学习中,欢迎交流讨论。 ...

February 22, 2026 · 1 min · 159 words · Robert