MemGPT/Letta 记忆与上下文管理深度解析

本文档整理自 Letta 官方文档、研究论文及 GitHub 仓库 原项目:MemGPT → 现名 Letta 论文:arXiv:2310.08560 📌 项目概览 什么是 MemGPT/Letta? MemGPT(Memory-GPT)是一个创新的 LLM 记忆管理系统,现更名为 Letta。它由 UC Berkeley 的研究团队开发,旨在解决大语言模型的上下文窗口限制问题。 核心理念: “Teaching LLMs to manage their own memory for unbounded context” 让 LLM 学会管理自己的记忆,实现无限上下文 GitHub 数据: ⭐ 21.2k stars 🍴 2.2k forks 👥 158 位贡献者 🧠 核心问题:上下文窗口限制 现有 LLM 的痛点 有限上下文窗口 GPT-4: 128K tokens Claude: 200K tokens 长文档、多轮对话容易溢出 无法持久化记忆 每次对话都是"从头开始" 无法记住用户偏好、历史交互 无法进行长期学习 不能从交互中积累知识 无法自我改进 🎯 解决方案:虚拟上下文管理 核心创新:操作系统启发 MemGPT 借鉴了传统操作系统的虚拟内存机制: ...

February 22, 2026 · 3 min · 599 words · Robert