为 LLM 应用提供超越每次重启的记忆
大多数 LLM 应用将每个会话视为一张白纸。用户每次会话重置时都要重复他们的目标、限制和历史。MemoryLake 为 LLM 应用添加了一个持久的长期记忆层,因此用户的上下文、偏好和先前的工作会自动流入每个未来的调用。
问题:LLM 应用在会话之间忘记用户
一个昨天学会你角色的聊天机器人今天无法记起它。一个在周一处理了 200 页内容的研究助手在周二开始时是空的。开发者通过向量存储、摘要缓冲区和不断增长的系统提示来解决这个问题——这些都无法在模型更换或模式更改时存活。结果是脆弱的用户体验和不断膨胀的令牌费用。
MemoryLake 如何解决 LLM 应用的长期记忆
每个会话的有状态上下文 — 用户身份、目标和先前的工作被存储为结构化记忆,并自动注入到下一个提示中。再也不用“提醒我我们在做什么。”
开箱即用的六种记忆类型 — 背景、事实、事件、对话、反思和技能记忆让你的应用不仅捕捉用户所说的内容,还能了解他们重视的内容和工作方式。
跨模型可移植性 — 在不丢失任何用户历史的情况下,将你的应用从 GPT-4 切换到 Claude 或 Gemini。记忆护照随用户而走,而不是模型。
相较于原始上下文填充的 10,000 倍扩展性 — 将数百万个令牌压缩为毫秒级检索的记忆。LoCoMo 基准测试在长期回忆中以 94.03% 的准确率排名第一。
它如何为 LLM 应用工作
- 连接 — 插入 Python SDK、MCP 服务器或 REST API。将每个用户的操作和文档上传管道传输到 MemoryLake。
- 结构 — MemoryLake 将每个上下文片段分类为六种记忆类型之一,并根据先前的事实解决冲突。
- 重用 — 在推理时查询记忆。获取一个紧凑的、按排名排列的上下文块,大小适合你的模型窗口。
之前与之后:LLM 应用的记忆
| Without MemoryLake | With MemoryLake | |
|---|---|---|
| Returning user opens a new chat | App asks for context from scratch | App greets user with full prior state |
| Switching the underlying model | History stranded on the old vendor | Memory follows the user to the new model |
| Token cost per session | Bloated system prompts | Compact, retrieved memory blocks |
| User trust over time | Decays after each forgotten detail | Compounds as memory deepens |
适合谁
创始人和工程师正在推出 LLM 驱动的产品——协作助手、研究助手、代理、聊天机器人、垂直 SaaS——需要用户状态在会话、模型升级和定价等级变更中存活。特别适用于 B2B 应用,用户在每个账户中投入数小时的上下文。
相关场景
常见问题
长期记忆与向量数据库有什么不同?
长期记忆与向量数据库有什么不同?
向量数据库检索语义相似的块。MemoryLake 将用户的身份、事实、事件和技能结构化为带有冲突检测和版本控制的类型化记忆。你仍然可以将其与文档的向量存储配对——它们解决不同的问题。
这与我现有的模型提供商兼容吗?
这与我现有的模型提供商兼容吗?
是的。MemoryLake 是模型无关的。相同的记忆可以在 ChatGPT、Claude、Gemini、Qwen 和任何具有 API 的模型中使用。没有供应商锁定。
我如何将现有的聊天历史迁移到 MemoryLake?
我如何将现有的聊天历史迁移到 MemoryLake?
通过 REST API 或 Python SDK 导入过去的对话。MemoryLake 会自动提取事实、事件和反思,并将其存储为结构化的长期记忆,随时准备检索。