MemoryLake
工程师与开发者LLM 应用的长期记忆

为 LLM 应用提供超越每次重启的记忆

大多数 LLM 应用将每个会话视为一张白纸。用户每次会话重置时都要重复他们的目标、限制和历史。MemoryLake 为 LLM 应用添加了一个持久的长期记忆层,因此用户的上下文、偏好和先前的工作会自动流入每个未来的调用。

DAY 1 · WITHOUT MEMORY大多数 LLM 应用将每个会话视为一张白纸。用户每次会话重置时都要重复他们的目标、限制和历史。MemoryLake 为 LLM 应用添加了一个持久的长期记…Got it, I'll remember.DAY 7 · NEW SESSIONSame task, please?Sure — what was the context again?(forgot every detail you taught it)WITH MEMORYLAKEMemory auto-loaded每个会话的有状态上下文开箱即用的六种记忆类型跨模型可移植性SESSION OUTPUTSame prompt, on-brand answer免费开始使用 →

为 LLM 应用提供超越每次重启的记忆

免费开始使用

永久免费 · 无需信用卡

问题:LLM 应用在会话之间忘记用户

一个昨天学会你角色的聊天机器人今天无法记起它。一个在周一处理了 200 页内容的研究助手在周二开始时是空的。开发者通过向量存储、摘要缓冲区和不断增长的系统提示来解决这个问题——这些都无法在模型更换或模式更改时存活。结果是脆弱的用户体验和不断膨胀的令牌费用。

MemoryLake 如何解决 LLM 应用的长期记忆

每个会话的有状态上下文 — 用户身份、目标和先前的工作被存储为结构化记忆,并自动注入到下一个提示中。再也不用“提醒我我们在做什么。”

开箱即用的六种记忆类型 — 背景、事实、事件、对话、反思和技能记忆让你的应用不仅捕捉用户所说的内容,还能了解他们重视的内容和工作方式。

跨模型可移植性 — 在不丢失任何用户历史的情况下,将你的应用从 GPT-4 切换到 Claude 或 Gemini。记忆护照随用户而走,而不是模型。

相较于原始上下文填充的 10,000 倍扩展性 — 将数百万个令牌压缩为毫秒级检索的记忆。LoCoMo 基准测试在长期回忆中以 94.03% 的准确率排名第一。

DAY 1 · WITHOUT MEMORY大多数 LLM 应用将每个会话视为一张白纸。用户每次会话重置时都要重复他们的目标、限制和历史。MemoryLake 为 LLM 应用添加了一个持久的长期记…Got it, I'll remember.DAY 7 · NEW SESSIONSame task, please?Sure — what was the context again?(forgot every detail you taught it)WITH MEMORYLAKEMemory auto-loaded每个会话的有状态上下文开箱即用的六种记忆类型跨模型可移植性SESSION OUTPUTSame prompt, on-brand answer免费开始使用 →

为 LLM 应用提供超越每次重启的记忆

免费开始使用

永久免费 · 无需信用卡

它如何为 LLM 应用工作

  1. 连接 — 插入 Python SDK、MCP 服务器或 REST API。将每个用户的操作和文档上传管道传输到 MemoryLake。
  2. 结构 — MemoryLake 将每个上下文片段分类为六种记忆类型之一,并根据先前的事实解决冲突。
  3. 重用 — 在推理时查询记忆。获取一个紧凑的、按排名排列的上下文块,大小适合你的模型窗口。

之前与之后:LLM 应用的记忆

Without MemoryLakeWith MemoryLake
Returning user opens a new chatApp asks for context from scratchApp greets user with full prior state
Switching the underlying modelHistory stranded on the old vendorMemory follows the user to the new model
Token cost per sessionBloated system promptsCompact, retrieved memory blocks
User trust over timeDecays after each forgotten detailCompounds as memory deepens

适合谁

创始人和工程师正在推出 LLM 驱动的产品——协作助手、研究助手、代理、聊天机器人、垂直 SaaS——需要用户状态在会话、模型升级和定价等级变更中存活。特别适用于 B2B 应用,用户在每个账户中投入数小时的上下文。

相关场景

常见问题

长期记忆与向量数据库有什么不同?

向量数据库检索语义相似的块。MemoryLake 将用户的身份、事实、事件和技能结构化为带有冲突检测和版本控制的类型化记忆。你仍然可以将其与文档的向量存储配对——它们解决不同的问题。

这与我现有的模型提供商兼容吗?

是的。MemoryLake 是模型无关的。相同的记忆可以在 ChatGPT、Claude、Gemini、Qwen 和任何具有 API 的模型中使用。没有供应商锁定。

我如何将现有的聊天历史迁移到 MemoryLake?

通过 REST API 或 Python SDK 导入过去的对话。MemoryLake 会自动提取事实、事件和反思,并将其存储为结构化的长期记忆,随时准备检索。