30分钟给你的 Agent 装上“记忆”:用 n8n + Mem0,把读书助手升级成长期陪伴型 AI

你大概率遇到过这种情况:昨天刚告诉 AI“我不喜欢鸡汤书”,今天它又一本正经给你推荐《成功人士的7个习惯》

表面看,它会聊天、会总结、会推荐,似乎已经很聪明;但只要隔天再来,它就像失忆了一样,一切从头开始。

这不是你 Prompt 写得不够长,而是很多 Agent 其实只有上下文,没有真正意义上的用户记忆

最近我做了一个读书助手实验:不重写 Agent,不搭复杂后端,只用 n8n + Mem0 做了一套最小可用流程,30 分钟内就让它记住用户阅读偏好。结果很直接——同样是“推荐 3 本适合我的书”,有记忆和没记忆,完全像两个产品。

真正好用的 Agent,不是“当下很聪明”,而是“下次见你时,依然知道你是谁”。

---

为什么你的 Agent 看起来聪明,却始终“不记得你”

很多人第一次做 AI 助手时,都会把“上下文窗口”误以为是“记忆系统”。

但这两者差别很大:

  • 上下文:只在当前会话里临时有效
  • 记忆:跨会话、跨时间,能持续影响后续回答
  • 好的记忆:不是把所有聊天都存下来,而是只保留值得记住的偏好和约束

拿读书助手举例。假设你连续说过这些话:

1. “我更喜欢非虚构,尤其是商业和社会学。”

2. “不要给我太鸡汤的书。”

3. “每次推荐 3 本,最好附理由,不要只列书名。”

如果 Agent 下一次还能延续这三条偏好,它才像一个长期陪伴型助手;如果下次又从零开始,它就只是个一次性聊天工具。

无记忆 vs 有记忆:差别到底有多大

同样一句话:“推荐 3 本适合我的书。”

无记忆版本的典型输出:
  • 《高效能人士的七个习惯》
  • 《穷查理宝典》
  • 《思考,快与慢》

问题不是这些书不好,而是过于泛化,像在给所有人推荐。

有记忆版本的典型输出:
  • 《置身事内》:偏政策与经济运行逻辑,适合喜欢结构化非虚构的读者
  • 《金钱心理学》:商业视角强,但不走空泛成功学路线
  • 《变量》:适合想理解社会变化的人,兼顾现实观察与趋势判断

并且它会补一句:

“考虑到你不喜欢鸡汤表达,这次我优先避开励志叙事太重的书;同时按你的习惯只推荐 3 本,并附上明确理由。”

这时候,用户感受到的已经不是“一个会回答问题的模型”,而是“一个开始懂我的助手”。

---

为什么我选 n8n + Mem0,而不是自己手搓记忆系统

如果你是工程团队,当然可以自己搭数据库、做向量检索、设计用户画像、写记忆压缩逻辑。

但对大多数想快速验证需求的人来说,这条路太重了。

我最后选这套方案,核心原因只有一句:足够轻,且能跑通。

分工很清楚

  • n8n:负责流程编排
  • Mem0:负责用户记忆的存储、检索和管理
  • 模型层:负责理解问题和生成答案,比如 Claude Sonnet 4.6Gemini 3.1 FlashDeepseek R1/V3

你不需要自己做一整套“记忆基础设施”,只要把“读之前先查记忆、答完之后再写记忆”这条链路接起来就行。

30分钟为什么真的够

我这次的耗时拆解大致是:

  • 注册和 API 准备:5 分钟
  • 搭 n8n 工作流骨架:10 分钟
  • 接入 Mem0 读写:10 分钟
  • 验证和修正:5 分钟

前提是你别一上来就追求“完美架构”。教程的目标不是做最复杂的 Agent,而是先做出一个真的能记住用户偏好的版本。

对普通用户来说,最重要的不是“架构多优雅”,而是“今天能不能把它跑起来”。

---

30分钟跑通:给读书助手加上“阅读偏好记忆”

先给你看整条调用链,理解后面配置会快很多:

用户输入 → n8n 接收 → 读取 Mem0 用户记忆 → 拼接 Prompt → 调用模型 → 返回答案 → 提取新偏好 → 写回 Mem0

第一步:准备账号和环境

你需要三样东西:

  • 一个 n8n 环境
  • 一个 Mem0 API
  • 一个大模型 API

如果你已经有 n8n 和 Mem0 思路,但卡在模型 API 接入、稳定调用或成本控制这一步,可以直接用 api.884819.xyz 统一接入主流模型,省去自己到处配 Key 和改接口的时间。

这里我建议先用响应速度快、调试成本低的模型,比如 Gemini 3.1 FlashDeepseek R1/V3 做联调,跑通后再切到你常用的主力模型。

第二步:搭 n8n 工作流骨架

最小工作流建议是这 5 个节点:

1. Webhook / Trigger

2. HTTP Request:读取 Mem0 记忆

3. Set / Function:拼接 Prompt

4. HTTP Request / 模型节点:调用大模型

5. HTTP Request:写回 Mem0

(此处建议放:n8n 工作流全貌截图)

第三步:先做“读取记忆”

读取记忆的请求可以这样写:

{

"user_id": "reader_001",

"query": "基于这个用户过往阅读偏好,给出适合他的推荐策略"

}

这里最容易犯的错有两个:

  • user_id 没有固定,导致同一个人每次都是新用户
  • 查询语句太泛,取回来的记忆不稳定

我的建议是:先把用户 ID 体系固定好,再调检索策略

哪怕你现在只有一个测试用户,也别偷懒用随机值。

(此处建议放:Mem0 请求响应示意截图)

第四步:把记忆拼回 Prompt

在 n8n 的 SetFunction 节点里,直接把记忆和当前用户输入拼起来:

你是一个读书助手。以下是该用户已知偏好:

{{memory}}

请结合这些偏好回答用户问题:

{{user_input}}

如果你想输出更稳定,可以再加几条硬约束,比如:

  • 每次只推荐 3 本
  • 每本书必须附一句理由
  • 优先避开鸡汤和纯励志表达
  • 输出尽量结构化
(此处建议放:Function/Set 节点配置截图)

第五步:回答之后,再写入“值得记住的信息”

写入记忆的请求示例:

{

"user_id": "reader_001",

"messages": [

{

"role": "user",

"content": "我更喜欢非虚构、商业和社会学类书,不喜欢太鸡汤的内容。"

}

]

}

你不应该把所有消息原封不动存进去,而要先做筛选。

最简单的规则可以先这样定:

  • 长期稳定偏好:记
  • 一次性任务要求:谨慎记
  • 明确否定项:优先记
  • 敏感信息:不记或脱敏后记

一个完整对话案例

#### 第 1 轮:用户表达偏好

用户说:

我平时更喜欢非虚构,偏商业和社会学,不喜欢太鸡汤的内容。

这时系统应完成两件事:

  • 当前轮正常回答
  • 把“非虚构 / 商业 / 社会学 / 不喜欢鸡汤”写入长期记忆

#### 第 2 轮:用户补充输出格式偏好

用户说:

以后每次给我推荐就 3 本,最好每本附一句理由。

这条也值得记,因为它是稳定输出习惯

#### 第 3 轮:隔天再次提问

用户说:

最近有点想读新书,推荐 3 本适合我的。

如果流程配置正确,助手应该会自动延续前面的偏好,而不是重新问你一遍“你平时喜欢读什么类型”。

(此处建议放:最终前后效果对比截图)

---

跑通之后,最容易翻车的 5 个坑

教程最值钱的地方,通常不是“怎么搭”,而是“哪里会翻车”。

1. 什么都记,最后一定记忆污染

用户一句“今天随便推荐点轻松的”,这很可能只是临时需求,不是长期偏好。

如果你把它固化成记忆,下次系统就可能误以为用户一直喜欢轻松读物。

这就是典型反例:短期状态,被错误写成长期偏好。

2. 写入时机不对

如果你在模型回答前就直接写记忆,容易把模糊表达、半句偏好一起存进去。

更稳的做法是:先回答,再提取本轮真正值得保留的信息写回去。

3. Prompt 拼太长,反而影响效果

很多人一看到“记忆”,就想把所有历史都塞进 Prompt。

结果是:

  • 成本上升
  • 响应变慢
  • 关键信息被淹没

记忆不是越多越好,而是越准越好。

4. 用户 ID 没隔离

这是最危险的坑。

如果 reader_001reader_002 混用,A 用户讨厌鸡汤,B 用户喜欢励志,最后你的助手会像人格分裂一样。

5. n8n 调试只看结果,不看中间日志

一定要在关键节点看中间数据:

  • Mem0 到底读到了什么
  • Prompt 最终拼成了什么
  • 模型返回后,准备写回的内容是什么
(此处建议放:调试日志截图)

只看最终回答,很难定位问题;看中间链路,才能知道是“没读到记忆”,还是“读到了但没用上”。

---

这不是读书助手技巧,而是一套可复制的 Agent 记忆范式

当你把这套流程跑通后,你会发现它根本不只适合读书助手。

它还可以迁移到:

  • 客服机器人:记住用户历史问题和处理偏好
  • 知识库助手:记住用户岗位背景和专业程度
  • 销售 Agent:记住客户关注点、预算区间、沟通风格
  • 内容助手:记住你的写作口吻、结构习惯和禁用表达

这也是我最想强调的一点:

给 Agent 加记忆,不是一个“插件小技巧”,而是让 AI 从一次性工具,变成关系型产品的关键一步。

如果你也想少折腾模型适配,可以把 api.884819.xyz 作为统一模型入口,再把精力放在 Agent 逻辑和记忆设计上。

8848AI 平台支持用户名+密码即可注册,不需要邮箱验证,注册即送 5 元体验额度,平台内置 AI 对话功能,注册后直接能用;国产模型如 Deepseek R1/V3、通义千问 Qwen3、Kimi K2.5、GLM-5 完全免费,没有月租、没有订阅,按量付费。

即日起新注册用户系统自动送50万token,想要更多可以通过工单联系客服申请,再手动赠送200万token。

如果你今天就准备动手,我建议按这个顺序来:

1. 先固定 user_id

2. 再打通“读记忆 → 生成回答 → 写记忆”最小闭环

3. 最后才去优化记忆筛选规则

这样你更容易在 30 分钟内看到真实效果,而不是卡死在“完美主义调参”里。

下一篇我会继续把这个读书助手升级:不仅让它记住你的阅读偏好,还要让它学会“记得住、忘得掉、还能纠错”——也就是长期记忆、短期记忆和错误记忆修正。

如果你这次已经跑通了,下一篇大概率会直接帮你把 Agent 从“能用”推到“像产品”。

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI教程 #n8n #Mem0 #Agent记忆 #人工智能 #8848AI #Prompt技巧 #工作流自动化