30分钟给你的 Agent 装上“记忆”:用 n8n + Mem0,把读书助手升级成长期陪伴型 AI
30分钟给你的 Agent 装上“记忆”:用 n8n + Mem0,把读书助手升级成长期陪伴型 AI
你大概率遇到过这种情况:昨天刚告诉 AI“我不喜欢鸡汤书”,今天它又一本正经给你推荐《成功人士的7个习惯》。
表面看,它会聊天、会总结、会推荐,似乎已经很聪明;但只要隔天再来,它就像失忆了一样,一切从头开始。
这不是你 Prompt 写得不够长,而是很多 Agent 其实只有上下文,没有真正意义上的用户记忆。
最近我做了一个读书助手实验:不重写 Agent,不搭复杂后端,只用 n8n + Mem0 做了一套最小可用流程,30 分钟内就让它记住用户阅读偏好。结果很直接——同样是“推荐 3 本适合我的书”,有记忆和没记忆,完全像两个产品。
真正好用的 Agent,不是“当下很聪明”,而是“下次见你时,依然知道你是谁”。
---
为什么你的 Agent 看起来聪明,却始终“不记得你”
很多人第一次做 AI 助手时,都会把“上下文窗口”误以为是“记忆系统”。
但这两者差别很大:
- 上下文:只在当前会话里临时有效
- 记忆:跨会话、跨时间,能持续影响后续回答
- 好的记忆:不是把所有聊天都存下来,而是只保留值得记住的偏好和约束
拿读书助手举例。假设你连续说过这些话:
1. “我更喜欢非虚构,尤其是商业和社会学。”
2. “不要给我太鸡汤的书。”
3. “每次推荐 3 本,最好附理由,不要只列书名。”
如果 Agent 下一次还能延续这三条偏好,它才像一个长期陪伴型助手;如果下次又从零开始,它就只是个一次性聊天工具。
无记忆 vs 有记忆:差别到底有多大
同样一句话:“推荐 3 本适合我的书。”
无记忆版本的典型输出:- 《高效能人士的七个习惯》
- 《穷查理宝典》
- 《思考,快与慢》
问题不是这些书不好,而是过于泛化,像在给所有人推荐。
有记忆版本的典型输出:- 《置身事内》:偏政策与经济运行逻辑,适合喜欢结构化非虚构的读者
- 《金钱心理学》:商业视角强,但不走空泛成功学路线
- 《变量》:适合想理解社会变化的人,兼顾现实观察与趋势判断
并且它会补一句:
“考虑到你不喜欢鸡汤表达,这次我优先避开励志叙事太重的书;同时按你的习惯只推荐 3 本,并附上明确理由。”
这时候,用户感受到的已经不是“一个会回答问题的模型”,而是“一个开始懂我的助手”。
---
为什么我选 n8n + Mem0,而不是自己手搓记忆系统
如果你是工程团队,当然可以自己搭数据库、做向量检索、设计用户画像、写记忆压缩逻辑。
但对大多数想快速验证需求的人来说,这条路太重了。
我最后选这套方案,核心原因只有一句:足够轻,且能跑通。
分工很清楚
- n8n:负责流程编排
- Mem0:负责用户记忆的存储、检索和管理
- 模型层:负责理解问题和生成答案,比如
Claude Sonnet 4.6、Gemini 3.1 Flash、Deepseek R1/V3
你不需要自己做一整套“记忆基础设施”,只要把“读之前先查记忆、答完之后再写记忆”这条链路接起来就行。
30分钟为什么真的够
我这次的耗时拆解大致是:
- 注册和 API 准备:5 分钟
- 搭 n8n 工作流骨架:10 分钟
- 接入 Mem0 读写:10 分钟
- 验证和修正:5 分钟
前提是你别一上来就追求“完美架构”。教程的目标不是做最复杂的 Agent,而是先做出一个真的能记住用户偏好的版本。
对普通用户来说,最重要的不是“架构多优雅”,而是“今天能不能把它跑起来”。
---
30分钟跑通:给读书助手加上“阅读偏好记忆”
先给你看整条调用链,理解后面配置会快很多:
用户输入 → n8n 接收 → 读取 Mem0 用户记忆 → 拼接 Prompt → 调用模型 → 返回答案 → 提取新偏好 → 写回 Mem0第一步:准备账号和环境
你需要三样东西:
- 一个
n8n环境 - 一个
Mem0API - 一个大模型 API
如果你已经有 n8n 和 Mem0 思路,但卡在模型 API 接入、稳定调用或成本控制这一步,可以直接用 api.884819.xyz 统一接入主流模型,省去自己到处配 Key 和改接口的时间。
这里我建议先用响应速度快、调试成本低的模型,比如 Gemini 3.1 Flash 或 Deepseek R1/V3 做联调,跑通后再切到你常用的主力模型。
第二步:搭 n8n 工作流骨架
最小工作流建议是这 5 个节点:
1. Webhook / Trigger
2. HTTP Request:读取 Mem0 记忆
3. Set / Function:拼接 Prompt
4. HTTP Request / 模型节点:调用大模型
5. HTTP Request:写回 Mem0
第三步:先做“读取记忆”
读取记忆的请求可以这样写:
{
"user_id": "reader_001",
"query": "基于这个用户过往阅读偏好,给出适合他的推荐策略"
}
这里最容易犯的错有两个:
user_id没有固定,导致同一个人每次都是新用户- 查询语句太泛,取回来的记忆不稳定
我的建议是:先把用户 ID 体系固定好,再调检索策略。
哪怕你现在只有一个测试用户,也别偷懒用随机值。
(此处建议放:Mem0 请求响应示意截图)第四步:把记忆拼回 Prompt
在 n8n 的 Set 或 Function 节点里,直接把记忆和当前用户输入拼起来:
你是一个读书助手。以下是该用户已知偏好:
{{memory}}
请结合这些偏好回答用户问题:
{{user_input}}
如果你想输出更稳定,可以再加几条硬约束,比如:
- 每次只推荐 3 本
- 每本书必须附一句理由
- 优先避开鸡汤和纯励志表达
- 输出尽量结构化
第五步:回答之后,再写入“值得记住的信息”
写入记忆的请求示例:
{
"user_id": "reader_001",
"messages": [
{
"role": "user",
"content": "我更喜欢非虚构、商业和社会学类书,不喜欢太鸡汤的内容。"
}
]
}
你不应该把所有消息原封不动存进去,而要先做筛选。
最简单的规则可以先这样定:
- 长期稳定偏好:记
- 一次性任务要求:谨慎记
- 明确否定项:优先记
- 敏感信息:不记或脱敏后记
一个完整对话案例
#### 第 1 轮:用户表达偏好
用户说:
我平时更喜欢非虚构,偏商业和社会学,不喜欢太鸡汤的内容。
这时系统应完成两件事:
- 当前轮正常回答
- 把“非虚构 / 商业 / 社会学 / 不喜欢鸡汤”写入长期记忆
#### 第 2 轮:用户补充输出格式偏好
用户说:
以后每次给我推荐就 3 本,最好每本附一句理由。
这条也值得记,因为它是稳定输出习惯。
#### 第 3 轮:隔天再次提问
用户说:
最近有点想读新书,推荐 3 本适合我的。
如果流程配置正确,助手应该会自动延续前面的偏好,而不是重新问你一遍“你平时喜欢读什么类型”。
(此处建议放:最终前后效果对比截图)---
跑通之后,最容易翻车的 5 个坑
教程最值钱的地方,通常不是“怎么搭”,而是“哪里会翻车”。
1. 什么都记,最后一定记忆污染
用户一句“今天随便推荐点轻松的”,这很可能只是临时需求,不是长期偏好。
如果你把它固化成记忆,下次系统就可能误以为用户一直喜欢轻松读物。
这就是典型反例:短期状态,被错误写成长期偏好。
2. 写入时机不对
如果你在模型回答前就直接写记忆,容易把模糊表达、半句偏好一起存进去。
更稳的做法是:先回答,再提取本轮真正值得保留的信息写回去。
3. Prompt 拼太长,反而影响效果
很多人一看到“记忆”,就想把所有历史都塞进 Prompt。
结果是:
- 成本上升
- 响应变慢
- 关键信息被淹没
记忆不是越多越好,而是越准越好。
4. 用户 ID 没隔离
这是最危险的坑。
如果 reader_001 和 reader_002 混用,A 用户讨厌鸡汤,B 用户喜欢励志,最后你的助手会像人格分裂一样。
5. n8n 调试只看结果,不看中间日志
一定要在关键节点看中间数据:
- Mem0 到底读到了什么
- Prompt 最终拼成了什么
- 模型返回后,准备写回的内容是什么
只看最终回答,很难定位问题;看中间链路,才能知道是“没读到记忆”,还是“读到了但没用上”。
---
这不是读书助手技巧,而是一套可复制的 Agent 记忆范式
当你把这套流程跑通后,你会发现它根本不只适合读书助手。
它还可以迁移到:
- 客服机器人:记住用户历史问题和处理偏好
- 知识库助手:记住用户岗位背景和专业程度
- 销售 Agent:记住客户关注点、预算区间、沟通风格
- 内容助手:记住你的写作口吻、结构习惯和禁用表达
这也是我最想强调的一点:
给 Agent 加记忆,不是一个“插件小技巧”,而是让 AI 从一次性工具,变成关系型产品的关键一步。
如果你也想少折腾模型适配,可以把 api.884819.xyz 作为统一模型入口,再把精力放在 Agent 逻辑和记忆设计上。
8848AI 平台支持用户名+密码即可注册,不需要邮箱验证,注册即送 5 元体验额度,平台内置 AI 对话功能,注册后直接能用;国产模型如 Deepseek R1/V3、通义千问 Qwen3、Kimi K2.5、GLM-5 完全免费,没有月租、没有订阅,按量付费。
即日起新注册用户系统自动送50万token,想要更多可以通过工单联系客服申请,再手动赠送200万token。如果你今天就准备动手,我建议按这个顺序来:
1. 先固定 user_id
2. 再打通“读记忆 → 生成回答 → 写记忆”最小闭环
3. 最后才去优化记忆筛选规则
这样你更容易在 30 分钟内看到真实效果,而不是卡死在“完美主义调参”里。
下一篇我会继续把这个读书助手升级:不仅让它记住你的阅读偏好,还要让它学会“记得住、忘得掉、还能纠错”——也就是长期记忆、短期记忆和错误记忆修正。
如果你这次已经跑通了,下一篇大概率会直接帮你把 Agent 从“能用”推到“像产品”。
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI教程 #n8n #Mem0 #Agent记忆 #人工智能 #8848AI #Prompt技巧 #工作流自动化