小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属"零代码"工作流
小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属"零代码"工作流
上周一个朋友发我一条消息,凌晨 11 点半:
"又在整理今天的会议纪要……这种事我已经做了三年了。"
我问他,三年里这件事有没有变得更快?他说没有。
这就是问题所在。麦肯锡的研究数据显示,知识工作者平均有 28% 的工作时间花在重复性任务上——整理会议记录、汇总邮件、归档数据、生成周报……这些事情不需要你的判断力,只需要你的时间。
更讽刺的是,AI 工具早就能做这些了,但大多数人还没用起来。原因无非两个:
1. 用云端 AI(ChatGPT/Claude)总觉得把公司数据上传到别人服务器不太安全
2. 自己搭系统?那不得写代码?我不会啊……
今天这篇文章就是为了彻底解决这两个顾虑。我们用 Ollama(本地大模型)+ n8n(零代码工作流),搭一套数据不出本机、不需要写任何代码的 AI 自动化系统。
读完这篇,今天就能跑起来你的第一条工作流。
---
搞清楚两个工具,你就赢了一半
在动手之前,先花 5 分钟搞懂这两个工具是什么——不然后面操作会懵。
本地大模型:把 ChatGPT 装进你自己的电脑
Ollama 是一个开源工具,它做的事情很简单:让你在自己的电脑上运行大语言模型。你可以把它理解成"本地版 ChatGPT 运行环境"。安装 Ollama 之后,你可以拉取各种开源模型:Qwen2.5(阿里的通义千问)、DeepSeek R1/V3、Llama 等等。这些模型运行在你自己的机器上,数据全程不离开本地,永久免费,没有 API 调用费用。
对比一下成本:
| 方案 | 月均费用(中等使用量) | 数据安全 | | 云端 API(GPT/Claude) | ¥100-500+ | 数据上传第三方服务器 | | 本地 Ollama | ¥0(只有电费) | 数据完全本地 | | 8848AI API(混合方案) | 按量付费,新用户送 ¥5 | 可控 |硬件门槛方面:Qwen2.5:7b 需要约 8GB 显存,DeepSeek-R1:8b 需要约 6GB 显存。没有独立显卡也能跑,只是速度会慢一些——用来做自动化任务完全够用。
n8n:工作流界的乐高积木
n8n 是一个开源的可视化工作流自动化工具。如果你用过 Zapier 或者 Make(原 Integromat),n8n 做的是同一件事——但它可以自己部署在本地或服务器上,数据不经过第三方,而且完全免费。操作逻辑非常直观:你在画布上拖拽"节点",用线把它们连起来,就定义了一个自动化流程。每个节点代表一个动作:读邮件、调用 AI、写入表格、发送通知……
💡 小贴士:如果你的电脑配置暂时跑不动本地模型,或者某些任务需要更强的推理能力,也可以通过 API 调用云端模型。推荐 [api.884819.xyz](https://api.884819.xyz),支持 GPT、Claude、DeepSeek 等主流模型,国内直连无障碍,按量计费无月租——和 n8n 的 HTTP Request 节点搭配使用,配置方式和本文完全一致,只需改一个 URL。
两者如何联动?
架构一句话说清楚:
n8n 负责"指挥调度"(什么时候触发、从哪里取数据、结果写到哪里),本地大模型负责"AI 思考"(理解内容、生成摘要、做判断),两者通过 HTTP API 握手,构成完整的自动化大脑。---
3步实操:从零搭建你的第一条 AI 工作流
我们以一个真实场景为例:自动读取邮件 → AI 提炼摘要 → 写入飞书多维表格。
Step 1 — 环境准备(约 15 分钟)
安装 Ollama 并拉取模型:# 安装 Ollama(macOS/Linux)
curl -fsSL https://ollama.com/install.sh | sh
拉取 Qwen2.5 7B 模型(约 4.7GB,需要等待下载)
ollama pull qwen2.5:7b
验证是否成功
ollama run qwen2.5:7b "你好,请用一句话介绍自己"
看到模型回复之后,说明本地 AI 已经跑起来了。Ollama 默认在 http://localhost:11434 暴露 API,后面 n8n 会通过这个地址调用它。
docker run -it --rm \
--name n8n \
-p 5678:5678 \
-v ~/.n8n:/home/node/.n8n \
n8nio/n8n
启动成功后,打开浏览器访问 http://localhost:5678,完成初始账号注册,就能看到 n8n 的工作台了。
⚠️ 注意:如果你用的是 Windows,建议先安装 WSL2,然后在 WSL2 环境里执行上述命令,兼容性更好。
---
Step 2 — 连接节点,搭出骨架(约 20 分钟)
在 n8n 中新建一个工作流,按以下顺序添加节点:
节点 1:Gmail / IMAP 触发器- 选择
Email Trigger (IMAP)节点 - 填入你的邮箱账号和授权码
- 设置轮询间隔(比如每 5 分钟检查一次新邮件)
这是整个工作流的核心节点,配置如下:
{
"method": "POST",
"url": "http://localhost:11434/api/chat",
"headers": {
"Content-Type": "application/json"
},
"body": {
"model": "qwen2.5:7b",
"messages": [
{
"role": "system",
"content": "你是一个邮件助理,请将邮件内容提炼成3-5条关键信息,用中文输出。"
},
{
"role": "user",
"content": "{{ $json.text }}"
}
],
"stream": false
}
}
📌 进阶提示:示例中用的是本地 Ollama 地址。如果你想切换到云端模型处理复杂推理任务,只需把 URL 换成 https://api.884819.xyz/v1/chat/completions,其余参数格式完全兼容 OpenAI 标准,n8n 节点一行不用改,Header 里加上你的 API Key 即可。
节点 3:飞书多维表格写入
- 选择
HTTP Request节点,调用飞书开放平台 API - 或者使用 n8n 社区节点库里的飞书插件(搜索
Feishu) - 将 AI 输出的摘要文本映射到对应字段
三个节点连起来,一条完整的工作流骨架就搭好了。
---
Step 3 — 调试上线,让它自己跑(约 10 分钟)
点击右上角的 "Test Workflow" 按钮,n8n 会实际执行一次流程,每个节点旁边会显示绿色✅或红色❌。
常见的调试步骤:
1. 逐节点点击查看输入输出数据,确认数据格式正确传递
2. 检查 HTTP Request 节点的响应,确认本地模型有正常返回
3. 调试通过后,点击 "Active" 开关,工作流正式上线
当你看到工作流第一次自动运行完成,绿色的成功标记亮起来的那一刻——恭喜你,你正式拥有了第一个 AI 员工。从现在开始,它会在你睡觉的时候帮你处理邮件,在你开会的时候帮你整理信息,全年无休,不需要工资。
---
3个拿来即用的进阶工作流模板
基础工作流跑通之后,直接套用这三个模板,每个都能立刻产生价值。
模板① 每日简报机器人
预计每周节省时间:3-4 小时 流程: RSS 节点抓取行业资讯 → HTTP Request 调用本地模型总结 → 企业微信/飞书 Bot 推送核心节点配置要点:
- RSS 节点设置你关注的行业媒体 Feed(36Kr、虎嗅、少数派等都有 RSS)
- 定时触发器设置为每天早上 8:00
- Prompt 模板:
"请从以下文章中提炼3条今日行业要点,每条不超过50字,附上原文链接"
模板② 智能客服预处理
预计减少人工介入:约 80% 流程: Webhook 接收用户提问 → 本地模型判断意图分类 → Switch 节点路由到不同处理分支意图分类 Prompt 示例:
将以下用户问题分类为:[退款、物流查询、产品咨询、投诉、其他]
只输出分类标签,不要解释。
用户问题:{{ $json.question }}
Switch 节点根据返回的标签,自动路由到对应的回复模板或人工队列。
模板③ 会议纪要自动化
预计每周节省时间:5-8 小时 流程: 监听指定文件夹(录音上传)→ Whisper API 转文字 → 本地模型提炼行动项 → 自动生成飞书文档这个模板是三个里面最有冲击力的。一次 1 小时的会议,以前整理纪要需要 30-60 分钟,现在上传录音,5 分钟内自动生成结构化文档,包含:会议摘要、决策事项、行动项(含负责人和截止日期)。
---
避坑指南:新手最容易踩的 5 个坑
坑 1:模型跑起来但响应极慢→ 原因是 CPU 推理,给 Ollama 设置 OLLAMA_NUM_GPU=0 以外的参数,或换用更小的模型(如 qwen2.5:3b)。
→ Docker 容器内无法直接访问宿主机的 localhost,把 URL 改为 http://host.docker.internal:11434/api/chat(Mac/Windows)或宿主机实际 IP(Linux)。
→ HTTP Request 节点的 Content-Type Header 确认设置为 application/json; charset=utf-8。
→ 部分服务(如飞书)的 Token 有时效,检查是否过期,重新获取后在 n8n Credentials 里更新。
坑 5:工作流卡住不动也不报错→ 检查触发器节点是否处于 Active 状态,以及 n8n 进程是否因为内存不足被系统杀掉(建议给 Docker 容器设置至少 2GB 内存限制)。
Q&A 快速答疑
Q:电脑最低配置要求是什么?A:运行 7B 模型建议 16GB 内存 + 8GB 显存,没有独显也能跑但速度慢。n8n 本身只需 2GB 内存。
Q:可以部署在云服务器上吗?A:完全可以,阿里云/腾讯云的 4 核 8G 实例可以流畅运行 n8n,模型推荐选 3B 以下参数量。
Q:工作流里的数据安全吗?A:本地部署方案数据全程不离开你的机器。n8n 的执行日志存储在本地数据库,可以随时清除。
---
写在最后
自动化不是偷懒,是把自己从执行者变成设计者。
当你第一次看着工作流在凌晨 2 点自动处理完一批邮件、生成好报告等你早上来看,你会突然理解什么叫"杠杆思维"——同样的时间,你设计了一个系统,这个系统在帮你工作。
这才是 AI 时代真正的效率红利,不是用 ChatGPT 帮你写几句话,而是让 AI 替你运转一套流程。
你的第一条工作流,准备用来干什么?---
学会了搭工作流,你可能很快会遇到下一个问题:
>
"怎么让 AI 真正'理解'我公司的业务知识,而不是每次都要重新解释背景?"
>
这就涉及到一个更强大的技术——RAG(检索增强生成):把你的内部文档、产品手册、历史数据"喂"给 AI,让它变成真正懂你业务的专属顾问。
>
下一篇,我们手把手搭建一个本地知识库 + AI 问答系统,同样零代码,同样数据不外泄。
>
👉 关注 8848AI,下篇更新第一时间通知你。
评论区告诉我:你最想用 AI 自动化处理的工作是什么?
---
🔗 本文配套资源
- 三个工作流模板 JSON 文件:关注公众号回复 "n8n模板" 获取
- 国内可用大模型 API(支持 GPT / Claude / DeepSeek):[api.884819.xyz](https://api.884819.xyz) ← 新用户注册即送体验额度,适合本文工作流测试使用,用户名+密码即可注册,无需邮箱验证
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI自动化 #n8n #本地大模型 #Ollama #零代码工作流 #AI办公 #DeepSeek #8848AI