小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属「零代码」工作流
小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属「零代码」工作流
昨晚11点,你还在手动把20封客户邮件复制进 Excel?
同事小李已经让 AI 帮他自动整理好,还推送到了钉钉群。最关键的是:他用的工具,完全免费,数据绝对不外泄。
这不是什么内部秘密,也不需要任何编程基础。这篇文章,我手把手带你用 本地大模型(Ollama)+ n8n 工作流引擎,30分钟内搭起一套真正属于你自己的 AI 自动化系统。
---
一、你的时间,正在被「重复工作」悄悄偷走
麦肯锡的一份报告数据让人触目惊心:知识工作者平均每天 28% 的时间,耗费在重复性、低价值任务上。
换算一下:每天工作8小时,就有超过2小时在做这些事——
- 把邮件内容复制到表格里汇总
- 每天手写一份格式雷同的日报
- 定时去各个网站抓竞品动态,再手动整理成周报
- 收到合同文件,逐行翻阅找关键条款……
这些事不需要你的创造力,但它们每天都在消耗你最宝贵的精力和专注力。
你可能也尝试过用 ChatGPT 来解决问题。但很快就发现几个绕不开的痛点:
- 数据隐私风险:把公司合同、客户邮件上传到云端,合规部门第一个不答应
- 无法自动执行:ChatGPT 是问答工具,不是自动化平台,每次还得你手动触发
- API 费用高:调用 GPT 系列的官方 API,成本对个人用户不友好
- 网络访问限制:国内直连不稳定,影响工作效率
解法其实早就有了,只是大多数人还不知道:Ollama(本地大模型运行框架)+ n8n(开源工作流引擎),这两个工具组合在一起,能搭出一套私有化、零代码、全自动的 AI 助手系统。
---
二、5分钟扫盲:搞清楚这两个核心工具
2.1 本地大模型:把 AI 装进你自己的电脑
Ollama 是一个开源框架,用一句话解释就是:「就像把 ChatGPT 装进你自己的电脑,数据永远不出门。」
所有的推理计算都在你本地完成,没有任何数据上传到云端。对于处理公司内部文件、客户信息的场景,这一点至关重要。
目前主流的可选模型对比如下:
| 模型 | 参数量 | 显存需求 | 中文能力 | 推荐场景 | | Qwen2.5-7B | 7B | 6-8GB | ⭐⭐⭐⭐⭐ | 日常办公、文本处理 | | Qwen2.5-14B | 14B | 12-16GB | ⭐⭐⭐⭐⭐ | 合同审阅、复杂分析 | | DeepSeek-R1-8B | 8B | 8GB | ⭐⭐⭐⭐ | 逻辑推理、数据分析 | | Llama3-8B | 8B | 8GB | ⭐⭐⭐ | 英文内容处理 | 入门首选 Qwen2.5-7B,8GB 显存跑得动,中文理解能力在同量级模型里是第一梯队,实测推理速度约 20-30 token/秒,日常使用完全够用。💡 没有独立显卡也别慌——Ollama 支持 CPU 模式运行,速度会慢一些,但功能完整。16GB 内存的 MacBook 跑 7B 模型体验相当流畅。
---
2.2 n8n:搭工作流的「乐高积木」
n8n 是一个开源的工作流自动化平台。如果你用过 Zapier 或 Make(原 Integromat),n8n 干的是同一件事——但有几个关键区别: | 对比项 | n8n | Zapier | Make | | 开源/闭源 | ✅ 开源 | ❌ 闭源 | ❌ 闭源 | | 可自托管 | ✅ 支持 | ❌ 不支持 | ❌ 不支持 | | 免费执行次数 | 无限制(自托管) | 每月 100 次 | 每月 1000 次 | | 本地 AI 节点 | ✅ 原生支持 | ❌ 不支持 | ❌ 不支持 | | 数据隐私 | ✅ 完全自控 | ⚠️ 数据过云端 | ⚠️ 数据过云端 |简单说:n8n 就是一块画布,你把「触发器」「处理节点」「输出节点」像乐高一样拖拽连接,工作流就跑起来了。它原生支持调用本地 Ollama 模型,这是选它的核心理由。
📌 关于云端 API 的补充:如果你的电脑配置有限,或者某些场景需要更强的模型能力,也可以通过 [api.884819.xyz](https://api.884819.xyz) 接入 GPT-5.2、Claude Sonnet 4.6 等旗舰模型——国内直连无需魔法,价格比官方便宜,n8n 里填入 API Key 就能用,和本地模型无缝切换,工作流代码一行不用改。
---
三、3步实操:从零搭建你的第一条 AI 工作流
Step 1:安装 Ollama + 拉取模型(约5分钟)
macOS / Linux:# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
拉取中文优化模型(约4.7GB,请确保磁盘空间充足)
ollama pull qwen2.5:7b
验证安装成功
ollama run qwen2.5:7b "你好,请用一句话介绍自己"
Windows:
前往 [ollama.ai](https://ollama.ai) 下载 Windows 安装包,安装完成后在 PowerShell 中执行:
ollama pull qwen2.5:7b
ollama run qwen2.5:7b "你好"
看到模型开始流式输出文字,说明本地 AI 已经跑起来了。
✅ 恭喜!你的本地 AI 已经在运行了。Ollama 默认会在本地开启一个 API 服务,地址是 http://localhost:11434,这个地址后面会用到。
- CPU 模式:16GB 内存,运行 7B 模型(速度较慢)
- GPU 模式(推荐):8GB 显存,运行 7B 模型流畅
---
Step 2:部署 n8n(Docker 一键启动)
确保你已安装 Docker Desktop,然后创建一个 docker-compose.yml 文件:
version: '3.8'
services:
n8n:
image: n8nio/n8n
ports:
- "5678:5678" # 映射端口,浏览器访问用
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=your_password # 改成你自己的密码
volumes:
- n8n_data:/home/node/.n8n # 持久化数据,重启不丢失
volumes:
n8n_data:
在文件所在目录运行:
docker-compose up -d
打开浏览器,访问 http://localhost:5678,输入你设置的账号密码,n8n 的工作流画布就出现在你面前了。
💡 不想折腾 Docker? n8n 也提供云端版(n8n.cloud),免费套餐可以直接用,适合快速体验。
---
Step 3:搭建第一条工作流——每日邮件自动摘要 + 生成日报
这是最经典的入门工作流。整体逻辑是:
定时触发 → 读取邮件 → 调用本地模型提炼要点 → 推送到飞书/钉钉在 n8n 画布上,按顺序添加以下节点:
节点①:Schedule Trigger(定时触发器)- 设置每天早上 8:30 触发一次
- 这是工作流的「发令枪」
- 连接你的邮箱账号
- 筛选条件:过去24小时内收到的未读邮件
- 输出字段:
emailSubject、emailBody
- 在节点配置里,选择「OpenAI Compatible」
- 填入本地模型地址和 Prompt:
{
"model": "qwen2.5:7b",
"baseURL": "http://localhost:11434/v1",
"prompt": "请将以下邮件内容提炼为3条核心要点,用简洁的中文输出:\n\n{{$json.emailBody}}"
}
📌 小贴士:如果本地模型速度太慢,把节点④:飞书/钉钉 Webhook 节点(推送输出)baseURL换成https://api.884819.xyz/v1,填入你的 API Key,立刻获得云端模型加速——工作流代码一行不用改。
- 将 AI 整理好的日报内容,通过 Webhook 发送到指定群
- 格式化输出,让日报看起来整洁专业
保存并激活工作流。从明天早上开始,你的日报会自动出现在群里,整理时间从 45 分钟压缩到 2 分钟。
---
四、3个拿来即用的进阶工作流模板
基础工作流跑通之后,这三个模板可以直接导入 n8n 使用:
模板① 竞品监控机器人
适用岗位:运营、市场定时触发(每周一)→ 抓取指定行业媒体 RSS →
AI 筛选相关内容 + 提炼要点 →
汇总生成竞品动态周报 → 推送企业微信
核心价值:省去每周2-3小时的人工信息收集,AI 自动过滤噪音,只推送真正有价值的内容。
---
模板② 合同/文档智能审阅
适用岗位:法务、采购接收上传的 PDF 文件 →
提取文本内容 →
本地模型分析关键条款(付款周期、违约责任、保密条款)→
输出风险提示清单到 Notion/飞书文档
这个场景对模型理解能力要求较高,推荐本地跑 Qwen2.5-14B 以上。如果硬件不够,也可以直接调用 [api.884819.xyz](https://api.884819.xyz) 的 Claude Sonnet 4.6——合同理解能力强,风险条款一条都不会漏。
---
模板③ 客服知识库问答
适用岗位:客服、售前接收用户问题(企业微信/邮件)→
从内部文档库检索相关内容(RAG)→
本地模型生成回答 →
自动回复用户 + 记录到工单系统
这套系统搭好之后,80% 的常见问题可以实现秒级自动回复,人工客服只需处理复杂个案。
---
五、新手必踩的5个坑,以及一句话解法
| 坑点 | 现象 | 解法 | | 模型响应慢 | AI 节点超时报错 | 在节点设置里把 Timeout 调到 120 秒以上 | | 中文乱码 | 输出内容显示乱码 | 确认 n8n 节点编码设置为 UTF-8 | | 节点连接失败 | Ollama API 无响应 | 检查 Docker 网络,用host.docker.internal 替换 localhost |
| 内存溢出 | 模型崩溃退出 | 降低并发数,或换更小参数量的模型(如 3B) |
| 工作流调试失败 | 不知道哪个节点出错 | 善用 n8n 的「Execute Node」单节点调试功能 |
进阶方向预告:
- 接入向量数据库(Qdrant),让 AI 真正「记住」你的企业知识库
- 多智能体协作:让多个 AI 节点分工配合,完成更复杂的任务
- 工作流版本管理:用 Git 管理你的工作流,团队协作不混乱
- 入门级:M1/M2 MacBook Air(16GB 内存),跑 7B 模型流畅
- 推荐级:RTX 3060(12GB 显存)或 RTX 4060,7B-14B 模型均可
- 进阶级:RTX 4090(24GB 显存),可同时运行多个模型实例
---
六、写在最后
这套工作流搭好之后,它会在你睡觉的时候帮你工作。
明天早上你醒来,日报已经发到群里,竞品动态已经整理好,上传的合同已经审阅完毕,风险条款清单等着你查看。
这不是科幻,这是 2025 年普通人就能拥有的能力。
现在,打开终端,输入第一行命令——
curl -fsSL https://ollama.ai/install.sh | sh
你的 AI 员工,今晚就能上岗。
---
💬 评论区互动
你最想用 AI 自动化解决哪个工作场景?
评论告诉我,下期模板我来专门做。
---
「学会了单条工作流,下一步呢?」
>
下一篇,我们要做一件更酷的事:让多个 AI 智能体像「团队」一样协作——一个负责搜索,一个负责分析,一个负责写作,最后一个负责审核……
>
《AI 多智能体实战:用 n8n + AutoGen 搭建你的「虚拟员工团队」》
预计下周发布,点击关注,第一时间收到更新通知。
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI自动化 #n8n教程 #本地大模型 #Ollama #零代码工作流 #AI办公 #8848AI #AI效率工具