小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属「零代码」工作流

昨晚11点,你还在手动把20封客户邮件复制进 Excel?

同事小李已经让 AI 帮他自动整理好,还推送到了钉钉群。最关键的是:他用的工具,完全免费,数据绝对不外泄

这不是什么内部秘密,也不需要任何编程基础。这篇文章,我手把手带你用 本地大模型(Ollama)+ n8n 工作流引擎,30分钟内搭起一套真正属于你自己的 AI 自动化系统。

---

一、你的时间,正在被「重复工作」悄悄偷走

麦肯锡的一份报告数据让人触目惊心:知识工作者平均每天 28% 的时间,耗费在重复性、低价值任务上。

换算一下:每天工作8小时,就有超过2小时在做这些事——

  • 把邮件内容复制到表格里汇总
  • 每天手写一份格式雷同的日报
  • 定时去各个网站抓竞品动态,再手动整理成周报
  • 收到合同文件,逐行翻阅找关键条款……

这些事不需要你的创造力,但它们每天都在消耗你最宝贵的精力和专注力

你可能也尝试过用 ChatGPT 来解决问题。但很快就发现几个绕不开的痛点:

  • 数据隐私风险:把公司合同、客户邮件上传到云端,合规部门第一个不答应
  • 无法自动执行:ChatGPT 是问答工具,不是自动化平台,每次还得你手动触发
  • API 费用高:调用 GPT 系列的官方 API,成本对个人用户不友好
  • 网络访问限制:国内直连不稳定,影响工作效率

解法其实早就有了,只是大多数人还不知道:Ollama(本地大模型运行框架)+ n8n(开源工作流引擎),这两个工具组合在一起,能搭出一套私有化、零代码、全自动的 AI 助手系统。

---

二、5分钟扫盲:搞清楚这两个核心工具

2.1 本地大模型:把 AI 装进你自己的电脑

Ollama 是一个开源框架,用一句话解释就是:
「就像把 ChatGPT 装进你自己的电脑,数据永远不出门。」

所有的推理计算都在你本地完成,没有任何数据上传到云端。对于处理公司内部文件、客户信息的场景,这一点至关重要。

目前主流的可选模型对比如下:

| 模型 | 参数量 | 显存需求 | 中文能力 | 推荐场景 | | Qwen2.5-7B | 7B | 6-8GB | ⭐⭐⭐⭐⭐ | 日常办公、文本处理 | | Qwen2.5-14B | 14B | 12-16GB | ⭐⭐⭐⭐⭐ | 合同审阅、复杂分析 | | DeepSeek-R1-8B | 8B | 8GB | ⭐⭐⭐⭐ | 逻辑推理、数据分析 | | Llama3-8B | 8B | 8GB | ⭐⭐⭐ | 英文内容处理 | 入门首选 Qwen2.5-7B,8GB 显存跑得动,中文理解能力在同量级模型里是第一梯队,实测推理速度约 20-30 token/秒,日常使用完全够用。
💡 没有独立显卡也别慌——Ollama 支持 CPU 模式运行,速度会慢一些,但功能完整。16GB 内存的 MacBook 跑 7B 模型体验相当流畅。

---

2.2 n8n:搭工作流的「乐高积木」

n8n 是一个开源的工作流自动化平台。如果你用过 Zapier 或 Make(原 Integromat),n8n 干的是同一件事——但有几个关键区别: | 对比项 | n8n | Zapier | Make | | 开源/闭源 | ✅ 开源 | ❌ 闭源 | ❌ 闭源 | | 可自托管 | ✅ 支持 | ❌ 不支持 | ❌ 不支持 | | 免费执行次数 | 无限制(自托管) | 每月 100 次 | 每月 1000 次 | | 本地 AI 节点 | ✅ 原生支持 | ❌ 不支持 | ❌ 不支持 | | 数据隐私 | ✅ 完全自控 | ⚠️ 数据过云端 | ⚠️ 数据过云端 |

简单说:n8n 就是一块画布,你把「触发器」「处理节点」「输出节点」像乐高一样拖拽连接,工作流就跑起来了。它原生支持调用本地 Ollama 模型,这是选它的核心理由。

📌 关于云端 API 的补充:如果你的电脑配置有限,或者某些场景需要更强的模型能力,也可以通过 [api.884819.xyz](https://api.884819.xyz) 接入 GPT-5.2、Claude Sonnet 4.6 等旗舰模型——国内直连无需魔法,价格比官方便宜,n8n 里填入 API Key 就能用,和本地模型无缝切换,工作流代码一行不用改

---

三、3步实操:从零搭建你的第一条 AI 工作流

Step 1:安装 Ollama + 拉取模型(约5分钟)

macOS / Linux:
# 安装 Ollama

curl -fsSL https://ollama.ai/install.sh | sh

拉取中文优化模型(约4.7GB,请确保磁盘空间充足)

ollama pull qwen2.5:7b

验证安装成功

ollama run qwen2.5:7b "你好,请用一句话介绍自己"

Windows:

前往 [ollama.ai](https://ollama.ai) 下载 Windows 安装包,安装完成后在 PowerShell 中执行:

ollama pull qwen2.5:7b

ollama run qwen2.5:7b "你好"

看到模型开始流式输出文字,说明本地 AI 已经跑起来了。

✅ 恭喜!你的本地 AI 已经在运行了。

Ollama 默认会在本地开启一个 API 服务,地址是 http://localhost:11434,这个地址后面会用到。

最低硬件门槛参考:
  • CPU 模式:16GB 内存,运行 7B 模型(速度较慢)
  • GPU 模式(推荐):8GB 显存,运行 7B 模型流畅

---

Step 2:部署 n8n(Docker 一键启动)

确保你已安装 Docker Desktop,然后创建一个 docker-compose.yml 文件:

version: '3.8'

services:

n8n:

image: n8nio/n8n

ports:

- "5678:5678" # 映射端口,浏览器访问用

environment:

- N8N_BASIC_AUTH_ACTIVE=true

- N8N_BASIC_AUTH_USER=admin

- N8N_BASIC_AUTH_PASSWORD=your_password # 改成你自己的密码

volumes:

- n8n_data:/home/node/.n8n # 持久化数据,重启不丢失

volumes:

n8n_data:

在文件所在目录运行:

docker-compose up -d

打开浏览器,访问 http://localhost:5678,输入你设置的账号密码,n8n 的工作流画布就出现在你面前了。

💡 不想折腾 Docker? n8n 也提供云端版(n8n.cloud),免费套餐可以直接用,适合快速体验。

---

Step 3:搭建第一条工作流——每日邮件自动摘要 + 生成日报

这是最经典的入门工作流。整体逻辑是:

定时触发 → 读取邮件 → 调用本地模型提炼要点 → 推送到飞书/钉钉

在 n8n 画布上,按顺序添加以下节点:

节点①:Schedule Trigger(定时触发器)
  • 设置每天早上 8:30 触发一次
  • 这是工作流的「发令枪」
节点②:Gmail / IMAP 节点(读取邮件)
  • 连接你的邮箱账号
  • 筛选条件:过去24小时内收到的未读邮件
  • 输出字段:emailSubjectemailBody
节点③:AI Agent 节点(调用本地模型)
  • 在节点配置里,选择「OpenAI Compatible」
  • 填入本地模型地址和 Prompt:
{

"model": "qwen2.5:7b",

"baseURL": "http://localhost:11434/v1",

"prompt": "请将以下邮件内容提炼为3条核心要点,用简洁的中文输出:\n\n{{$json.emailBody}}"

}

📌 小贴士:如果本地模型速度太慢,把 baseURL 换成 https://api.884819.xyz/v1,填入你的 API Key,立刻获得云端模型加速——工作流代码一行不用改。
节点④:飞书/钉钉 Webhook 节点(推送输出)
  • 将 AI 整理好的日报内容,通过 Webhook 发送到指定群
  • 格式化输出,让日报看起来整洁专业

保存并激活工作流。从明天早上开始,你的日报会自动出现在群里,整理时间从 45 分钟压缩到 2 分钟。

---

四、3个拿来即用的进阶工作流模板

基础工作流跑通之后,这三个模板可以直接导入 n8n 使用:

模板① 竞品监控机器人

适用岗位:运营、市场
定时触发(每周一)→ 抓取指定行业媒体 RSS →

AI 筛选相关内容 + 提炼要点 →

汇总生成竞品动态周报 → 推送企业微信

核心价值:省去每周2-3小时的人工信息收集,AI 自动过滤噪音,只推送真正有价值的内容。

---

模板② 合同/文档智能审阅

适用岗位:法务、采购
接收上传的 PDF 文件 →

提取文本内容 →

本地模型分析关键条款(付款周期、违约责任、保密条款)→

输出风险提示清单到 Notion/飞书文档

这个场景对模型理解能力要求较高,推荐本地跑 Qwen2.5-14B 以上。如果硬件不够,也可以直接调用 [api.884819.xyz](https://api.884819.xyz) 的 Claude Sonnet 4.6——合同理解能力强,风险条款一条都不会漏。

---

模板③ 客服知识库问答

适用岗位:客服、售前
接收用户问题(企业微信/邮件)→

从内部文档库检索相关内容(RAG)→

本地模型生成回答 →

自动回复用户 + 记录到工单系统

这套系统搭好之后,80% 的常见问题可以实现秒级自动回复,人工客服只需处理复杂个案。

---

五、新手必踩的5个坑,以及一句话解法

| 坑点 | 现象 | 解法 | | 模型响应慢 | AI 节点超时报错 | 在节点设置里把 Timeout 调到 120 秒以上 | | 中文乱码 | 输出内容显示乱码 | 确认 n8n 节点编码设置为 UTF-8 | | 节点连接失败 | Ollama API 无响应 | 检查 Docker 网络,用 host.docker.internal 替换 localhost | | 内存溢出 | 模型崩溃退出 | 降低并发数,或换更小参数量的模型(如 3B) | | 工作流调试失败 | 不知道哪个节点出错 | 善用 n8n 的「Execute Node」单节点调试功能 | 进阶方向预告:
  • 接入向量数据库(Qdrant),让 AI 真正「记住」你的企业知识库
  • 多智能体协作:让多个 AI 节点分工配合,完成更复杂的任务
  • 工作流版本管理:用 Git 管理你的工作流,团队协作不混乱
够用硬件配置参考:
  • 入门级:M1/M2 MacBook Air(16GB 内存),跑 7B 模型流畅
  • 推荐级:RTX 3060(12GB 显存)或 RTX 4060,7B-14B 模型均可
  • 进阶级:RTX 4090(24GB 显存),可同时运行多个模型实例

---

六、写在最后

这套工作流搭好之后,它会在你睡觉的时候帮你工作

明天早上你醒来,日报已经发到群里,竞品动态已经整理好,上传的合同已经审阅完毕,风险条款清单等着你查看。

这不是科幻,这是 2025 年普通人就能拥有的能力。

现在,打开终端,输入第一行命令——

curl -fsSL https://ollama.ai/install.sh | sh
你的 AI 员工,今晚就能上岗。

---

💬 评论区互动
你最想用 AI 自动化解决哪个工作场景?
评论告诉我,下期模板我来专门做。

---

「学会了单条工作流,下一步呢?」

>

下一篇,我们要做一件更酷的事:让多个 AI 智能体像「团队」一样协作——一个负责搜索,一个负责分析,一个负责写作,最后一个负责审核……

>

《AI 多智能体实战:用 n8n + AutoGen 搭建你的「虚拟员工团队」》
预计下周发布,点击关注,第一时间收到更新通知。

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI自动化 #n8n教程 #本地大模型 #Ollama #零代码工作流 #AI办公 #8848AI #AI效率工具