小白必看:3步搞定 AI 自动化办公,用本地大模型 + n8n 搭建专属"零代码"工作流

上周一个朋友发我一条消息,凌晨 11 点半:

"又在整理今天的会议纪要……这种事我已经做了三年了。"

我问他,三年里这件事有没有变得更快?他说没有。

这就是问题所在。麦肯锡的研究数据显示,知识工作者平均有 28% 的工作时间花在重复性任务上——整理会议记录、汇总邮件、归档数据、生成周报……这些事情不需要你的判断力,只需要你的时间。

更讽刺的是,AI 工具早就能做这些了,但大多数人还没用起来。原因无非两个:

1. 用云端 AI(ChatGPT/Claude)总觉得把公司数据上传到别人服务器不太安全

2. 自己搭系统?那不得写代码?我不会啊……

今天这篇文章就是为了彻底解决这两个顾虑。我们用 Ollama(本地大模型)+ n8n(零代码工作流),搭一套数据不出本机、不需要写任何代码的 AI 自动化系统。

读完这篇,今天就能跑起来你的第一条工作流。

---

搞清楚两个工具,你就赢了一半

在动手之前,先花 5 分钟搞懂这两个工具是什么——不然后面操作会懵。

本地大模型:把 ChatGPT 装进你自己的电脑

Ollama 是一个开源工具,它做的事情很简单:让你在自己的电脑上运行大语言模型。

你可以把它理解成"本地版 ChatGPT 运行环境"。安装 Ollama 之后,你可以拉取各种开源模型:Qwen2.5(阿里的通义千问)、DeepSeek R1/V3、Llama 等等。这些模型运行在你自己的机器上,数据全程不离开本地,永久免费,没有 API 调用费用

对比一下成本:

| 方案 | 月均费用(中等使用量) | 数据安全 | | 云端 API(GPT/Claude) | ¥100-500+ | 数据上传第三方服务器 | | 本地 Ollama | ¥0(只有电费) | 数据完全本地 | | 8848AI API(混合方案) | 按量付费,新用户送 ¥5 | 可控 |

硬件门槛方面:Qwen2.5:7b 需要约 8GB 显存,DeepSeek-R1:8b 需要约 6GB 显存。没有独立显卡也能跑,只是速度会慢一些——用来做自动化任务完全够用。

n8n:工作流界的乐高积木

n8n 是一个开源的可视化工作流自动化工具。如果你用过 Zapier 或者 Make(原 Integromat),n8n 做的是同一件事——但它可以自己部署在本地或服务器上,数据不经过第三方,而且完全免费。

操作逻辑非常直观:你在画布上拖拽"节点",用线把它们连起来,就定义了一个自动化流程。每个节点代表一个动作:读邮件、调用 AI、写入表格、发送通知……

💡 小贴士:如果你的电脑配置暂时跑不动本地模型,或者某些任务需要更强的推理能力,也可以通过 API 调用云端模型。推荐 [api.884819.xyz](https://api.884819.xyz),支持 GPT、Claude、DeepSeek 等主流模型,国内直连无障碍,按量计费无月租——和 n8n 的 HTTP Request 节点搭配使用,配置方式和本文完全一致,只需改一个 URL。

两者如何联动?

架构一句话说清楚:

n8n 负责"指挥调度"(什么时候触发、从哪里取数据、结果写到哪里),本地大模型负责"AI 思考"(理解内容、生成摘要、做判断),两者通过 HTTP API 握手,构成完整的自动化大脑。

---

3步实操:从零搭建你的第一条 AI 工作流

我们以一个真实场景为例:自动读取邮件 → AI 提炼摘要 → 写入飞书多维表格

Step 1 — 环境准备(约 15 分钟)

安装 Ollama 并拉取模型:
# 安装 Ollama(macOS/Linux)

curl -fsSL https://ollama.com/install.sh | sh

拉取 Qwen2.5 7B 模型(约 4.7GB,需要等待下载)

ollama pull qwen2.5:7b

验证是否成功

ollama run qwen2.5:7b "你好,请用一句话介绍自己"

看到模型回复之后,说明本地 AI 已经跑起来了。Ollama 默认在 http://localhost:11434 暴露 API,后面 n8n 会通过这个地址调用它。

启动 n8n(Docker 一键启动):
docker run -it --rm \

--name n8n \

-p 5678:5678 \

-v ~/.n8n:/home/node/.n8n \

n8nio/n8n

启动成功后,打开浏览器访问 http://localhost:5678,完成初始账号注册,就能看到 n8n 的工作台了。

⚠️ 注意:如果你用的是 Windows,建议先安装 WSL2,然后在 WSL2 环境里执行上述命令,兼容性更好。

---

Step 2 — 连接节点,搭出骨架(约 20 分钟)

在 n8n 中新建一个工作流,按以下顺序添加节点:

节点 1:Gmail / IMAP 触发器
  • 选择 Email Trigger (IMAP) 节点
  • 填入你的邮箱账号和授权码
  • 设置轮询间隔(比如每 5 分钟检查一次新邮件)
节点 2:HTTP Request(调用本地大模型)

这是整个工作流的核心节点,配置如下:

{

"method": "POST",

"url": "http://localhost:11434/api/chat",

"headers": {

"Content-Type": "application/json"

},

"body": {

"model": "qwen2.5:7b",

"messages": [

{

"role": "system",

"content": "你是一个邮件助理,请将邮件内容提炼成3-5条关键信息,用中文输出。"

},

{

"role": "user",

"content": "{{ $json.text }}"

}

],

"stream": false

}

}

📌 进阶提示:示例中用的是本地 Ollama 地址。如果你想切换到云端模型处理复杂推理任务,只需把 URL 换成 https://api.884819.xyz/v1/chat/completions,其余参数格式完全兼容 OpenAI 标准,n8n 节点一行不用改,Header 里加上你的 API Key 即可。
节点 3:飞书多维表格写入
  • 选择 HTTP Request 节点,调用飞书开放平台 API
  • 或者使用 n8n 社区节点库里的飞书插件(搜索 Feishu
  • 将 AI 输出的摘要文本映射到对应字段

三个节点连起来,一条完整的工作流骨架就搭好了。

---

Step 3 — 调试上线,让它自己跑(约 10 分钟)

点击右上角的 "Test Workflow" 按钮,n8n 会实际执行一次流程,每个节点旁边会显示绿色✅或红色❌。

常见的调试步骤:

1. 逐节点点击查看输入输出数据,确认数据格式正确传递

2. 检查 HTTP Request 节点的响应,确认本地模型有正常返回

3. 调试通过后,点击 "Active" 开关,工作流正式上线

当你看到工作流第一次自动运行完成,绿色的成功标记亮起来的那一刻——恭喜你,你正式拥有了第一个 AI 员工。

从现在开始,它会在你睡觉的时候帮你处理邮件,在你开会的时候帮你整理信息,全年无休,不需要工资。

---

3个拿来即用的进阶工作流模板

基础工作流跑通之后,直接套用这三个模板,每个都能立刻产生价值。

模板① 每日简报机器人

预计每周节省时间:3-4 小时 流程: RSS 节点抓取行业资讯 → HTTP Request 调用本地模型总结 → 企业微信/飞书 Bot 推送

核心节点配置要点:

  • RSS 节点设置你关注的行业媒体 Feed(36Kr、虎嗅、少数派等都有 RSS)
  • 定时触发器设置为每天早上 8:00
  • Prompt 模板:"请从以下文章中提炼3条今日行业要点,每条不超过50字,附上原文链接"

模板② 智能客服预处理

预计减少人工介入:约 80% 流程: Webhook 接收用户提问 → 本地模型判断意图分类 → Switch 节点路由到不同处理分支

意图分类 Prompt 示例:

将以下用户问题分类为:[退款、物流查询、产品咨询、投诉、其他]

只输出分类标签,不要解释。

用户问题:{{ $json.question }}

Switch 节点根据返回的标签,自动路由到对应的回复模板或人工队列。

模板③ 会议纪要自动化

预计每周节省时间:5-8 小时 流程: 监听指定文件夹(录音上传)→ Whisper API 转文字 → 本地模型提炼行动项 → 自动生成飞书文档

这个模板是三个里面最有冲击力的。一次 1 小时的会议,以前整理纪要需要 30-60 分钟,现在上传录音,5 分钟内自动生成结构化文档,包含:会议摘要、决策事项、行动项(含负责人和截止日期)。

---

避坑指南:新手最容易踩的 5 个坑

坑 1:模型跑起来但响应极慢

→ 原因是 CPU 推理,给 Ollama 设置 OLLAMA_NUM_GPU=0 以外的参数,或换用更小的模型(如 qwen2.5:3b)。

坑 2:n8n 调用本地模型返回连接拒绝

→ Docker 容器内无法直接访问宿主机的 localhost,把 URL 改为 http://host.docker.internal:11434/api/chat(Mac/Windows)或宿主机实际 IP(Linux)。

坑 3:中文内容出现乱码

→ HTTP Request 节点的 Content-Type Header 确认设置为 application/json; charset=utf-8

坑 4:n8n 凭证配置后还是报 401 错误

→ 部分服务(如飞书)的 Token 有时效,检查是否过期,重新获取后在 n8n Credentials 里更新。

坑 5:工作流卡住不动也不报错

→ 检查触发器节点是否处于 Active 状态,以及 n8n 进程是否因为内存不足被系统杀掉(建议给 Docker 容器设置至少 2GB 内存限制)。

Q&A 快速答疑

Q:电脑最低配置要求是什么?

A:运行 7B 模型建议 16GB 内存 + 8GB 显存,没有独显也能跑但速度慢。n8n 本身只需 2GB 内存。

Q:可以部署在云服务器上吗?

A:完全可以,阿里云/腾讯云的 4 核 8G 实例可以流畅运行 n8n,模型推荐选 3B 以下参数量。

Q:工作流里的数据安全吗?

A:本地部署方案数据全程不离开你的机器。n8n 的执行日志存储在本地数据库,可以随时清除。

---

写在最后

自动化不是偷懒,是把自己从执行者变成设计者

当你第一次看着工作流在凌晨 2 点自动处理完一批邮件、生成好报告等你早上来看,你会突然理解什么叫"杠杆思维"——同样的时间,你设计了一个系统,这个系统在帮你工作。

这才是 AI 时代真正的效率红利,不是用 ChatGPT 帮你写几句话,而是让 AI 替你运转一套流程。

你的第一条工作流,准备用来干什么?

---

学会了搭工作流,你可能很快会遇到下一个问题:

>

"怎么让 AI 真正'理解'我公司的业务知识,而不是每次都要重新解释背景?"

>

这就涉及到一个更强大的技术——RAG(检索增强生成):把你的内部文档、产品手册、历史数据"喂"给 AI,让它变成真正懂你业务的专属顾问。

>

下一篇,我们手把手搭建一个本地知识库 + AI 问答系统,同样零代码,同样数据不外泄。

>

👉 关注 8848AI,下篇更新第一时间通知你。
评论区告诉我:你最想用 AI 自动化处理的工作是什么?

---

🔗 本文配套资源

  • 三个工作流模板 JSON 文件:关注公众号回复 "n8n模板" 获取
  • 国内可用大模型 API(支持 GPT / Claude / DeepSeek):[api.884819.xyz](https://api.884819.xyz) ← 新用户注册即送体验额度,适合本文工作流测试使用,用户名+密码即可注册,无需邮箱验证

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI自动化 #n8n #本地大模型 #Ollama #零代码工作流 #AI办公 #DeepSeek #8848AI