小白必看:3步搞定 AI 自动化办公,用本地大模型+n8n搭建专属"零代码"工作流
小白必看:3步搞定 AI 自动化办公,用本地大模型+n8n搭建专属"零代码"工作流
上周五下午五点,你还在手动把50份客户反馈复制进Excel表格,而你同事的电脑正在自动跑完同样的工作——他去喝咖啡了。
这不是科幻小说的情节。这是现在,今天,就在发生的事。
McKinsey的研究报告显示:知识工作者每周平均花19小时处理可以自动化的重复性任务。 19小时——相当于每周有将近半个工作周,你在做机器早就能替你做的事。
整理邮件、汇总日报、提取合同关键信息、生成周报……这些事情消耗的不只是时间,还有你最宝贵的注意力。
好消息是:你不需要会写代码,不需要花钱买订阅,甚至不需要把数据传到云端——只要跟着本文的3步走,今天就能让你的第一个"AI员工"上岗。
---
第一章:搞清楚两个工具,才不会越学越懵
很多人一听"自动化工作流"就头大,觉得这是程序员的专属领域。但其实,理解这套方案只需要一个比喻:
本地大模型是大脑,n8n是手脚。
本地大模型:你自己电脑上的"私人ChatGPT"
Ollama 是目前最流行的本地大模型运行工具,它做的事情只有一件:让你在自己的电脑上运行开源大模型,完全离线,数据不出本机。
你可以把它理解成"把ChatGPT装进你的电脑"——只不过用的是开源模型,比如阿里的 Qwen3、Meta的 Llama3,或者专门为中文优化的各类模型。
- 数据不上云,隐私100%保留(处理公司内部文件时尤其重要)
- 使用完全免费,没有token计费
- 一次配置,永久可用
n8n:把所有工具连在一起的"胶水"
n8n 是一个开源的工作流自动化平台,界面长得有点像思维导图——你把不同的"节点"用线连起来,就定义了一套自动化流程。
比如:定时触发 → 抓取新闻 → 本地模型总结 → 发送到微信 ——这整条链路,在n8n里拖拖拽拽十分钟就能搭完,一行代码不用写。
两者的协作关系
[触发器] → [数据获取] → [本地模型处理] → [执行动作]
↑ ↑ ↑ ↑
定时/Webhook HTTP请求 Ollama API 发邮件/通知
n8n通过标准的HTTP请求调用Ollama的本地API,把数据喂给模型,拿回处理结果,再传给下一个节点。整个过程在你的局域网内完成,外部服务完全不知道发生了什么。
---
第二章:环境搭建——30分钟跑通,比装微信还简单
Step 1:安装 Ollama 并拉取模型
macOS / Linux:打开终端,一行命令搞定:
curl -fsSL https://ollama.com/install.sh | sh
Windows:
访问 [ollama.com](https://ollama.com),下载Windows安装包,双击安装,和装普通软件一样。
安装完成后,拉取你的第一个模型(推荐新手用 qwen2.5:7b,中文效果好,7B参数在8GB内存的电脑上就能跑):
ollama pull qwen2.5:7b
拉取完成后,验证是否成功:
ollama run qwen2.5:7b "你好,请用一句话介绍你自己"
如果终端里出现模型的回复,恭喜你——大脑装好了。
⚠️ 常见报错解决方案
>
报错1:模型拉取超时/中断
→ 挂上代理再拉取,或者使用国内镜像源。也可以先拉取更小的 qwen2.5:3b,体积只有2GB左右。
>
报错2:ollama: command not found(Linux)
→ 执行 source ~/.bashrc 或重新打开终端,让环境变量生效。
>
报错3:端口11434被占用
→ 执行 lsof -i :11434 找到占用进程,kill掉后重启Ollama。
Step 2:安装 n8n
n8n有两种安装方式,推荐新手用 npx(需要提前装好Node.js 18+):
npx n8n
第一次运行会自动下载依赖,等待约2-3分钟。启动成功后,打开浏览器访问:
http://localhost:5678
看到n8n的注册页面,填写邮箱和密码完成初始化,手脚也装好了。
💡 想要更稳定的方案? 用Docker一行命令启动,数据持久化不丢失:
> docker run -it --rm --name n8n -p 5678:5678 -v ~/.n8n:/home/node/.n8n n8nio/n8n
---
第三章:实战演练——3步搭建你的第一条工作流
我们用一个真实场景来演示:每天早上8点,自动抓取科技新闻,用本地模型总结成一份早报,发送到你的邮箱。
节点1:定时触发器
在n8n画布上,点击左上角 + 添加节点,搜索 Schedule Trigger。
配置参数:
- Trigger Interval:
Days - Hour:
8 - Minute:
0
这个节点会在每天早上8点自动启动整条工作流。
节点2:HTTP请求抓取新闻
添加 HTTP Request 节点,配置如下:
{
"method": "GET",
"url": "https://hacker-news.firebaseio.com/v0/topstories.json",
"responseFormat": "json"
}
这里用Hacker News的公开API作为示例(国内可替换为其他新闻源的RSS或API)。
节点3:调用本地模型总结
这是整个工作流的核心。添加 HTTP Request 节点,调用本地Ollama:
{
"method": "POST",
"url": "http://localhost:11434/api/generate",
"headers": {
"Content-Type": "application/json"
},
"body": {
"model": "qwen2.5:7b",
"prompt": "你是一位科技媒体编辑。请将以下新闻标题整理成一份简洁的早报摘要,中文输出,每条新闻一行,格式为「📌 标题:一句话核心要点」。\n\n新闻内容:{{$json.body}}",
"stream": false
}
}
💡 关键参数说明
- stream: false:让模型一次性返回完整结果,而不是流式输出(n8n处理流式输出需要额外配置)
- {{$json.body}}:n8n的变量语法,引用上一个节点的输出数据
节点4:发送邮件通知
添加 Send Email 节点(或 Gmail 节点),配置收件人和邮件内容:
- To:你的邮箱地址
- Subject:
📰 今日科技早报 - {{$now.format('MM月DD日')}} - Body:
{{$json.response}}(引用模型返回的总结内容)
四个节点用线连起来,点击右上角 "Test Workflow"——
如果你看到邮件成功发送,你的第一个AI员工正式上岗了。3个可以直接套用的进阶场景
跑通早报工作流之后,同样的逻辑可以快速复用:
1. 自动周报生成:每周五下午触发 → 读取本周工作记录(Notion/飞书API)→ 模型汇总润色 → 发给领导
2. 合同关键信息提取:新合同文件上传触发 → 读取PDF内容 → 模型提取甲乙方/金额/日期 → 写入数据库
3. 客服FAQ自动回复:收到邮件触发 → 模型判断问题类型 → 匹配知识库答案 → 自动回复
---
第四章:避坑指南——让工作流稳定跑起来
坑1:模型输出格式不稳定,每次结果都不一样
解决方案:用结构化Prompt约束输出。推荐使用这个Prompt框架:
你是一个[角色定义]。
你的任务是:[具体任务描述]。
输出格式要求:必须严格按照以下JSON格式输出,不要有任何额外说明:
{
"summary": "总结内容",
"key_points": ["要点1", "要点2"],
"priority": "high/medium/low"
}
以下是输入内容:{{input}}
角色定义 + 任务明确 + 格式约束 + 示例——这四个要素缺一不可,缺了任何一个,模型就会开始"发挥创意"。
坑2:工作流卡死无响应
本地模型处理大量文本时,响应时间可能超过n8n的默认超时时间。
解决方案: 在HTTP Request节点的Options 里,把 Timeout 从默认的10000ms调整到 60000ms(60秒)。
坑3:Prompt太随意,输出乱飘
很多人第一次写Prompt就是一句话:"帮我总结一下这篇文章"——然后抱怨模型不好用。
本地7B模型的能力边界很清晰:它不擅长"理解你的意图",但非常擅长"执行明确的指令"。越具体,效果越好。坑4:本地算力不够用
7B模型在没有独立显卡的电脑上,处理一段500字的文本可能需要10-30秒。如果你的工作流需要处理大量数据,或者需要更强的推理能力,本地模型可能成为瓶颈。
💡 本地跑模型嫌慢?试试这个方案
>
如果电脑配置有限,或者工作流里需要接入更强的模型(比如用于复杂合同分析、多轮推理),可以用 API中转服务 作为补充——价格比官方便宜,国内直连无需翻墙。
>
我们测试过的稳定方案:[api.884819.xyz](https://api.884819.xyz),支持 GPT-5.4、Claude Sonnet 4.6、Gemini 3.1 Pro 等主流模型,和n8n的OpenAI节点完全兼容,只需改一行配置:
>
> Base URL: https://api.884819.xyz/v1
API Key: 你的key
>
最优策略:本地模型处理日常高频任务(快且免费),云端API处理复杂推理(强且准)。 两者在n8n里可以同时存在,按任务类型自动路由。
坑5:n8n免费版节点限制
n8n云端版免费层有节点数量限制,但自托管版本完全没有限制。本文介绍的 npx n8n 和Docker方式都是自托管,功能100%解锁,永久免费。
---
结语:你的第一个 AI 员工,今天就可以上岗
你刚刚完成的,不是一个小实验——你搭建了一套可以持续工作的数字基础设施。它会在你睡觉的时候继续替你干活,在你喝咖啡的时候跑完你同事还在手动做的事。
完成了这篇教程的读者,已经做到了99%的人不会去做的事。
立刻行动清单(收藏不等于学会,动手才算):- [ ] 安装Ollama,成功运行
qwen2.5:7b - [ ] 启动n8n,打开
localhost:5678 - [ ] 搭建早报工作流,跑通第一次测试
- [ ] 修改Prompt模板,让输出格式符合你的需求
- [ ] 把工作流设为Active,让它明天早上自动跑起来
---
📌 文中用到的工具汇总 | 工具 | 用途 | 地址 | | Ollama | 本地运行大模型 | ollama.com | | n8n | 零代码工作流 | n8n.io | | 8848AI API中转 | 接入GPT/Claude等云端模型 | api.884819.xyz |---
🔮 下一篇预告
《我用 AI 工作流处理了1000封邮件,总结出这5个让效率翻倍的隐藏技巧》你已经跑通了第一条工作流——但大多数人在这里就停了。
下一篇我会拆解真实生产环境中的进阶玩法:
- 如何让AI自动判断任务优先级,而不是无脑执行每一条指令
- n8n的
Error Handler怎么配,工作流出错不再让你措手不及 - 一个让本地模型输出100%结构化JSON的Prompt黑魔法(用了之后你会后悔没早点知道)
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI自动化办公 #n8n教程 #本地大模型 #Ollama #零代码工作流 #AI效率工具 #8848AI #AI学习