我用同一个内容审核流程,跑了 ChatGPT Workspace Agents 和 n8n——结论让我意外

我们内容组有个不成文的规定——审核结果发到群里,三个人看到了都不知道谁来改。

这不是夸张。每天下午四点,主编会把当天的 UGC 投稿截图扔进飞书群,@所有人,然后沉默。三个审核员各自看各自的,有时候同一篇稿子被两个人同时标注了"通过",有时候一篇明显有问题的内容因为大家都以为别人会处理,就这么漏过去了。

这个问题困扰我们大概半年。直到我决定用 Agent 解决它——然后踩了两个坑。

---

为什么选「内容审核流程」来测试?

在开始之前,我想先说清楚为什么选这个场景,而不是更常见的"写邮件""生成报告"之类的 demo 级任务。

内容审核流程有三个关键动作,缺一不可:

输入内容

AI 判断(合规/违规/待人工复核)

条件分支(不同结果走不同路径)

结果归档 + 通知责任人

这个流程的特殊性在于:它不能只靠一个 prompt 解决。你需要条件判断,需要多人协作,需要结果持久化存储。但它又不需要你懂 DevOps,不需要写后端代码——理论上,这正是 Agent 工具最应该覆盖的场景。

如果 Agent 在这里翻车,那它在更复杂的业务场景里大概率也撑不住。

我给自己设了一个具体目标:从零开始,不借助外部工程师,在两天内分别用 ChatGPT Workspace Agents 和 n8n 把这个流程跑通。然后对比两者的体验差异。

---

ChatGPT Workspace Agents 实测:官方体验的天花板在哪里?

耗时:约 3 小时,从创建到「基本能用」

上手体验确实丝滑。进入 ChatGPT Team 后台,新建一个 Agent,填写名称和指令,大约 20 分钟就能跑起来第一个对话。

我的指令大概是这样的:

你是一个内容审核助手。当用户提交一段内容时,请判断它是否符合以下标准:[具体规则列表]。输出格式为 JSON,包含 status(pass/reject/review)、reason 和 confidence 三个字段。

前半小时,我对它印象不错。输入一段测试内容,返回结构清晰的 JSON,判断逻辑也基本准确。

然后我开始遇到卡壳。

卡壳时刻一:多条件分支怎么处理?

审核结果有三种:直接通过、直接拒绝、需要人工复核。按理说,不同结果应该触发不同的后续动作——通过的自动归档,拒绝的通知作者,待复核的分配给具体的审核员。

在 ChatGPT Workspace Agent 里,这件事没法做。Agent 能输出判断结果,但它不能根据结果去触发不同的外部动作。它没有"如果 status=reject,就发一封邮件"的逻辑层。

你可以用 Actions 接入外部 API,但那需要你自己搭一个服务来接收请求,本质上还是要写代码。

卡壳时刻二:审核结果怎么同步给团队?

我尝试了几种方法:让 Agent 把结果粘贴到对话里,然后手动复制到飞书——这显然不是"自动化"。

ChatGPT Team 的 Agent 是对话级别的工具,它的输出边界就是对话窗口本身。它不能主动推送消息,不能写入数据库,不能发飞书通知。除非你在 Actions 里配置好所有接口,而那个工程量已经超出了"零代码工具"的范畴。

卡壳时刻三:历史记录能否被调用?

这个问题更致命。每次新对话,Agent 都是"失忆"状态。它不知道今天已经审核了多少条内容,不知道某篇稿子之前被标注过什么状态,更不知道某个作者是否有历史违规记录。

这不是 Bug,这是设计边界。ChatGPT Workspace Agent 本质上是一个增强版的对话助手,它的设计哲学是"每次对话解决一个问题",而不是"持续运行一个业务流程"。

说实话,我不是要黑它。对于个人用户,它真的好用——写作辅助、资料整理、单次任务处理,体验一流。但当你试图用它来承载一个有状态、多步骤、需要多人协作的团队流程时,它的天花板会来得比你想象中快得多

---

n8n Agent 实测:「自建」的代价到底有多高?

耗时:约 11 小时,包含报错调试时间

我在一台轻量云服务器上部署了 n8n(Docker 方式,官方文档跟着走大概 40 分钟),然后开始搭建同样的审核流程。

n8n 的画布是这样的:

Webhook 节点(接收内容)

HTTP Request 节点(调用 AI API 判断)

IF 节点(根据 status 分支)

├── pass → Notion 数据库节点(归档)

├── reject → 飞书消息节点(通知作者)

└── review → 飞书消息节点(分配给审核员)

每个节点的功能一目了然,逻辑清晰得像在画流程图。

HTTP Request 节点调用 AI API 的配置大概是这样的:
{

"method": "POST",

"url": "https://api.884819.xyz/v1/chat/completions",

"headers": {

"Authorization": "Bearer {{$credentials.apiKey}}",

"Content-Type": "application/json"

},

"body": {

"model": "gpt-5.1",

"messages": [

{

"role": "user",

"content": "{{$json.content}}"

}

]

}

}

跑通第一个节点的那一刻,成就感是真实的。Webhook 收到请求,AI 节点返回了正确的 JSON,IF 节点按照预期走了正确的分支——整个流程在画布上亮起绿色的时候,我差点鼓掌。

然后报错来了。

真实的崩溃时刻:

AI 节点返回的内容有时候不是纯 JSON,而是带了 markdown 代码块包裹(就是那个 `json ` )。n8n 的 JSON Parse 节点直接报错:

ERROR: Could not parse JSON

Unexpected token at position 0

这个错误我查了将近两个小时。最后的解法是在 Code 节点里加一行正则清洗:

const raw = $input.item.json.content;

const cleaned = raw.replace(/

json\n?|\n?
`/g, '').trim();

return [{ json: JSON.parse(cleaned) }];


说实话,如果不是我之前有一点点 JavaScript 基础,这里大概率会卡死。这就是 n8n 的真实门槛——不是搭流程,而是处理边缘情况时你需要能写一点代码。

💡 编辑注: 如果你想先跑通 n8n 的 AI 节点逻辑,但还没准备好折腾服务器和 API Key 申请流程,可以先用 [api.884819.xyz](https://api.884819.xyz) 作为中转——它兼容 OpenAI 接口格式,直接填进 n8n 的 HTTP Request 节点就能用,我在上面的配置就是这么写的。验证完逻辑再决定要不要切换到自己的账号,成本最低。新用户注册即送体验 token,国产模型(Deepseek/千问等)完全免费使用。

但跑通之后,n8n 能做到的三件事,是 ChatGPT Workspace 完全做不到的:

1. 真正的条件分支:不同审核结果走不同路径,自动触发不同的后续动作

2. 持久化存储:审核记录写入 Notion,历史可查,支持统计分析

3. 主动推送通知:审核完成后自动发飞书消息,@具体责任人,不需要人工干预

---

两套方案正面对决:六个维度打分

| 维度 | ChatGPT Workspace | n8n | 说明 | |------|:-----------------:|:---:|------| | 上手时间 | ⭐⭐⭐⭐⭐ | ⭐⭐ | Workspace 20分钟可用;n8n 含部署需半天+ | | 多人协作能力 | ⭐⭐ | ⭐⭐⭐⭐⭐ | Workspace 无法分配任务/推送通知;n8n 原生支持 | | 流程灵活性 | ⭐⭐ | ⭐⭐⭐⭐⭐ | Workspace 无条件分支;n8n 可无限嵌套逻辑 | | 费用结构 | ⭐⭐⭐ | ⭐⭐⭐⭐ | Team版约¥140/人/月;n8n自托管仅服务器费+API调用费 | | 维护成本 | ⭐⭐⭐⭐⭐ | ⭐⭐ | Workspace 零维护;n8n 需要自己管服务器和更新 | | 与现有工具集成 | ⭐⭐ | ⭐⭐⭐⭐⭐ | Workspace Actions 配置复杂;n8n 原生支持400+集成 | 费用对比(粗略参考):
  • ChatGPT Team:约 $25/人/月(官方定价,按实际汇率折算)
  • n8n Cloud:$20/月起(有执行次数限制)
  • n8n 自托管:轻量云服务器约 ¥50-100/月 + API 调用费
核心结论:
  • 团队 < 5 人,流程相对固定,没有技术支持 → ChatGPT Workspace,别折腾
  • 团队有专属运营或技术人员,流程经常需要调整 → n8n,值得投入学习成本

---

给普通人的决策树

三个问题,问完就知道选哪个:

问题1:你的流程需要根据结果触发不同的后续动作吗?

├── 不需要(只要一个 AI 助手帮我判断)→ ChatGPT Workspace 够用

└── 需要 ↓

问题2:你的团队有人能处理偶尔的 JSON 报错或节点配置问题吗?

├── 没有(全是非技术人员)→ 考虑 Zapier/Make 等更友好的替代品

└── 有 ↓

问题3:你愿意花半天时间部署和调试,换取长期的灵活性吗?

├── 不愿意 → ChatGPT Workspace + 手动处理边缘情况

└── 愿意 → n8n,按本文步骤来

`` 最低成本验证方案:

如果你还不确定 n8n 是否适合你,不必一开始就买服务器。可以先:

1. 用 n8n Cloud 的免费试用版搭流程

2. 用 [api.884819.xyz](https://api.884819.xyz) 作为 AI API 中转(兼容 OpenAI 格式,注册即送 token)

3. 把完整流程跑通一次,确认逻辑没问题

4. 再决定是否迁移到自托管

这样你的前期投入几乎是零,验证完再做决定。

---

我的最终判断

跑完这两套方案,我得出了一个反直觉的结论:

零代码工具的天花板,往往比你想象的低得多。

ChatGPT Workspace Agents 的产品体验无可挑剔,但它的设计目标从来就不是"替代一个业务流程",而是"增强一个人的对话效率"。当你试图用它承载团队协作需求时,你实际上是在用一把瑞士军刀来切木头——不是工具不好,是你用错了场景。

n8n 的门槛是真实存在的,但它的上限也是真实存在的。一旦跑通,它能做的事情会让你觉得"之前那些手动操作都是在浪费生命"。

我们内容组现在用的是 n8n 方案。审核结果自动归档,责任人自动被 @,主编再也不用往群里扔截图了。

---

📌 下一篇预告

跑完这两套 Agent,我发现了一个没人认真讲过的问题:

当 AI 节点每天自动触发几百次,你的 token 消耗是怎么悄悄失控的——以及怎么在不降低审核质量的前提下,把费用砍掉一大截。

我已经在测了,数据比我预期的更离谱。

(下篇见。)

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI工具对比 #n8n #ChatGPT #自动化工作流 #内容审核 #Agent #8848AI #AI效率工具