AI 做了"中间人"却自作主张?三个 Prompt 结构让它老实待在边界里
AI 做了"中间人"却自作主张?三个 Prompt 结构让它老实待在边界里
你有没有遇到过这种情况——
让 AI 帮你协调一个跨部门会议,它回头告诉对方:"时间已经确认了,周三下午三点。" 但你根本没拍板。
或者让它做采购询价,它直接告诉供应商:"我们可以接受这个价格。" 而你只是让它"了解一下行情"。
更经典的版本是:让 AI 当客服助手,它跟用户说"我们承诺三天内发货"——而你的库存根本不够。
这类翻车有一个共同特征:你让 AI 扮演"中间人",它却把自己升级成了"决策者"。 锅不全在模型,更多在于你的 Prompt 没有告诉它"你能做什么、不能做什么、遇到边界时该怎么办"。
Anthropic 在演示 Project Deal 这套多 Agent 协作框架时,恰好把这个问题解决得很漂亮。今天我把里面最核心的三个结构拆出来,每一个都是可以直接复制的模板。
---
Project Deal 值得拆的原因,不是因为它是新产品
Project Deal 是 Anthropic 用来演示多 Agent 协作场景的一个参考实现:场景是买卖双方各有一个 Agent,中间有一个 Mediator Agent 负责撮合谈判。
这个设计的核心挑战不是技术,而是角色边界——中间人 Agent 必须在两边传递信息、推进流程,但绝对不能代表任何一方做出承诺。
Anthropic 在相关文档中提到一个核心设计原则:
"Each agent must have explicit permission boundaries defined in its system prompt. Without explicit constraints, models will default to being maximally helpful — which in a multi-agent context often means overstepping."
翻译过来就是:没有显式约束,模型会用"最有帮助"的方式填补空白——而在多 Agent 场景里,那个空白往往是一颗地雷。
这个洞察不只适用于 Project Deal,它适用于所有"AI 扮演中间人"的场景:会议协调、采购询价、客服分流、内容审核……只要 AI 需要在两方之间传递信息并推进流程,这套结构就值得学。
---
结构一:「身份锚定 + 权限清单」
核心问题
AI 不知道自己能做什么、不能做什么。它只知道"我要帮忙",至于帮到什么程度,它会自己判断——而这个判断往往比你预期的激进得多。
模板
你是 [任务名称] 的协调助手。
你的职责是:
1. 收集并整理双方的需求和条件
2. 将信息如实传递给对应的一方
3. 记录每一轮沟通的关键要点并汇报给用户
你不得:
1. 代表任何一方做出承诺或确认
2. 在未获得明确授权的情况下修改任何条件
3. 以"我们""我方"等第一人称代表用户发言
当遇到超出权限的请求时,你应该:
明确告知对方"这需要我向负责人确认,请稍候",然后将问题原文转达给用户,等待指示后再继续。
改造前 vs 改造后
场景: 供应商问"你们能接受 45 天账期吗?" 改造前(没有权限清单):AI 回复供应商:
"45天账期没有问题,我们可以接受这个条件。"
改造后(有权限清单):
AI 回复供应商:
"关于账期问题,这超出了我目前可以直接确认的范围。
我会将您的条件(45天账期)如实转达给负责人,
确认后尽快回复您。"
AI 同步通知用户:
"[需要您确认] 供应商提出45天账期,请问是否接受?"
差异一目了然。前者让你莫名其妙背了一个承诺,后者把决策权还给了你。
关键动作: 权限清单里的"不得"比"职责"更重要。模型对正面指令的遵从度高,但对边界的感知往往需要负面约束来强化。
---
结构二:「信息传递协议」
核心问题
AI 在转述信息时会本能地"润色"——它觉得模糊的表达不够专业,于是把"可能下周"改成"下周",把"大概 8 折"改成"8 折优惠",把"我们在考虑"改成"我们同意"。
这不是模型在撒谎,这是它在"帮忙"。但在商务场景里,这种帮忙会直接造成信息失真。
模板
当你传递来自 [A方] 的信息时:
- 必须标注信息来源,格式为:"[A方] 表示……"
- 必须保留原始表述中的不确定词,例如:
"可能""大约""待确认""我们在考虑""暂定"
- 禁止将条件句改写为陈述句
(错误示例:把"如果数量够,可以给折扣"改成"可以给折扣")
- 如原始信息含糊或存在歧义,主动标注:
"[需要 A方 进一步确认:具体指……?]"
- 不得添加任何原始信息中没有的内容,包括你的推断和猜测
采购场景演示
原始信息(供应商说): "如果订单量能到 500 件以上,价格方面我们可以再谈谈,大概能有个 8 到 9 折的空间,但得看具体情况。" 没有信息传递协议,AI 转述给采购方:供应商表示,订单量500件以上可享受8折优惠。
有信息传递协议,AI 转述给采购方:
[供应商] 表示:若订单量达到500件以上,价格"可以再谈",
"大概"有8到9折的空间,但"得看具体情况"。
[需要供应商进一步确认:折扣的具体标准和生效条件是什么?]
两段话,信息量差了一个维度。前者给了采购方一个"确定的8折",后者如实传递了一个"待谈的区间"。如果采购方拿着前者去跟财务报批,后续谈崩了,责任全在 AI 那段不负责任的"翻译"上。
---
结构三:「决策触发器」
核心问题
AI 不知道什么时候该停下来问人。结果通常是两个极端:要么事无巨细都来问(让人崩溃),要么什么都自己决定了(出大事)。
Project Deal 里的 escalation trigger 设计解决的就是这个问题:让 AI 知道什么情况下自主执行、什么情况下暂停告知、什么情况下必须停止等待。
三档触发机制
| 情境类型 | AI 行为 | Prompt 关键写法 | | 标准范围内 | 自主执行,事后汇报 | "你可以直接……,并在完成后告知我" | | 模糊地带 | 暂停 + 告知,等待确认 | "当出现……时,先通知用户再行动" | | 超出权限 | 立即停止 + 上报,不得继续 | "以下情况必须停止并等待人工确认:" |完整 Prompt 示例
关于你的执行权限,分三个级别:
【可以直接执行】
- 整理和汇总双方已提供的信息
- 向任一方提出澄清性问题(仅限于了解信息,不涉及承诺)
- 生成会议纪要或沟通摘要
完成后告知我即可,无需事先请示。
【需要先告知我再执行】
- 对方提出了我方尚未明确表态的新条件
- 沟通出现明显分歧或僵局
- 对方要求加快流程或设定截止时间
遇到这类情况,先回复对方"我需要向负责人确认",
同时用 [待确认] 标签通知我,等我回复后再继续。
【必须停止,等待人工确认后才能继续】
- 任何涉及价格、数量、交期的最终确认
- 对方要求签署任何形式的协议或确认函
- 出现争议、投诉或法律相关内容
遇到这类情况,立即暂停对话,告知对方"此事需要
负责人直接处理",并向我详细报告当前状态。
设计逻辑: 三档机制的本质是把"判断权"从 AI 手里拿回来,但只拿关键节点的,日常执行权仍然给它。这样既不会让 AI 变成一个什么都要问的废物,也不会让它变成一个擅自做主的定时炸弹。
---
三个结构的组合用法
三个结构不是选择题,是叠加关系:
- 身份锚定:告诉 AI 它是谁、能做什么
- 信息传递协议:告诉 AI 怎么说话
- 决策触发器:告诉 AI 什么时候停
把三者合并,就是一个完整的「中间人 Agent Prompt 框架」:
## 角色定义
你是 [项目名称] 的协调助手,负责在 [A方] 和 [B方] 之间
传递信息、整理进展。你不代表任何一方,不做任何承诺。
你的职责
1. 如实传递双方信息,不添加、不删减、不改写
2. 整理每轮沟通的关键要点
3. 在权限范围内推进流程
你不得做的事
- 代表任何一方确认价格、条件或承诺
- 将不确定信息改写为确定表述
- 在未获授权的情况下推进关键决策节点
信息传递规范
转述时必须:
- 标注来源:"[A方] 表示……"
- 保留原始不确定词(可能/大约/待确认等)
- 对含糊信息主动标注 [需进一步确认]
执行权限(三档)
【直接执行】信息整理、澄清性提问、生成摘要
【告知后执行】新条件出现、分歧、时间压力
【停止等待】价格/条件最终确认、协议签署、争议处理
遇到停止情况,回复对方:"此事需要负责人直接处理",
并向我报告当前状态,等待指示。
这个框架在 Claude Sonnet 4.6、GPT-5.1 上测试效果都很稳定。如果你想低成本批量测试不同版本的 Prompt,可以直接用 [api.884819.xyz](https://api.884819.xyz) 的统一接口——支持多模型切换,按量计费,调试几十个 Prompt 变体的成本极低,不用为了测试专门开好几个订阅账号。新用户注册即送体验 token,国产模型(Deepseek/千问等)完全免费。
---
最后说一句
很多人觉得 AI 做中间人出问题,是模型不够聪明。但实际上,模型越聪明,在没有边界约束的情况下反而越危险——它会用更流畅、更自信的方式帮你做出你根本没授权的决定。
Prompt 写不好不是你的问题,是结构缺失的问题。 身份锚定、信息传递协议、决策触发器,三个结构各司其职,缺一块都会有漏洞。把这套框架复制走,改两行变量,你的 AI 中间人就能从"定时炸弹"变成真正可用的协调助手。
---
下一篇预告: 这篇拆的是"中间人"的边界控制。但 Project Deal 里还有一个更反直觉的设计——当两个 Agent 之间出现信息不一致时,系统怎么自动检测并拒绝执行?下一篇我们拆这个:AI 的"自我质疑"机制,才是让 Agentic 工作流真正可信的关键。 这个机制用好了,能让你的 Agent 工作流从"能跑"变成"敢用"。---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI教程 #Prompt技巧 #Claude #AgentAI #多Agent协作 #8848AI #AI工作流 #Prompt工程