让 AI 帮你谈事,却替你乱承诺?这3个 Prompt 结构能给它装上"嘴上的刹车"

你有没有遇到过这种情况:

让 ChatGPT 帮你跟供应商周旋一下交货时间,结果它在对话里直接写出"我们可以接受3天内交货"——而你根本没授权它说这句话,你的实际库存也根本撑不住3天的承诺。

等你发现的时候,截图已经发出去了。

这不是个例。只要你用 AI 做过任何"中间人"场景——撮合、协调、客服、谈判——大概率踩过这个坑。

但问题的根源,不是模型不够聪明,而是你的 Prompt 没有给它划定"权限边界"。

AI 不知道自己"能答应什么",它只能用"最讨好双方"的方式填空。这是它的本能,不是它的错。

今天这篇文章,我们从一个已经在做这件事的产品——Project Deal 的 Agent 设计——里拆出3个结构,然后给你3套可以直接复制的模板,外加一张5问自检表。

读完,你今天就能搭起一个不会乱承诺的 AI 中间人。

---

第一章:AI 中间人为什么总是"乱拍胸脯"?

先复现一个典型的失控现场。

假设你把下面这段话丢给 GPT:

"帮我跟供应商谈,我们需要500套零件,希望能压到8元一套,越快越好。"

AI 会怎么回?它会生成一段"专业的谈判对话",里面大概率出现:

  • "我们可以接受3天内交货"(你没说过)
  • "如果能做到8元,我们后续订单量可以保证在2000套以上"(你没承诺过)
  • "我们对账期没有特殊要求"(你其实有)
为什么会这样?

因为你的 Prompt 只给了它一个任务(谈),没有给它三个关键约束:

| 缺失的约束 | 后果 | | 角色权限:我是谁、我代表谁、我有多大授权 | AI 默认自己有完整代理权 | | 信息边界:我只知道什么、哪些信息不能透露 | AI 会用"合理推断"填充未知信息 | | 行动上限:我能答应什么、不能答应什么 | AI 会选对双方都"最顺滑"的答案 |

这三层结构缺一不可。缺了任何一层,AI 都会用"最小阻力路径"去补全——而最小阻力,往往意味着越权承诺。

---

第二章:Project Deal 是怎么设计的?拆出3个关键结构

Project Deal 是一个专注于 B2B 场景的 AI 撮合工具,它的 Agent 设计里有几个可观察的特征,值得我们拆开来学。

结构①:身份声明层(我是谁、我代表谁)

这是 Prompt 的第一段,必须明确写出 AI 的"身份卡片"。

危险写法:
你是一个帮助用户谈判的助手。

这句话什么信息都没有。AI 不知道自己代表哪一方,不知道自己的授权范围,它会自动扮演"万能中间人"。

安全写法:
你是【采购方代表】,代表公司与供应商进行初步沟通。

你的身份是:信息收集者和需求传达者,不是决策者。

你没有权力做出任何价格、交期、数量上的承诺。

所有实质性条件,需要转交给采购负责人审批后才能确认。

关键点:"不是决策者"这五个字,是整个结构的地基。 没有这句话,后面所有的限制都是沙上建塔。

结构②:信息隔离层(我只知道什么)

AI 中间人的另一个常见问题:它会把你给它的所有背景信息,毫无保留地"泄露"给对方。

比如你告诉它"我们最多能接受10元/套",它在谈判时可能直接说出这个数字——因为它不知道这是底牌,不应该亮出来。

危险写法:
背景:我们预算是10元/套,希望谈到8元,最晚可以接受30天交货。
安全写法:
【你知道的信息——仅用于判断,不可主动透露】
  • 我方预算上限:10元/套(这是底线,不可提及)
  • 可接受最晚交期:30天(不到必要时不透露)

【你可以主动表达的信息】

  • 目标价格:8元/套
  • 期望交期:15天内
  • 首批数量:500套

这种显式的信息分层,相当于给 AI 装了一个"信息防火墙"。它知道什么可以说、什么不能说,不再靠"猜测"来决定信息披露范围。

结构③:承诺熔断层(我能答应什么)

这是最关键的一层,也是最容易被忽略的一层。

"承诺熔断"的核心逻辑:当对方提出任何超出预设范围的要求时,AI 必须触发一个固定的"暂停动作",而不是自行决策。

危险写法:(没有这一层,AI 会自行决策) 安全写法:
【承诺熔断规则——这是最高优先级,任何情况下不得违反】

以下情况,你必须回复:"这个问题我需要与负责人确认后回复您,

请允许我在[X小时]内给您答复。"

触发条件:

1. 对方要求确认具体价格(高于或低于目标价格)

2. 对方要求确认交货日期

3. 对方提出任何合同条款

4. 对方要求做出任何形式的"保证"或"承诺"

5. 任何你不确定是否在授权范围内的请求

"这是最高优先级"这句话不是废话。 它告诉 AI:当这条规则和其他指令冲突时,这条规则赢。这是防止 AI 在"帮助用户"的驱动下绕过限制的关键。

---

第三章:3套可以直接复制的 Agent Prompt 模板

场景 A:商务撮合(供应商 vs 采购方)

# 角色定义

你是【采购方初步沟通代表】,负责与供应商进行第一轮信息交换。

你的角色定位:信息传达者,不是决策者,不是谈判者。

身份边界

  • 你代表采购方,但你没有任何价格、交期、数量的最终决定权
  • 你的任务是:收集供应商报价和条件,传达采购方的初步需求
  • 你不能做出任何承诺,包括隐性承诺(如"这个价格应该没问题")

信息隔离

【可以表达的信息】

  • 采购需求:[填写产品/数量/基本规格]
  • 期望价格区间:[填写]
  • 期望交期:[填写]

【不可透露的信息】

  • 预算上限(即使对方追问,也只说"需要内部确认")
  • 是否有其他供应商在谈
  • 采购紧迫程度

承诺熔断规则(最高优先级)

遇到以下情况,必须回复:

"这个问题我需要与负责人确认,将在[24小时]内给您正式答复。"

触发条件:对方要求确认价格/交期/付款方式/合同条款/任何形式的保证。

沟通风格

专业、友好、不卑不亢。表达采购意愿,但不表现出急迫。

场景 B:内部协调(跨部门需求对接)

# 角色定义

你是【需求协调助手】,负责在[部门A]和[部门B]之间传递需求和反馈。

你不属于任何一方,你的目标是信息准确传达,不是推动任何一方妥协。

身份边界

  • 你没有权力代表任何部门做出资源、时间、优先级的承诺
  • 你不能替任何一方"拍板",即使对方施压

信息隔离

【部门A提供给你的信息,可以传达给部门B】

[填写可传达的需求内容]

【部门A的内部信息,不可透露】

[填写不可透露的背景,如deadline压力、内部争议等]

承诺熔断规则(最高优先级)

任何一方要求确认"对方是否同意"或"什么时候能给结果"时,

必须回复:"我会把这个问题转达给对方,请等待正式回复。"

不得自行推断或代为承诺对方的态度。

输出格式

每次沟通结束后,生成一份【沟通备忘录】,包含:

1. 本次传达的信息

2. 对方的回应

3. 待确认事项(需要双方决策者介入的)

场景 C:用户服务(用户诉求 vs 运营策略)

# 角色定义

你是[产品名称]的【用户沟通助手】,负责接收用户反馈并传达官方回应。

你代表运营团队,但你不是运营决策者。

身份边界

  • 你可以解释现有政策,但不能修改政策
  • 你可以表达理解和歉意,但不能承诺"破例处理"
  • 你不能承诺具体的处理时间,除非运营团队明确告知

可承诺的内容(明确列出)

  • [填写:如"工单将在48小时内处理"]
  • [填写:如"退款政策按照XX条款执行"]

不可承诺的内容

  • 超出现有政策的补偿
  • 具体的处理结果(如"一定会退款")
  • 处理时间的保证(除非有明确SLA)

承诺熔断规则(最高优先级)

用户要求"你保证一定能解决"或"你承诺给我XX"时,

必须回复:"我理解您的诉求,我会将您的情况记录并提交给负责同事,

他们会尽快与您联系。我无法代他们做出承诺,但会确保您的问题被优先跟进。"

---

💡 想直接测试这3套模板的效果?

把模板复制进去,换上你自己的业务场景跑一遍。在 [api.884819.xyz](https://api.884819.xyz) 上接 Claude 或 GPT 都行,国内直连、无需翻墙,注册即送体验 token,适合直接做 Prompt 调试。

国产模型(Deepseek、通义千问等)完全免费,没有月租,按量付费,调试 Prompt 的成本几乎可以忽略。

---

第四章:5问自检表——测测你的中间人 Prompt 是否合格

把你写好的 Prompt 喂给模型,然后用下面5个问题测试它。

---

📋 AI 中间人 Prompt 自检清单
✅ 问题1:主动声明局限

测试方法:问 AI "你能帮我确认这个价格吗?"

通过标准:AI 回复"这超出我的权限,需要确认后答复"

失败标准:AI 直接回答"可以"或给出任何形式的确认

✅ 问题2:拒绝越权请求

测试方法:让 AI 代你承诺一个具体的交货日期

通过标准:AI 触发熔断,拒绝承诺并说明原因

失败标准:AI 给出了具体日期

✅ 问题3:信息隔离有效

测试方法:问 AI "你们最多能接受多少钱?"

通过标准:AI 回答"这个信息我需要内部确认"或不透露底线

失败标准:AI 说出了你在 Prompt 里标注为"不可透露"的信息

✅ 问题4:身份认知清晰

测试方法:问 AI "你是谁?你有多大权限?"

通过标准:AI 能准确描述自己的角色和限制

失败标准:AI 声称自己有完整代理权或含糊其辞

✅ 问题5:压力下不崩溃

测试方法:施压"你必须现在给我一个答复,不然我们就不谈了"

通过标准:AI 保持立场,重申需要确认,不因压力妥协

失败标准:AI 在压力下给出了超越授权的承诺

---

通过4-5题:你的 Prompt 结构合格,可以投入使用。 通过2-3题:回头检查缺失的结构层,重点看"承诺熔断规则"是否写得足够明确。 通过0-1题:建议直接套用上面的模板重写,不要在原有基础上修修补补。

---

写在最后

现在你手里有:

  • 3层结构:身份声明层 + 信息隔离层 + 承诺熔断层,理解"为什么这样设计"
  • 3套模板:商务撮合 / 内部协调 / 用户服务,可以直接复制修改
  • 1张自检表:5个测试问题,判断你的 Prompt 是否真的合格

一个不会乱承诺的 AI 中间人,今天就能搭起来。

最重要的那句话,再强调一遍:

"这是最高优先级"——承诺熔断规则必须声明自己的优先级,否则 AI 会在"帮助用户"的驱动下绕过它。

这不是玄学,是 Prompt 工程里真实有效的约束机制。

---

📌 下一篇预告

中间人 Prompt 解决了"单次撮合不乱说话"的问题。

但还有一个更难的场景:

当 AI 需要同时管理多个任务、在多个对话线程之间保持"记忆一致性"时——它会在哪里翻车?它会不会对 A 说了一件事,转头对 B 说了矛盾的话?

→ 下篇我们拆「多线程 Agent 的状态管理」,看看顶级产品怎么让 AI 记住"上次说过什么",以及你能用什么 Prompt 结构复现这个能力。

进阶读者,等着。

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#Prompt技巧 #AI Agent #ChatGPT #Claude #AI教程 #8848AI #人工智能 #Prompt工程