Prompt 进阶课:用 Chain of Thought 模板,让 AI 从"答题机器"变成"思考伙伴"
Prompt 进阶课:用 Chain of Thought 模板,让 AI 从"答题机器"变成"思考伙伴"
上周有个读者给我发消息,语气里带着点委屈:"我问 AI 同一个问题,它有时候对、有时候错,到底是模型不稳定,还是我运气不好?"
我让他把 Prompt 截图发过来,看了一眼就明白了——问题不在 AI,在他的问法。
他的 Prompt 是这样的:
"这个合同条款有没有问题?"
然后附上了一段密密麻麻的合同文字。AI 给了一个四平八稳的回答,既没说有问题,也没说没问题,绕了一圈等于什么都没说。
这不是 AI 不聪明。这是你没给它"思考空间"。
只需要在 Prompt 里加几句话,AI 的表现会判若云泥。 这几句话,有个名字叫 Chain of Thought。---
一、为什么 AI 总给你"模糊答案"?
大多数人用 AI 的姿势是这样的:直接抛问题,等答案。
这个逻辑本身没错,但它忽略了一件事:AI 生成回答的方式,是在预测"最可能的下一个词"。当你的问题缺乏结构,AI 就会走最省力的路径——给一个看起来合理、实际上泛泛而谈的答案。
来看一个直观对比:
同一个问题,两种问法: | 维度 | 普通 Prompt | CoT Prompt | | 输入 | "A 方案和 B 方案哪个好?" | "请逐步分析 A/B 两方案,先拆解关键要素,再评估各自风险,最后给出建议" | | 输出逻辑层级 | 1-2 层(结论+简单理由) | 4-5 层(要素→分析→风险→权衡→结论) | | 准确率(复杂推理任务) | 基准水平 | 提升 30-200%(视任务复杂度) | | 幻觉风险 | 较高 | 降低约 30-40% |差距不是一点点。
---
二、Chain of Thought 是什么?3 分钟搞懂原理
CoT(Chain of Thought,思维链)这个概念,来自 Google 2022 年发表的一篇论文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》。
论文里有一个让人印象深刻的数据:在数学推理任务上,加入 CoT 提示后,模型准确率从 17.9% 直接跳到 58.1%。 同一个模型,同一个问题,问法不同,准确率相差 3 倍多。
原理其实很直觉:
想象你在解一道数学题。如果你直接在脑子里算,很容易出错;但如果你把每一步写下来——已知条件、中间推导、验算过程——出错的概率会大幅降低。
CoT 对 AI 做的事情完全一样。它强迫模型在给出最终答案之前,先把推理过程"写出来"。 这个"写出来"的动作,让模型在生成每一步的时候,都能参考前面已经确认的内容,而不是凭感觉跳到结论。
一句话总结:CoT 不是让 AI 更聪明,而是让 AI 把聪明用对地方。
---
三、三套 CoT 核心模板(直接复用)
这是本文最重要的部分。我把三套模板设计成"填空题"的形式——你只需要换掉 {} 里的内容,其余结构保持不变。
模板一:逻辑判断类
适用场景:真假命题分析、因果推断、合同/条款风险识别。
【任务背景】:{描述具体情境,例如:这是一份为期两年的房屋租赁合同}
【核心问题】:{你需要判断/分析的问题,例如:其中第7条关于押金退还的条款是否存在风险}
请按以下步骤进行分析:
第一步:拆解问题的关键要素
第二步:逐一分析每个要素的影响
第三步:识别潜在的矛盾或风险点
第四步:综合以上分析,给出结论
第五步:说明你对这个结论的置信度及原因
最终输出格式:结论摘要(不超过3句话)+ 详细推理过程
模板二:商业决策类
适用场景:多方案选型、资源分配、产品策略决策。
我需要在以下方案中做出选择:
方案A:{描述,例如:自建技术团队开发内部系统}
方案B:{描述,例如:采购 SaaS 工具直接上线}
请扮演一位拥有10年经验的{领域,例如:企业数字化转型}顾问,
按照以下框架分析:
→ 短期影响(0-3个月)
→ 长期影响(1年以上)
→ 最大风险点
→ 我可能忽略的隐藏因素
→ 你的最终建议及核心理由(一段话,不超过100字)
模板三:数据分析类
适用场景:从数字/现象推导结论,避免"数据堆砌、没有洞察"。
以下是一组数据/现象:
{粘贴你的数据或描述,例如:我们产品上个月 DAU 下降了 18%,但付费转化率上升了 5%}
请一步一步地思考这组数据背后的逻辑:
1. 这组数据说明了什么表面现象?
2. 可能导致这种现象的原因有哪些?(至少列出3种假设)
3. 哪种假设最有可能是真实原因?依据是什么?
4. 如果你的判断正确,接下来会发生什么?
5. 给出一个可验证的行动建议。
💡 这些模板在 Claude Sonnet 4.6、GPT-5.2 等主流模型上效果最佳。如果你还没有稳定的 API 访问渠道,可以试试 [api.884819.xyz](https://api.884819.xyz)——注册即送 5 元体验额度,支持多模型切换,直接用 API 跑今天的模板,效率翻倍。
---
四、三个真实场景实战演示
🔧 以下演示均在标准 API 环境下完成。如果你想自己动手复现这些案例,推荐用 [api.884819.xyz](https://api.884819.xyz) 调用,稳定且支持最新模型版本。
场景一:识别租房合同风险点
Prompt 输入(使用模板一):【任务背景】:这是一份北京某中介公司提供的标准租房合同,租期两年,月租8500元。
【核心问题】:合同第9条写道:"租户提前退租须提前60天通知,并赔偿房东两个月租金。
但若房东提前收回房屋,仅需提前30天通知,无需赔偿。"这条款是否存在风险?
请按以下步骤进行分析:
第一步:拆解问题的关键要素
第二步:逐一分析每个要素的影响
第三步:识别潜在的矛盾或风险点
第四步:综合以上分析,给出结论
第五步:说明你对这个结论的置信度及原因
AI 输出节选(CoT 关键句已标注):
第一步:关键要素拆解
- 租户提前退租:60天通知 + 赔偿2个月租金(17,000元)
- 房东提前收回:30天通知 + 零赔偿
>
第三步:风险识别 ← 这里是 CoT 发挥作用的核心环节
- 权利严重不对等:租户承担的违约成本是房东的无穷倍(有限赔偿 vs 零赔偿)
- 隐性风险:房东可在你装修入住、生活稳定后随时以"自住"为由收回,成本极低
- 法律层面:根据《民法典》合同编,显失公平的条款可申请撤销,但举证成本较高
>
结论摘要:该条款对租户极为不利,建议签约前要求修改为"双方提前退出均需60天通知+等额赔偿",否则建议放弃该房源。置信度:90%(基于合同文本,不排除地方性法规影响)。
没有 CoT,AI 大概率会说"建议仔细阅读合同条款,必要时咨询律师"——正确但无用。有了 CoT,它给了你一个可以直接带去谈判桌上的结论。
---
场景二:HR 评估候选人是否适合岗位
Prompt 输入(使用模板二变体):我需要决定是否录用以下候选人担任我们公司的产品经理(B端 SaaS,团队5人,初创阶段):
候选人情况:
- 5年产品经验,全在大厂(腾讯、字节)
- 主导过日活千万级 C 端产品
- 零 B 端经验,零初创经验
- 薪资期望:月薪35K,比我们现有 PM 高40%
请扮演一位拥有10年经验的人才招聘顾问,按以下框架分析:
→ 短期影响(0-3个月)
→ 长期影响(1年以上)
→ 最大风险点
→ 我可能忽略的隐藏因素
→ 你的最终建议及核心理由
AI 的回答会系统性地指出:大厂 C 端 PM 进入 B 端初创的适应周期通常在 6-9 个月,这段时间团队士气和薪资公平性都会承压;同时会提醒你一个"隐藏因素"——这位候选人选择你们,本身可能说明他在大厂遇到了天花板,动机需要深入了解。
这个角度,很多 HR 在面试时都不会主动想到。
---
场景三:判断一条商业新闻的真实影响
Prompt 输入(使用 Zero-shot CoT):新闻标题:"某新能源车企宣布明年交付量目标上调50%,股价当日涨8%"
请一步一步地思考这条新闻背后的真实逻辑,在给出最终判断之前,
先分析:这个目标调整对公司实际经营意味着什么?股价上涨是否合理?
CoT 关键句: "请一步一步地思考……在给出最终判断之前,先分析" ——这就是 Zero-shot CoT 的万能触发句,不需要复杂模板,一句话激活推理链。
AI 会自动拆解:产能是否支撑、历史完成率如何、市场竞争格局、股价上涨是否是情绪驱动……而不是简单复述新闻内容。
---
五、进阶技巧:让 CoT 效果再翻倍的 4 个细节
掌握了基础模板之后,这四个细节能帮你把 CoT 的效果推到更高一层。
1. Zero-shot CoT:万能触发句
不想写完整模板?记住这一句:
请一步一步地思考这个问题,在给出最终答案之前,先列出你的推理过程。
研究表明,这句话本身就能激活模型的推理能力,适合快速场景。
2. Self-Consistency:多路径验证
对于高风险决策,让 AI 用不同的推理路径回答同一个问题两到三次,然后比较结论是否一致。如果三次推理都指向同一个结论,置信度大幅提升;如果结论不一致,说明问题本身存在歧义,需要你进一步澄清条件。
3. 角色绑定 CoT
在 CoT 模板前加上角色设定,效果会更精准:
你是一位有15年经验的风险投资人,习惯用第一性原理思考问题。
请一步一步分析以下商业计划书的核心假设是否成立……
角色绑定让 AI 的推理视角更聚焦,减少泛泛而谈的概率。
4. AI 自我纠错 CoT
在 AI 给出初步答案后,追加一个 Prompt:
请重新审视你刚才的推理过程,找出其中最可能存在问题的环节,
并说明如果这个环节的假设是错的,结论会如何改变。
这个技巧本质上是让 AI 做"压力测试",在重要决策前使用,能有效降低因为 AI 过度自信导致的误判风险。
---
六、现在就去试
现在你已经掌握了一件大多数人不知道的事——不是让 AI 给你答案,而是让 AI 陪你思考。
这个区别,决定了你能从 AI 身上榨取多少真正的价值。
前者得到的是一个结论;后者得到的是一套推理过程——你可以质疑它、修改它、把它变成你自己的判断。
把今天的三套 CoT 模板存下来,打开 [api.884819.xyz](https://api.884819.xyz),用你自己的真实问题跑一遍。理论变成肌肉记忆,只需要 10 分钟。注册即送 5 元体验额度,国产模型(Deepseek R1、通义千问 Qwen3)完全免费,按量付费,没有月租。
---
📖 下期预告
>
CoT 让 AI 学会"想清楚再说"——但如果你想让 AI 主动发现你自己都没意识到的问题呢?
>
下一篇,我们聊一个更狠的技巧:「反向提问法」——让 AI 来质疑你的假设。很多人用了之后说,这才是 Prompt 工程真正的天花板玩法。
>
关注我,下周见。
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI教程 #Prompt技巧 #ChainOfThought #人工智能 #8848AI #AI学习 #提示词工程 #AI效率