你以为自己会用 Prompt?Andrew Ng 说你可能还在用 2022 年的写法

你上一次认真审视自己的 Prompt 习惯,是什么时候?

大多数人的回答是:从来没有。

这很正常。我们学会一种写法,它有效,就沿用下去了。但问题在于,AI 模型这两年发生的变化,比任何人预期的都要剧烈——而我们的使用习惯,却几乎没动过。

Andrew Ng 在一次公开访谈中说过一句让我印象深刻的话(大意):

"很多人以为自己在使用 AI,但他们实际上是在用一个自己脑子里构建的、关于 AI 的过时模型。"

这句话的杀伤力在于:它不是在说你没学过 Prompt,而是说你学过的那套东西,已经对不上现在的模型了。

2022 年,GPT-3.5 刚出来,能把一句话理解清楚就算厉害。你写"帮我写一篇文章",它能出来个大概就不错了。但 2025 年,Claude Opus 4.6GPT-5.2Gemini 3.1 Pro 这些模型的推理深度、上下文理解、指令跟随能力,早已不是一个量级。

模型在进化,但大多数用户的 Prompt 直觉还停在原地。

这篇文章,就是要帮你把这个滞后补回来。

---

习惯一:从"命令式"到"协作式"——别再把 AI 当搜索框

2022 年的用户怎么写 Prompt?

帮我写一篇关于气候变化的文章

就这一句。然后期待 AI 猜你要什么风格、什么长度、什么受众、什么观点倾向。

这不是在用 AI,这是在用一个高级搜索框——你扔一个关键词,等它返回一个结果。

2025 年的正确姿势是:把 AI 当一个有能力、但需要足够信息才能发挥的协作者。

同一个需求,来看两种写法的差距:

旧写法(命令式):
帮我写一篇关于气候变化的文章
新写法(协作式):
我需要写一篇关于气候变化的科普文章。

背景:

  • 读者是高中生,没有专业背景
  • 发布在学校公众号,字数 800-1000 字
  • 重点讲"碳排放与日常生活的关系",不要堆数据

风格要求:

  • 口语化,有代入感,避免说教
  • 开头用一个生活场景切入
  • 结尾给读者一个"今天就能做到的小行动"

请先给我一个大纲,确认方向后再展开正文。

这两个 Prompt 的输出质量差距,不是 10%,是量级上的不同。

前者给你的是一篇"气候变化百科词条";后者给你的是一篇真正能发出去的文章。

核心转变是什么?

你从"发出指令"变成了"提供上下文"。模型不是在猜你要什么,而是在真正理解你要什么。这需要你主动给:目标、受众、约束、格式偏好,以及——你期望的工作流程(比如"先给大纲再写正文")。

---

习惯二:从"一次性提问"到"迭代对话"——Prompt 不是句子,是流程

早期有一个普遍的心理预设:Prompt 写得越好,一次性得到的答案越完整,才算"用得好"。

这个预设现在已经过时了。

现代大模型支持深度的多轮推理和自我修正。把复杂任务塞进一个超长 Prompt,不如把它拆成一条对话链,让 AI 在每一步确认后再推进。

什么时候该追问,什么时候该重置上下文?

这是很多人没想清楚的判断点。给你一个简单框架:

| 情况 | 建议操作 | | AI 的回答方向对,但细节不够 | 追问,在当前对话里继续 | | AI 的回答偏了,但整体理解还在 | 纠正 + 补充约束,继续对话 | | AI 的回答完全跑偏,或上下文积累了太多错误假设 | 开新对话,重新给上下文 | | 任务切换,和上一个话题完全无关 | 开新对话 | 一个实际案例:

假设你要让 AI 帮你设计一个产品功能方案。

❌ 错误做法:一次性把所有要求塞进去,得到一个"大而全但没有灵魂"的方案。

✅ 正确做法:

1. 第一轮:描述产品背景和核心问题,让 AI 先理解场景,输出它对问题的理解

2. 确认:你检查 AI 的理解是否准确,纠正偏差

3. 第二轮:在确认的基础上,让 AI 提出 3 个方向,不展开

4. 选择:你选一个方向,说明原因

5. 第三轮:深入展开选定方向,细化方案

这个流程下来,你得到的方案质量,会远超一次性提问的结果。

⚠️ 重要提示:对话链越长,越要注意"上下文污染"——早期对话里的错误假设会影响后续输出。如果发现 AI 开始绕圈子,果断开新对话。

---

习惯三:从"要答案"到"要过程"——让 AI 展示推理,别直接给结论

2022 年,CoT(Chain of Thought,链式思维)是一个需要专门学习的高级技巧。研究人员发现,在 Prompt 里加上"让我们一步一步思考",可以显著提升模型在推理任务上的表现。

2025 年,这不再是技巧,而是基础配置

但问题是:大多数用户还是在直接要结论。

这段代码为什么报错?
这个商业方案可行吗?
这份数据说明了什么?

这三种问法,AI 都会给你一个答案。但这个答案是怎么来的?推理链条是否合理?有没有跳过关键步骤?你不知道,因为你没要求它展示。

改一个字,质量大不同: 旧写法:
这段代码为什么报错?

[代码粘贴]

新写法:
这段代码报错了,请帮我分析原因。

要求:

1. 先描述你对这段代码逻辑的理解

2. 说明你认为错误最可能出现在哪里,以及为什么

3. 给出修复方案,并解释修复的原理

4. 如果有多种可能的原因,请都列出来,按可能性排序

[代码粘贴]

为什么这样更好?

因为当 AI 展示推理过程时,你可以在中间发现它走偏的地方,及时纠正,而不是等到最后拿到一个"看起来有道理但其实错了"的结论。

这在代码调试、方案分析、数据解读这类高风险任务里尤其重要——AI 的"自信错误"比"承认不确定"更危险。

一个通用模板:
[任务描述]

请按以下步骤回答:

1. 先说明你对这个问题的理解和关键假设

2. 描述你的分析思路

3. 给出结论,并说明置信度

4. 列出你认为我还应该考虑的因素

---

习惯四:从"通用 Prompt"到"模型感知"——不同模型要用不同语言

这是最容易被忽视,但拉开差距最明显的一个习惯。

很多人有一套"万能 Prompt 模板",在所有模型上套用。这没有错,但这是在浪费每个模型最擅长的那部分潜力。

不同模型有不同的"指令敏感区",就像不同的人有不同的沟通风格——你和一个喜欢直接说结论的人聊天,和一个喜欢先铺背景的人聊天,策略应该不一样。

主流模型指令风格对照: | 模型 | 最吃哪种写法 | 避免的写法 | 一句话特点 | | GPT-5.x 系列 | 结构清晰的指令,明确角色和输出格式 | 过于模糊的开放式问题 | 执行力强,需要你告诉它"怎么做" | | Claude Opus/Sonnet | 自然语言描述,给足背景和意图 | 过于机械的格式化指令 | 理解力强,你说"为什么"它会更好 | | Gemini 3.x 系列 | 明确的任务边界,善用多模态输入 | 过长的单段落 Prompt | 多模态整合强,任务分解要清晰 | | Deepseek R1 | 逻辑推理链,数学/代码类任务 | 创意类开放性写作 | 推理深度强,适合严谨分析 | 怎么快速测出当前模型的"偏好"?

用同一个任务,试三种写法:

1. 简洁版:一句话描述需求

2. 结构版:分点列出背景、要求、格式

3. 对话版:像和人说话一样描述,带上你的想法和困惑

哪种写法出来的结果最符合你的期望,这个模型就偏好哪种风格。花 10 分钟做这个测试,能帮你在后续节省大量时间。

---

💡 想直接练手?

文中所有 Prompt 模板都可以在 [api.884819.xyz](https://api.884819.xyz) 上实测——支持 GPT-5.x / Claude Opus 4.6 / Gemini 3.1 Pro / Deepseek R1 多模型切换,正好用来验证第四个习惯里说的"模型感知"差异。新用户注册即送体验 token,国产模型完全免费,没有月租。

---

收尾:习惯改变的本质,是建立"元认知"

说了四个习惯,但我不希望你把这篇文章当成一份"模板清单"背下来。

真正重要的是这一层认知:

每次模型大版本更新,你都需要重新校准自己的 Prompt 直觉。

模型在进化,你的用法也要跟着进化。这不是一次性的学习,而是一种持续的校准意识。

Andrew Ng 的原话背后有一个更深的意思:我们对 AI 的认知,很容易被早期经验锁死。你第一次用 ChatGPT 时形成的直觉,会成为你后来用所有 AI 工具的默认框架——除非你主动打破它。

---

30 天 Prompt 自我审计清单

把这个截图收藏,每周花 10 分钟对照检查:

第 1 周:审计"命令式"习惯
  • [ ] 我最近的 Prompt 里,有没有给出受众信息?
  • [ ] 有没有说明输出格式要求?
  • [ ] 有没有给 AI 一个明确的角色设定?
第 2 周:审计"一次性提问"习惯
  • [ ] 我有没有在得到第一个回答后就停止,其实还可以追问?
  • [ ] 我有没有在对话跑偏时及时重置,而不是硬撑?
  • [ ] 复杂任务我有没有拆成多步?
第 3 周:审计"要结论"习惯
  • [ ] 高风险任务(代码/方案/数据)我有没有要求 AI 展示推理过程?
  • [ ] 我有没有在 AI 给出结论后,追问"你的依据是什么"?
  • [ ] 我有没有让 AI 列出它的假设?
第 4 周:审计"通用 Prompt"习惯
  • [ ] 我有没有针对不同模型调整过写法?
  • [ ] 我有没有做过"同一任务,三种写法"的对比测试?
  • [ ] 我知道自己最常用的模型偏好哪种指令风格吗?

---

模型在进化,你也在进化。

这四个习惯,不是终点,而是下一阶段的起点。

---

说完了怎么"写" Prompt,下一篇我们聊一个更底层的问题:

>

当 AI 开始能自己写 Prompt、自己调用工具——我们还需要学 Prompt 吗?

>

Agent 时代的提示词逻辑,和你现在学的完全是两套体系。如果你以为 Prompt 工程师会消失,你可能又低估了一件事。

>

下周见。

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#Prompt技巧 #AI学习 #ChatGPT #Claude #8848AI #人工智能 #AI教程 #提示词工程