你用2022年的方式写Prompt,正在把2026年的AI当计算器用

同样在用ChatGPT,同样花了半小时,你的同事交出了一份逻辑清晰、细节到位的竞品分析报告,你交出的是一堆需要大改的草稿。

你第一反应是:他用了什么模型?

但打开他的对话记录,你发现模型一样。差距在Prompt。

这种挫败感,在AI工具普及的这两年越来越常见。不是你不努力,而是你的写法还停留在早期那批用户摸索出的"够用就行"阶段——那套方法在2022年够用,在今天的模型面前,是在主动浪费算力。

Andrew Ng(吴恩达)在DeepLearning.AI的系列课程和公开访谈中多次强调一个判断:Prompt工程不是一个固定技能,它随着模型能力的提升在持续演化。早期用户建立的那套直觉,在更强的模型面前,反而可能成为障碍。

这篇文章,我把他反复提到的几个核心转变拆解出来,配上可以直接复制使用的模板。三个改法,今天改,下周就能感受到差距。

---

第一章:从"一句话指令"到"给AI一个完整的工作场景"

旧写法长什么样?

2022年的典型Prompt是这样的:

帮我写一篇关于新能源汽车的文章

这句话能用,但你拿到的结果往往是一篇"教科书式"的泛泛而谈——因为你给AI的信息,不足以让它做出任何有价值的判断。它不知道你的读者是谁,不知道文章发在哪里,不知道你想要什么角度,于是它选择了最安全的方式:什么都写,什么都不深。

新写法的底层逻辑

Andrew Ng在课程中反复强调一个概念:给模型提供"可执行的工作场景",而不是"任务标签"

这意味着你的Prompt需要包含三个维度:

  • Who:AI在这个任务里扮演什么角色?
  • What:具体任务边界是什么?要做什么,不做什么?
  • Constraint:有哪些硬性约束?格式、字数、语气、禁止事项?

对比示例

旧写法:
帮我写一篇关于新能源汽车的文章
新写法:
你是一位专注科技消费领域的媒体编辑,读者是25-35岁的城市白领,

他们关注购车决策但对技术细节不感兴趣。

任务:写一篇分析2025年新能源汽车购车时机的文章,

重点回答"现在买还是再等一年"这个问题。

约束:

  • 不要堆砌技术参数
  • 不要写品牌背书式的内容
  • 结论要明确,给出可操作的判断依据
  • 1200字以内,分3-4个小节
💡 关键差异:旧写法让AI自己猜你要什么;新写法让AI知道它在为谁服务、在什么场景下服务、什么不能做。后者拿到的输出,直接可用率会高出一个数量级。

这个框架不复杂,但需要你在写Prompt之前先想清楚这三个问题。这10秒钟的思考,能省掉后面30分钟的反复修改。

---

第二章:从"一次提问等答案"到"让AI审查自己的输出"

大多数人用AI的方式

发一条Prompt,等AI输出,觉得不满意,换个说法重新发。

这个循环的问题在于:你在用自己的判断力来弥补AI的不足,但你的判断力本来就是有盲区的——否则你也不需要AI了。

链式思维的核心操作

Andrew Ng在多个场合提到Chain-of-Thought(链式思维)的价值,其中一个对普通用户最实用的应用,是让AI对自己的输出进行批评性审查。

斯坦福和Google的研究显示,加入自我反思步骤的提示,能显著提升模型在复杂推理任务上的准确率——原理是让模型在"生成"和"验证"两个模式之间切换,而不是一次性输出就结束。

具体操作极其简单:在任何Prompt结尾加一句话。

完成后,请列出你认为这个回答最薄弱的3个地方,以及改进建议。

对比示例

不加这句话的输出结构:

AI给你一个"完成的答案",看起来很完整,但其中可能有逻辑跳跃、数据缺失、论点不充分的地方——AI不会主动告诉你。

加了这句话的输出结构:

AI先给出答案,然后主动说:

"这个回答的薄弱点在于:1)第二部分的数据来源未注明;2)对竞争对手的分析过于表面;3)结论部分缺乏具体的行动建议……"

这一步让AI从"完成任务"变成"负责任地完成任务"。更重要的是,AI指出的薄弱点,往往正是你自己看不出来的地方。

你可以把这句话保存为固定后缀,贴到每一个重要Prompt的结尾:

[自我审查后缀]

完成以上任务后,请用批评性视角审查你的输出,

列出3个你认为最需要改进的地方,并给出具体的改进方向。

---

第三章:从"问问题"到"给AI喂结构化的原材料"

2022年的假设

早期用户有一个隐含假设:AI什么都知道,所以只需要告诉它"做什么"就够了。

这个假设在简单任务上成立,在专业任务上会让你碰壁。

2026年的正确姿势

Andrew Ng在课程中反复强调的一个原则:你先做10%的结构化整理,AI帮你完成剩下90%

这个10%,是把你脑子里模糊的需求,整理成AI能直接处理的结构化信息。

四段式喂料框架:
【背景】:这个任务发生在什么情境下?

【目标】:你希望最终拿到什么?

【已知信息】:你已经有哪些素材/数据/约束?

【期望格式】:输出应该长什么样?

对比示例

旧写法:
帮我写一个产品推广方案
新写法(四段式喂料):
【背景】

我们是一家做B端SaaS的创业公司,产品是面向中小企业的HR管理工具,

目前有200家付费客户,平均客单价8000元/年。

即将参加一个行业展会,需要一套推广方案。

【目标】

展会期间获取50个有效线索,其中20个能进入下一步演示环节。

【已知信息】

  • 展位面积20平米,有1个演示屏幕
  • 团队3人参展,其中1人负责演示,2人负责接待
  • 预算2万元(含物料和小礼品)
  • 竞争对手也会参展,主打低价策略

【期望格式】

分为:展位设计建议、话术框架、线索收集机制、跟进节奏

每个部分给出3-5个具体可执行的动作

两个版本给AI的信息量,差了一个数量级。后者的输出,你能直接拿去开会讨论;前者的输出,你还需要花时间把它"翻译"成符合你实际情况的版本。

💡 重要认知:四段式喂料不是在"迁就AI",而是在逼自己把模糊的需求想清楚。很多时候,写完这四段,你自己对任务的理解都会更清晰。这本身就是价值。

---

第四章:立即可用——3个改法的一周实验清单

把上面三个变化转化成具体动作,每天只改一个习惯:

Day 1-2:练习"角色+任务+约束"框架

选一个你这周最常用的Prompt场景(写文案、整理会议纪要、分析数据都行),用新框架重写一遍,对比输出差异。

[模板]

你是一位[具体角色],你的读者/用户是[目标受众]。

任务:[具体任务描述,包括做什么和不做什么]

约束:

  • [约束1]
  • [约束2]
  • [格式/字数要求]
Day 3-4:给所有重要Prompt加上"自我审查后缀"

不需要改原来的Prompt,只在结尾加一句:

完成后,请列出你认为这个回答最薄弱的3个地方,并给出改进建议。
Day 5-7:练习四段式喂料

选一个你觉得AI"总是给不到点子上"的任务,用四段式框架重新组织需求,感受输出质量的变化。

【背景】___

【目标】___

【已知信息】___

【期望格式】___

---

💡 想直接测试这3个新写法的效果?

上面的模板我都在 [api.884819.xyz](https://api.884819.xyz) 上跑过——平台同时接入了GPT系列、Claude、Gemini、Deepseek等主流模型,切换对比特别方便,国产模型完全免费,新用户注册即送体验token,不需要邮箱验证,直接就能用。

建议你把同一个Prompt分别扔给两个模型,看看"新写法"在不同模型上的效果差异——这本身就是一次很好的学习实验,你会发现不同模型对"结构化信息"的响应方式很不一样。

→ [点击直达 api.884819.xyz](https://api.884819.xyz)

---

结尾:Andrew Ng说的本质是什么?

三个改法讲完了,我想说一个更底层的东西。

Andrew Ng在谈到Prompt演进时,有一个判断值得反复咀嚼:Prompt能力的本质,是把人类模糊意图翻译成AI可执行规格的能力。

这个能力和"会不会用AI"没有直接关系,它考验的是你对自己需求的理解深度。你越清楚自己要什么,你就越能写出让AI精准执行的Prompt。

2022年的模型,你给它一个模糊的指令,它也只能给你一个模糊的输出。两个模糊叠加,结果凑合能用。

2026年的模型,理解能力和推理能力都强了一个量级,但它仍然无法替你想清楚"你到底要什么"。如果你还在用模糊的方式输入,你只是在用更强的引擎跑一辆没有方向盘的车。

三个改法,本质上都是在做同一件事:在你和AI之间建立一个更清晰的接口

这个接口越清晰,AI的能力就越能被你真正调用。这不是焦虑,是规律。掌握规律的人,不会被工具迭代淘汰,只会因为工具变强而变得更强。

---

说完了怎么写Prompt,下一个问题更难:写给哪个模型看

同样一句话,GPT、Claude、Gemini的理解方式完全不同——下篇我会拆解:3个主流模型的"性格差异",以及针对每个模型的专属写法策略。如果你现在还在随机选模型,那篇文章可能会改变你的习惯。

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI教程 #Prompt技巧 #ChatGPT #Claude #8848AI #AI学习 #人工智能 #提示词工程