你学的Prompt技巧,可能已经过期了
你学的Prompt技巧,可能已经过期了
吴恩达(Andrew Ng)最近在一次公开分享中说了一句让很多人不安的话,大意是:现在写Prompt的正确方式,和两年前已经完全不同了。
这句话很多人听了点点头,然后继续用老方法。
因为他说得太抽象了。"不同"在哪里?怎么个不同法?没有人告诉你。
所以今天我想做一件具体的事:把这个"不同"拆成三个你能感知、能对比、能立刻改的差异。
先说结论:2022年的Prompt是"翻译腔",你在给机器下命令;2026年的Prompt是"对话腔",你在和一个有经验的协作者沟通。 这不是风格问题,是底层逻辑的迁移。
---
背景:为什么"旧写法"还有效,但已经不够好?
在说差异之前,先建立一个共识:旧写法不是"错的",它只是没有充分利用模型的新能力。
2022年,GPT-3.5刚刚走进大众视野。那个时候的模型有几个硬伤:
- 上下文窗口极小,塞不了太多信息
- 指令跟随能力弱,需要大量"脚手架"来引导
- 多轮对话记忆差,每次对话几乎是从零开始
所以那个年代涌现出的Prompt技巧,本质上是在用人类的结构化思维来弥补模型的能力缺陷。角色扮演、规则列表、一次性长Prompt——这些都是当时有效的补丁。
但现在主流模型(GPT-5系列、Claude Opus 4.6、Gemini 3.1 Pro、Deepseek R1等)的能力已经发生了质变:上下文窗口动辄128K起步,指令跟随能力大幅提升,多轮对话的连贯性极强。
问题是,大多数Prompt教程写于2022-2023年,至今仍在广泛传播。 你学到的技巧,可能是给一台已经不存在的旧机器写的说明书。---
差异①:从"角色扮演"到"直接说需求"
旧写法
You are an expert lawyer with 20 years of experience in contract law.
Please analyze the following clause...
这类"角色设定前缀"在2022年非常流行,原因很直接:当时的模型需要靠角色暗示来"激活"特定领域的知识。你不说"你是律师",它可能给你一个大众科普版的回答。
新写法
帮我分析这段合同条款的法律风险,重点关注违约责任和争议解决机制。
如果有不明确的地方,直接指出来,不用给我普法背景。
为什么旧写法的边际收益在下降?
现代大模型在预训练和RLHF阶段已经内化了大量专业知识,它本身就"知道"法律分析应该怎么做。你再加一个"你是资深律师",不会让它突然变聪明,反而可能引入不必要的语气偏差——它可能开始模仿"律师腔",变得更啰嗦、更免责声明满天飞。
核心转变:旧写法是在给模型"授权";新写法是在给模型"定向"。前者是因为模型不知道自己能做什么,后者是因为模型知道,你只需要告诉它你要什么。
当然,角色扮演在某些场景仍然有用——比如你需要模型保持特定的叙事视角(写小说时让它扮演某个角色)或者风格基调(模拟特定人物的语气)。但作为"激活专业能力"的手段,它的时代已经过去了。
---
差异②:从"规则列表"到"给例子+说目标"
旧写法
请按以下规则写一篇小红书种草文案:
1. 字数控制在200字以内
2. 开头要有钩子句
3. 使用emoji
4. 语气要活泼
5. 结尾要有行动引导
6. 不要用"我觉得"这类主观表达
7. 要突出产品的三个卖点
七条规则,模型看了,你也累了。
新写法
帮我写一篇小红书种草文案,目标是让刷到这条的人想点进来看详情页。
参考这个风格:
"用了三个月才敢说|这款防晒真的不一样🌞
以为又是智商税,结果现在出门必带
不假白、不搓泥、补涂也不卡粉
敏感肌亲测,真的不刺激✅"
产品是一款无线降噪耳机,主要卖点是续航长、佩戴舒适、通话清晰。
为什么"给例子"比"给规则"更有效?
这背后有一个很有意思的机制:现代大模型在从示例中推断意图方面的能力,远超它死记规则的能力。
你给它一个好例子,它能同时推断出:字数范围、语气基调、结构逻辑、读者预期——这些信息比你列七条规则传递的信息量还要大,而且更准确,因为规则是抽象的,例子是具体的。
Anthropic在关于Claude指令跟随能力的研究中也提到,few-shot示例(少样本示例)对输出质量的提升效果,在多数任务上优于等量的规则描述。这不是偶然,而是模型架构决定的。
实操建议:下次写Prompt之前,先问自己:我能不能找到一个"我想要的效果"的例子?如果能,把例子贴进去,比列规则更省力、效果更好。
---
差异③:从"一次性长Prompt"到"多轮迭代对话"
这是三个差异里,改变成本最低、收益最高的一个。
旧写法的逻辑
2022年,大家追求"万能Prompt"。各种Prompt模板动辄几百字,恨不得把所有要求、背景、限制、格式全塞进一条指令。
这种做法在当时有它的合理性:上下文窗口小,多轮对话记忆差,你不在第一条里说清楚,后面就找不回来了。
新写法的逻辑
现在,分步引导比一次性堆砌更高效。
举个例子:写一份商业计划书 旧写法(一次性Prompt,约300字):请帮我写一份完整的商业计划书,产品是一款面向中小企业的AI客服SaaS工具,
目标融资金额500万人民币,面向天使轮投资人。计划书需要包含:
市场分析、竞品分析、商业模式、财务预测、团队介绍、风险分析……
格式要专业,语气要自信但不浮夸,数据要有来源,篇幅控制在3000字……
你发出去,等来一份"看起来完整"但实际上每个部分都浅尝辄止的计划书。
新写法(分三轮):第一轮:
我要写一份AI客服SaaS的天使轮商业计划书,先帮我梳理一下:
对于这个赛道的投资人来说,他们最关心的三个核心问题是什么?
(等模型回答,确认方向对了)
第二轮:
好的,基于这三个核心问题,先帮我把"市场规模和竞争格局"这一节写透,
重点论证为什么现在是切入时机,不需要面面俱到,要有观点。
(等模型输出,如果有偏差立刻纠正)
第三轮:
这一节不错,但"切入时机"的论证太弱了,帮我加强这部分——
可以从大模型降低客服开发门槛、中小企业数字化加速这两个角度切入。
分步引导的优势:
- 纠错成本低:每轮只处理一个模块,发现问题立刻调整,不用推倒重来
- 质量更高:模型的注意力集中在一个任务上,输出深度更好
- 你自己也更清晰:逼着你一步步思考,反而帮你理清了思路
---
💡 想直接试试新写法效果如何?
文中三组对比实验,我都是在 [api.884819.xyz](https://api.884819.xyz) 上跑的——它聚合了GPT-5系列、Claude Opus 4.6、Gemini 3.1 Pro、Deepseek R1等主流模型,可以在同一个界面快速切换对比,不用多开账号。
如果你想复现本文的实验,或者测试自己的Prompt是"2022版"还是"2026版",直接去那里跑一遍,比看文章更有感觉。新用户注册即送体验token,国产模型(Deepseek/千问等)完全免费,没有月租。
---
为什么大多数人还在用旧写法?
这不是用户的问题,是信息差的问题。
教程滞后是核心原因。你在搜索引擎或短视频平台搜"Prompt技巧",排名靠前的内容大多写于2022-2023年。这些内容当时是对的,但没有人告诉你它们的"保质期"。 路径依赖是第二个原因。旧写法"有效果",你感知不到"更好的效果"是什么样的。就像你一直用手洗碗,不知道洗碗机有多香——不是因为你懒,是因为你没有对比过。 信息茧房是第三个原因。Prompt技巧类的内容,算法会持续推送给你同质化的旧内容,因为那些内容的互动数据更好——毕竟它们已经被传播了两三年。知道这三个差异,你已经超过了大多数用户。
---
结尾:一个自检清单
下次写Prompt之前,对照这五个问题:
| 自检项 | 2022版(旧) | 2026版(新) | | 我有没有加"你是一个专家"前缀? | 有,且依赖它 | 没有,或只用于风格控制 | | 我是在列规则,还是在给例子? | 主要列规则 | 优先给例子+说目标 | | 我是一次性塞完,还是分步引导? | 一次性长Prompt | 多轮迭代,逐步收敛 | | 我有没有告诉模型"我不需要什么"? | 没有 | 有,排除干扰项 | | 我把模型当机器还是协作者? | 在下命令 | 在对话 |底层逻辑只有一句话:模型越来越像一个有经验的协作者,而不是一台执行指令的机器。你和协作者沟通的方式,和你给机器下命令的方式,应该是完全不同的。
调整你的心智模型,Prompt的写法自然会跟着变。
---
下一篇我想聊一个更反直觉的问题: 为什么有时候你的Prompt越长、越详细,模型的输出反而越差?这背后有一个"注意力稀释"的机制——模型在处理超长输入时,会对不同位置的内容分配不均匀的注意力权重,导致你精心写的某些关键指令被"淹没"了。搞懂它,你会重新审视自己写的每一个字。
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#Prompt技巧 #AI写作 #ChatGPT #Claude #AI教程 #8848AI #人工智能 #提示词工程