Prompt技巧
未读
给「主动型 Agent 模型」写系统提示词:一套让 AI 主动性用在刀刃上的框架
给「主动型 Agent 模型」写系统提示词:一套让 AI 主动性用在刀刃上的框架 你有没有遇到过这种情况:让 AI 帮你整理一下周报,它不仅整理好了,还顺手帮你发给了整个部门——包括那个你本来想删掉的段落? 这不是段子。随着 Agent 模型的自主性越来越强,这类「越权行为」正在变得越来越真实。问题
Prompt技巧
未读
用了一周才开窍:3个Prompt思路,让Claude Opus 4.6从"差强人意"变成"惊艳"
用了一周才开窍:3个Prompt思路,让Claude Opus 4.6从"差强人意"变成"惊艳" 我第一次用 Claude Opus 4.6,以为它不如传说中好用。 那是一个工作日的下午,我需要分析一份竞品报告,顺手输入了一句话: "帮我分析一下这份竞品报告的核心结论。" 然后粘贴进去了 3000
Prompt技巧
未读
Gemini 生成 SVG 老是“一坨 path”?这套 3 行约束法,能让 Figma 导入后真的可编辑
Gemini 生成 SVG 老是“一坨 path”?这套 3 行约束法,能让 Figma 导入后真的可编辑 你大概率遇到过这种情况: 让 Gemini 帮你画一个 SVG 图标,它确实“画出来了”,甚至浏览器里看着也没问题;但一导进 Figma,图层像一团毛线,选不中、改不动、拆不开,最后你只能把它
Prompt技巧
未读
Gemini 生成 SVG Logo 实测:3 个品牌、15 版方案后,我总结出一套更稳的 Prompt 结构
Gemini 生成 SVG Logo 实测:3 个品牌、15 版方案后,我总结出一套更稳的 Prompt 结构 AI 画 Logo 最常见的误区,不是画得丑,而是看着像成品,实际上根本没法用。 很多人第一次用 AI 做 Logo,都会经历同一段剧情:第一眼觉得“有点东西”,第二眼放进 Figma 或
Prompt技巧
未读
为什么你的 AI 助手聊了 100 轮,还是像第一天认识你:用 n8n 搭一套真正有用的 Agent 记忆层
为什么你的 AI 助手聊了 100 轮,还是像第一天认识你:用 n8n 搭一套真正有用的 Agent 记忆层 你可能也遇到过这种情况: 昨天刚告诉 AI:“以后写产品分析,先给结论,再展开,少一点营销味。” 今天它又一本正经地输出一篇“全面赋能、行业领先、颠覆体验”的稿子。 你继续纠正,下一轮它似乎
Prompt技巧
未读
OpenAI「学习模式」火了,但真正值得讨论的不是功能,而是:AI到底该教你,还是替你做?
OpenAI「学习模式」火了,但真正值得讨论的不是功能,而是:AI到底该教你,还是替你做? 你大概也经历过这种时刻: AI 把一道题讲得头头是道,你当时看着频频点头,甚至觉得“这次我真懂了”;可一关掉对话框,换一道类似题,脑子又空了。 问题不是答案不够清楚,而是你其实没经历“自己想明白”的那一步。
Prompt技巧
未读
拆解 OpenAI「学习模式」实战心法:一个数学陪练 Agent,为什么要同时扮演教师、同伴和守门员
拆解 OpenAI「学习模式」实战心法:一个数学陪练 Agent,为什么要同时扮演教师、同伴和守门员 我最开始做这个数学 Agent 时,AI 表现得像个满分学霸:会做,但不会教。 孩子把题一发过去,它 3 秒钟就把答案、过程、标准结论一次性端上来。看起来很强,实际上很差——因为孩子真正学到的,往往
Prompt技巧
未读
我不想再要一个“直接给答案”的编程 AI:把 OpenAI 学习模式改造成苏格拉底式编程导师
我不想再要一个“直接给答案”的编程 AI:把 OpenAI 学习模式改造成苏格拉底式编程导师 “AI 帮我把代码写出来了,但第二天我已经不知道它为什么能跑。” 如果你也有过这种体验,那你缺的可能不是更强的模型,而是一种更会教的交互方式。 过去一年,很多人把 AI 当成“超强代写器”来用:报错了,贴日
Prompt技巧
未读
抄会这3个设计思路,你的AI英语口语Prompt才真正“能练”而不是“能看”
抄会这3个设计思路,你的AI英语口语Prompt才真正“能练”而不是“能看” 很多英语口语 Prompt 最大的问题,不是 AI 不会教,而是它太会替你说了。 你大概率也遇到过这种情况:你输入一句“陪我练英语口语并纠错”,AI马上回你一大段标准答案、地道表达、替换词和完整范文。看起来很专业,甚至让人
Prompt技巧
未读
我把 OpenAI「学习模式」拆开后,做成了一套人人能用的 AI 家教 Prompt
我把 OpenAI「学习模式」拆开后,做成了一套人人能用的 AI 家教 Prompt 同样是问 AI 一个概念,为什么有的人 5 分钟就搞懂,有的人聊了半小时,最后只是复制了一段“看起来很完整”的答案? 问题往往不在模型不够强,而在于大多数提问方式,天然在诱导 AI 直接给结论。它像百科,不像老师;