同样的 AI,有人用得如鱼得水,有人反复沟通却得到一堆废话。差距不在模型,在 Prompt。这篇文章不讲玄学技巧,只讲真正有效的底层逻辑。
AI 在做什么:预测,不是理解
想用好 Prompt,先得理解 AI 在做什么。大模型的本质是基于上下文预测最可能的下一个 token。它没有真正的「理解」,没有常识推断,没有对你意图的猜测——它只有你给它的文字,以及训练数据里的统计规律。
这意味着:你说得越清楚,它做得越对;你省略的越多,它猜错的概率越大。写 Prompt 的本质,是把你脑子里的隐性需求变成显性文字。
「Prompt 的质量,决定了 AI 能力的上限能发挥多少。」
最值钱的一个习惯:给角色和背景
没有上下文的 Prompt,AI 会用它认为「最普通」的方式回答。给它一个角色和背景,输出质量会有质的提升。
两个 Prompt 的差距,不是字数,是信息密度。后者告诉了 AI:我是谁、受众是谁、情绪基调是什么、有什么约束条件、期望的结构。
四个真正有用的技法
一、指定输出格式。不要让 AI 自己决定用什么格式输出。「用三段式」「用 Markdown 表格」「输出 JSON,字段包括 title、summary、tags」——格式越具体,结果越可用。格式不对,再好的内容也要花时间重新处理。
二、给反例。告诉 AI「不要什么」有时候比「要什么」更有效。「不要用官方腔」「不要列超过五条」「不要在结尾说'希望以上对你有帮助'」——这些负向约束能帮你剔除 AI 的默认坏习惯。
三、让 AI 先思考再输出。对复杂问题,在 Prompt 末尾加一句「在给出答案之前,先列出你的推理步骤」,可以显著提高答案质量。这个技巧在学术界叫 Chain-of-Thought,原理是让模型在「推理空间」里先做功,再输出结论。
四、迭代,不是重写。第一次 Prompt 得到不满意的结果,不要推倒重来,而是在原基础上补充:「刚才的回答太正式了,改得口语化一点」「第二段展开说」「去掉所有的例子,只保留结论」。把 AI 当成一个可以持续调教的协作者,而不是一个只能发一次指令的工具。
「写 Prompt 和写需求文档是同一种能力:把模糊的期望变成可执行的描述。」
什么时候 Prompt 没用
有些问题不是 Prompt 能解决的。如果模型本身不具备某个领域的知识,再好的 Prompt 也换不来正确答案——它只会给你一个看起来正确的错误答案。
另一种情况是任务本身超出了 AI 的能力边界:需要实时信息、需要访问外部系统、需要真正的因果推断而不是统计关联。识别这条边界,比优化 Prompt 更重要。
Prompt 工程的终点,不是让 AI 变得无所不能,而是搞清楚它擅长什么、不擅长什么,然后在它擅长的地方把它用到极致。这和用好任何工具的逻辑,是一样的。