人工智能实践(语言智能)
第3讲:提示词

第3讲:提示词

从 Zero/Few-shot 到 CoT、ToT、DSPy、TextGrad——把 prompt 作为可优化的一等公民

从"写 prompt"到"编译 pipeline"

本讲的主线是提示工程(Prompt Engineering)的范式迁移:从 2020 年 GPT-3 开启的手工少样本提示,到 2022 年链式思维(Chain-of-Thought, CoT)解锁推理能力,再到 2023–2025 年 DSPy、TextGrad 等框架把 prompt 当作可编译、可优化的程序组件。这条主线既是工程实践的演进,也是我们理解大语言模型(Large Language Model, LLM)行为的窗口。

一个实用的判断标准是:如果你还在手搓 prompt 字符串,就像在手动调分类器的权重。当流水线只有一两步时手工可行;一旦涉及多模块协同(Retrieval → Reason → Tool Call → Synthesize),手工维护几乎必然崩溃。DSPy 和 TextGrad 给出的答案是——引入"编译器"与"文本梯度(Textual Gradient)",让 prompt 的迭代自动化。

学习目标

完成本讲后,你将能够:

  1. 区分 Zero-shot / Few-shot / Instruction-following 的基本范式,并解释示例选择与顺序敏感性
  2. 掌握 CoT、Self-Consistency、Program-of-Thoughts(PoT)的触发条件与失效模式
  3. 理解 Tree of Thoughts(ToT)与 Graph of Thoughts(GoT)中的"评估器 + 搜索"结构
  4. 运用 DSPy 的 Signature / Module / Teleprompter 三层抽象搭建可编译 pipeline
  5. 理解 TextGrad 如何通过自然语言反馈作为"梯度"反向传播来优化任意变量
  6. 判断 何时应当升级到 RAG 或微调,而不是继续在 prompt 层打补丁

学时分配

环节时长内容
讲授~80 分钟基础范式 / CoT / ToT / DSPy / TextGrad
上机实验~60 分钟用 DSPy 在中文任务上对比手写 prompt 与 BootstrapFewShot 编译

本讲规划

参考材料

  • 课程内部综述:prompt-engineering-literature-review-zh.md
  • 课程内部译本:DSPy论文中文翻译_Khattab2023.md
  • 课程内部译本:TextGrad论文中文翻译.md
  • 外延阅读:Wei et al.(2022)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
  • 外延阅读:Yao et al.(2023)Tree of Thoughts: Deliberate Problem Solving with Large Language Models

关键词

Zero-shot · Few-shot · Instruction Following · CoT · Self-Consistency · PoT · Tree of Thoughts · Graph of Thoughts · DSPy · Signature · Teleprompter · TextGrad · Textual Gradient