课程资源
全课程参考文献
引用归档——每讲讲义中的引用汇总于此
🚧 本页随讲义内容的填充而持续补充。初期以占位形式存在,正式内容见各讲的 references 子页。
引用规范
本课程讲义采用如下引用风格:
- 正文内引用:
(作者, 年份)或作者等 (年份) - 文末完整条目:APA-style,加 DOI / arXiv ID / URL
- 内部材料:给出仓库内相对路径(如
source-materials/prompt-engineering-literature-review-zh.md)
按讲次归档(占位)
第 1 讲 · 经典 NLP
待随第 1 讲讲义填入。
第 2 讲 · Transformer
- Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention Is All You Need. NeurIPS.
第 3 讲 · 提示词
- 内部综述:
prompt-engineering-literature-review-zh.md - Khattab, O., Singhvi, A., Maheshwari, P., et al. (2023). DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines. arXiv:2310.03714.
- Yuksekgonul, M., et al. (2024). TextGrad: Automatic "Differentiation" via Text. arXiv:2406.07496.
第 4 讲 · RAG
- 内部材料:
RAG课程材料_检索增强生成从原理到实践.md - 内部材料:
TM-RAG实验设计_翻译记忆增强的大语言模型翻译.md - Gao, Y., et al. (2024). Retrieval-Augmented Generation for LLMs: A Survey.
第 7 讲 · Agent
- 内部综述:
AI智能体文献综述_从经典架构到LLM驱动的自主系统.md
第 8 讲 · LLM as Judge
- 内部综述:
LLM_as_Judge_文献综述.md
第 9 讲 · GEO
- 内部综述:
GEO_文献综述_中文译文_含References.md