课程总览
人工智能实践(语言智能)——北京大学软件与微电子学院研究生课程
课程简介
"语言智能"曾经是自然语言处理的代名词,如今已被大模型重塑为一个端到端可工程化的学科。本课程面向研究生,系统讲授从经典 NLP 到现代大模型应用的核心技术链条,强调原理与动手实践的统一:
- 经典 NLP 与 Transformer:建立从词向量、序列标注、机器翻译到注意力机制的技术肌肉
- 提示词与 RAG:把 LLM 作为接口使用——从 Zero-shot 到 CoT/ToT/DSPy/TextGrad 的前沿方法,以及检索增强生成的完整工程链路
- 数据工程与微调:为大模型准备数据、做 LoRA/QLoRA 微调、评估与诊断
- Agent 与 Judge:构建带工具和记忆的自主体,用 LLM 作为评估器
- GEO:面向生成式搜索的内容优化新学科
课程信息
| 课程名称 | 人工智能实践(语言智能) |
| 开课单位 | 北京大学软件与微电子学院 |
| 面向对象 | 研究生 |
| 授课教师 | 高志军 |
| 讲次 | 9 讲 |
| 授课形式 | 讲授 + 上机实验 |
| 授课语言 | 中文 |
课程设计理念
一条主线贯穿九讲。课程按"基础 → 接口化使用 → 工程化改造 → 自主化运行 → 评估与传播"的顺序推进,保证每一讲都能衔接上一讲的产出与下一讲的前置知识。
原理与实践 1:1。每一讲都配一个可独立完成的实验,输出可运行代码和可验证结果。重要实验包括:北大研究生手册的 RAG 问答系统(第 4 讲)、SFT 数据集构建(第 5 讲)、LoRA 微调(第 6 讲)、带工具的 Agent(第 7 讲)、Judge 基准(第 8 讲)。
指向真实工程。技术栈统一选用主流开源组件(Transformers、PyTorch、LangChain/LlamaIndex、FAISS/Qdrant、TRL、LLaMA-Factory、DSPy、vLLM),方便结业后直接迁移到工作项目。
课程安排
第 1 讲:经典 NLP 任务
文本表示、分词、分类、序列标注、生成与评估
第 2 讲:Transformer
Self-Attention、位置编码、Encoder/Decoder、预训练范式
第 3 讲:提示词
Zero/Few-shot、CoT、ToT、DSPy、TextGrad
第 4 讲:RAG
检索、索引、生成、评估,PKU 研究生手册 QA 实战
第 5 讲:数据工程
低资源 SFT 合成、数据来源、格式规范、质量过滤
第 6 讲:大模型微调
SFT、LoRA/QLoRA、TRL/LLaMA-Factory、RLHF 链接
第 7 讲:Agent
经典架构、LLM Agent、规划与工具、多 Agent
第 8 讲:LLM as Judge
Judge 范式、偏差与缓解、评估基准与应用
第 9 讲:GEO
生成引擎优化:策略、评估、真实案例
技术路线图
先修要求
- Python 熟练;会 PyTorch 或 TensorFlow
- 机器学习/深度学习基础(损失函数、反向传播、概念层面的 Transformer)
- 基本命令行与 Git 使用
姊妹课程
本课程与「大语言模型后训练实践」(posttrain.gaozhijun.me)互补——语言智能课侧重"接口化使用 + 工程落地",后训练课侧重"对齐与推理强化的深度训练"。第 6 讲的 RLHF/DPO 深度内容直接跳转至后训练课程对应章节。