- Notifications
You must be signed in to change notification settings - Fork330
🌟100+ 原创 LLM / RL 原理图📚,《大模型算法》作者巨献!💥(100+ LLM/RL Algorithm Maps )
License
changyeyu/LLM-RL-Visualized
Folders and files
| Name | Name | Last commit message | Last commit date | |
|---|---|---|---|---|
Repository files navigation
🎉原创 100+ 架构图,系统讲解大模型、强化学习,涵盖:LLM / VLM 等大模型原理、训练算法(RL、RLHF、GRPO、DPO、SFT 与 CoT 蒸馏等)、效果优化与 RAG 等。
🎉 关于架构图更详细的解读可参考:《大模型算法:强化学习、微调与对齐》 (豆瓣高分,多次京东AI图书Top 5 !)
🎉 本仓库长期勘误、追加,欢迎点击仓库顶部的Star ⭐ 关注,感谢鼓励✨
🎉 单击图片可看高清大图,或浏览仓库目录中的.svg 格式矢量图(活图,可无限缩放、可选择文字)
- 大模型算法总体架构(以LLM、VLM为主)
- 强化学习算法图谱 (rl‑algo‑map).pdf——全网最大!
- LLM结构总图——全网最大!
- 策略梯度(Policy Gradient)-强化学习(PPO&GRPO等)之根基.pdf
- 微调(Fine‑Tuning)技术分类
- LoRA(1 of 2)
- LoRA(2 of 2)
- Prefix‑Tuning
- TokenID与词元的映射关系
- SFT的Loss(交叉熵)
- 指令数据的来源
- 多个数据的拼接(Packing)
- CoT(Chain of Thought)与传统问答的对比
- CoT、Self‑consistency CoT、ToT、GoT
- 穷举搜索(Exhaustive Search)
- 贪婪搜索(Greedy Search)
- 波束搜索(Beam Search)
- 多项式采样(Multinomial Sampling)
- Top‑K采样(Top‑K Sampling)
- Top‑P采样(Top‑P Sampling)
- RAG(检索增强生成, Retrieval‑Augmented Generation)
- 功能调用(Function Calling)
- 强化学习(Reinforcement Learning, RL)的发展历程
- 三大机器学习范式
- 强化学习的基础架构
- 强化学习的运行轨迹
- 马尔可夫链 vs 马尔可夫决策过程(MDP)
- 探索与利用问题(Exploration and Exploitation)
- Ɛ‑贪婪策略下使用动态的Ɛ值
- 强化学习训练范式的对比
- 强化学习算法分类
- 回报(累计奖励,Return)
- 反向迭代并计算回报 G
- 奖励(Reward)、回报(Return)、价值(Value)的关系
- 价值函数 Qπ 与 Vπ 的关系
- 蒙特卡洛(Monte Carlo,MC)法预估状态 St 的价值
- TD 目标与 TD 误差的关系(TD target and TD error)
- TD(0)、多步 TD 与蒙特卡洛的关系
- 蒙特卡洛方法与 TD 方法的特性
- 蒙特卡洛、TD、DP、穷举搜索的关系
- 两种输入输出结构的 DQN(Deep Q-Network)模型
- DQN 的实际应用示例
- DQN 的“高估”问题
- 基于价值 vs 策略(Value-Based vs Policy-Based)
- 策略梯度(Policy Gradient)
- 多智能体强化学习(MARL,Multi-agent reinforcement learning)
- 多智能体 DDPG
- 模仿学习(IL,Imitation Learning)
- 行为克隆(BC,Behavior Cloning)
- 逆向强化学习(IRL,Inverse RL)
- 有模型(Model-Based) vs 无模型(Model-Free)
- 封建等级强化学习(Feudal RL)
- 分布价值强化学习(Distributional RL)
- Actor‑Critic 架构
- 引入基线与优势函数 A (Advantage)的作用
- GAE(广义优势估计,Generalized Advantage Estimation)算法
- PPO(Proximal Policy Optimization)算法的演进
- TRPO(Trust Region Policy Optimization)及其置信域
- 重要性采样(Importance sampling)
- PPO‑Clip
- PPO训练中策略模型的更新过程
- PPO 伪代码
- PPO 与 GRPO
- 确定性 vs 随机性策略(Deterministic policy vs. Stochastic policy)
- 确定性策略梯度(DPG)
- DDPG(Deep Deterministic Policy Gradient)
- 语言模型的强化学习建模
- RLHF 的两阶段式训练流程
- 奖励模型(RM)结构
- 奖励模型的输入输出
- 预测偏差与 Loss 的关系
- 奖励模型的训练
- PPO 中四种模型的合作关系
- PPO 中四种模型的结构与初始化
- 双头结构的价值模型
- 共享底座的四种模型
- PPO 输入与输出
- PPO 中的 KL 距离计算
- 基于 PPO 的 RLHF 原理图
- 拒绝采样(Rejection Sampling)微调
- RLAIF 与 RLHF 的区别
- Claude模型应用的宪法AI(CAI)原理
- OpenAI RBR(基于规则的奖励)
- 基于 CoT 的知识蒸馏(Knowledge Distillation)
- 基于 DeepSeek 进行蒸馏
- ORM 和 PRM(结果奖励模型和过程奖励模型)
- MCTS 每次迭代的四个关键步骤
- MCTS 的运行过程
- 语言场景下的搜索树示例
- BoN(Best‑of‑N)采样
- 多数投票(Majority Vote)方法
- AlphaGo Zero 性能增长趋势
- 大模型性能优化技术图谱
- ALiBi 位置编码
- 传统的知识蒸馏
- 数值表示、量化(Quantization)
- 常规训练的前向/反向过程
- 梯度累积(Gradient Accumulation)
- Gradient Checkpoint(梯度重计算)
- Full recomputation(完全重计算)
- LLM Benchmark
- MHA、GQA、MQA、MLA
- RNN
- Pre‑norm 与 Post‑norm
- BatchNorm 与 LayerNorm
- RMSNorm
- 剪枝(Prune)
- 温度系数的作用
- SwiGLU
- AUC、PR、F1、Precision、Recall
- RoPE 位置编码
- RoPE 对序列位置与各维度的作用
- 本人历时数天、呕心沥血之作,点击本仓库右上角 ↗ 的Star ⭐ ,就是对我最大的鼓励啦!
- 下图仅为预览图,高清图见: 强化学习算法图谱 (rl-algo-map).pdf

- 本人历时几十个小时、呕心沥血之作,点击本仓库右上角 ↗ 的Star ⭐ ,就是对我最大的鼓励啦!
- LLM主要有Decoder-Only(仅解码器)或MoE(Mixture of Experts, 专家混合模型)两种形式,两者在整体架构上较为相似,主要区别为MoE在FFN(前馈网络)部分引入了多个专家网络。
- 手撕推导 RL 核心理论之一 ,图灵奖得主 Sutton 提出。
- 大模型训练算法之根基(被ChatGPT、DeepSeek 等广泛使用的 PPO 和 GRPO 算法都是基于策略梯度)。
- 很重要 但常常被混淆的一部分内容,我重新推导公式、画原理图解释了一下(窄版排版) : 策略梯度(Policy Gradient)-强化学习(PPO&GRPO等)之根基.pdf
- LLM主要有Decoder-Only(仅解码器)或MoE(Mixture of Experts, 专家混合模型)两种形式,两者在整体架构上较为相似,主要区别为MoE在FFN(前馈网络)部分引入了多个专家网络。
- 一个典型的LLM结构,可分为三部分——输入层、多层Decoder堆叠结构和输出层(包括语言模型头与解码模块)
- 解码策略是决定最终输出文本流畅性、多样性及整体表现的核心因素。常见的解码算法包括:贪婪搜索、波束搜索(Beam Search)及其衍生算法、多项式采样、Top-K采样、Top-P采样、对比搜索(Contrastive Search)、投机解码(Speculative Decoding)、前瞻解码(Lookahead Decoding)、DoLa解码等。
- LLM的输出层负责根据概率分布,应用解码算法确定最终预测的下一个/N个词元。
- 根据概率分布,应用解码策略(例如随机采样或选择最大概率)确定最终预测的下一个词元。例如,在贪婪搜索解码策略下,选择概率最高的词元“我”作为预测结果。
- 每一个token(词元)的生成都需要重新走一遍所有层Transformer结构。
- 这里只展示了每次预测一个词元的方案,也有一次性预测多个词元的方案,详见《大模型算法:强化学习、微调与对齐》第四章。

LLM的输出层负责根据隐藏状态(多维数值矩阵)预测下一个词元(文本)。处理流程如图所示:
- (1)输入隐藏状态:Decoder最后一层的隐藏状态(Hidden States)作为LLM输出层的输入。如图中所示维度为3×896的数值矩阵,包含了前缀序列的所有语义信息。
- (2)语言模型头(LM Head):通常是一个全连接层,用于将隐藏状态转换为Logits(推理时只计算最后一个位置的Logits)。如图所示,Logits的形状为3×151936,对应于词表中每个词元的得分。
- (3)提取最后位置的Logits:预测下一个词元仅依赖于前缀序列最后一个位置的Logits,因此需要从所有位置的Logits中提取最后一个位置的Logits。如图所示,提取得到一个151936维的向量 [2.0, 3.1, −1.7, ... , −1.7],用于后续预测。
- (4)转换为概率分布(Softmax):通过Softmax函数将Logits转换为概率分布,得到词表中每个词元的概率。例如,生成的151936维概率向量为[0.01, 0.03, 0.001, ... , 0.001],该向量内所有概率之和为1。概率值越大,表示该词元作为下一个词元的可能性越高。例如,“我”的概率为0.34。
- (5)解码(Decoding):根据概率分布,应用解码策略(例如随机采样或选择最大概率)确定最终预测的下一个词元。例如,在贪婪搜索解码策略下,选择概率最高的词元“我”作为预测结果。

多模态模型根据侧重不同,通常有以下多种称呼:
- VLM(Vision-Language Model,视觉语言模型)
- MLLM(Multimodal Large Language Model,多模态大语言模型)
- VLA(Vision-Language-Action Model,视觉语言动作模型)

- 大模型的训练主要分为两个阶段——预训练(Pre-Training)和后训练(Post-Training)。在每个阶段,所使用的训练数据、训练范式(算法)、训练目标和超参数均有所不同。
- 预训练阶段包括初期训练(基于海量数据的短上下文训练)、中期训练(长文本/长上下文训练)以及退火(Annealing)训练等。此阶段以自监督学习为主,使用的数据量最大,同时也是最消耗算力的环节。
- 后训练阶段则包含多种可选的训练范式(算法),包括但不限于SFT(监督微调)、蒸馏、RSFT(拒绝采样微调)、RLHF(基于人类反馈的强化学习)、DPO(直接偏好优化),以及其他强化学习方法,例如GRPO(群体相对策略优化)、PPO(近端策略优化)等。其中,某些环节也可进行多轮迭代训练,例如多轮拒绝采样微调(Rejection Sampling Fine-Tuning, RSFT)。

- 可用于SFT的微调技术种类多样,如下图的分类图所示:前两种方法仅需基于预训练模型主体进行微调,开发成本较低;而并联低秩微调和Adapter Tuning则需要引入额外的新模块,实施过程相对复杂一些。这些方法均是针对模型参数进行微调,而基于Prompt的微调则另辟蹊径,从模型的输入着手进行微调。

- LoRA(Low-Rank Adaptation, 低秩适配微调)由微软的研究团队于2021年发表。由于其高效的微调方式和良好的效果,在各类模型中得到广泛的应用。LoRA的核心思想在于——微调前后模型的参数差异∆W具有低秩性。
- 一个矩阵具有低秩性,意味着它包含较多的冗余信息,将其分解为多个低维矩阵后,不会损失过多有用信息。例如,如图所示,一个1024×1024的矩阵可以被近似分解为一个1024×2矩阵与一个2×1024矩阵的乘积,从而将参数量约减少至原来的0.4%。
- A和B的初始化方式:
- (1)矩阵A使用随机数初始化,如kaiming初始化;
- (2)矩阵B使用全0初始化,或使用极小的随机数初始化。
- 目的在于——确保在训练初期,插入的LoRA模块不会对模型整体输出造成过大的扰动。

- Prefix-Tuning由斯坦福大学的研究团队提出,可以用于对语言模型进行轻量级微调。
- 如图所示,该方法在输入的起始位置插入一段连续的、可训练的向量(Embedding),称为前缀(Prefix)。在处理后续的Token时,Transformer将这些向量视为虚拟Token,并参与Attention计算。
- 模型训练时通常使用固定长度的输入。当输入的数据长度不一致时,对于短序列,会在其末尾填充(padding)以匹配最大序列长度,这会导致计算资源的浪费。
- 因此,正如图所示,常见的做法是将多条数据拼接(Packing)在一起,填充到一个固定长度的输入序列中。
- 为了确保计算过程中不同数据之间互不干扰,通常需要重设位置编号(Reset position ID)和注意力掩码(Reset attention mask),以在计算Attention时保持各条数据的语义独立性。

不同于RLHF,DPO以监督学习的训练方式,大幅简化了对齐训练:
- 流程简洁:DPO直接对策略模型进行优化,不需要预先训练Reward模型(奖励函数)。DPO只需要基于预先给定的偏好数据进行训练,无需中途采样。
- 稳定性:DPO是一种监督学习方法,摆脱了强化学习训练的不稳定性。
- 低开销:DPO在训练过程中只需要加载一个模型(只需加载策略模型,而对于参考模型,可以将参考模型的输出结果预先录制好,然后在训练时就不需要加载),算力开销更低,更易于落地实践。

- DPO(Direct Preference Optimization,直接偏好优化)是由斯坦福大学等研究团队于2023年提出的一种偏好优化算法,可用于LLM、VLM与MLLM的对齐训练。
- 该算法在基于PPO的RLHF基础上进行了大幅简化。
- DPO算法跳过了训练奖励模型这一中间过程,直接(Direct)优化策略模型 ——这正是DPO命名中“D(Direct)”的含义所在。DPO的训练涉及2个模型——策略模型和参考模型。它们的初始化方法如下:
- 策略模型:直接复制SFT模型作为初始化。
- 参考模型:通常也从SFT模型复制。但在某些情况下,可能会选择从一个比SFT模型更强的模型进行复制。此时,需特别关注参考模型与策略模型的匹配性,主要涉及两者的KL距离及训练数据分布等方面。

- DPO训练时,可以选择加载2个模型(策略模型 和参考模型 ),也可以只加载1个模型(策略模型 )。本文将优先分析加载2个模型的情况。
- DPO的整体训练流程如图所示(蓝色色块代表偏好数据对中的“优质回答” 及其对应的中间计算结果;粉色色块代表偏好数据对中的“劣质回答” 及其对应的中间计算结果)。

- DPO的梯度更新旨在增加优质回答的概率,同时减少劣质回答的概率。
- 更重要的是,梯度中包含一个动态系数——优质和劣质回答的隐式奖励差异。换言之,这个动态系数反映了隐式“奖励模型”在对偏好顺序的判断上有多大误差。

- CoT(Chain of Thought,思维链)由Jason Wei等研究者于2022年在Google期间提出,是大模型领域的一项重要技术创新,并迅速被广泛应用于学术研究和实际场景。
- 其核心思想是通过显式地分步推理,提升模型在复杂推理任务中的表现。

【免训练的优化技术】CoT、Self-consistency CoT、ToT、GoT[87]
- 贪婪搜索(Greedy Search)在生成下一个Token(词元)时,每次都会选择当前概率最高的一个Token,不考虑生成序列的全局最优性或多样性,然后继续对下一个Token位置执行相同的操作。尽管这种方法简单快速,但生成的内容可能过早陷入局部最优,缺乏多样性。

- Beam Search(波束搜索)在每一步生成时,不仅仅选择一个最优Token(词元),而是保留多个候选序列(称为Beam,即波束),其余的路径则被剪枝。这些候选序列会在后续步骤中继续扩展,直到生成结束。
- 最终,从所有候选序列中选择得分最高的一条作为最终输出。Beam的数量(num_beams参数)越大,搜索空间越广,生成结果越接近全局最优,但计算成本也随之增加。

- 多项式采样(Multinomial Sampling)是生成式模型中一种常见的随机采样方法,生成下一个Token时,以模型预测的概率分布为依据,在概率分布中“按概率大小”随机抽取Token(而非等概率随机抽样)。
- 包含Top-K、Top-P等

- Top-K采样(Top-K Sampling)是一种在生成任务中常用的策略,类似于多项式采样,但其采样候选池经过限制。使用Top-K采样时,每一步生成Token时仅保留模型预测概率最高的前K个词,并从中按概率分布进行随机抽样。

- Top-P采样(Top-P Sampling),又称核采样(Nucleus Sampling),该方法通过动态选择一个最小候选集合,使得候选词的概率和达到设定的概率阈值P,然后,在该候选集合中随机采样。与Top-K采样相比,Top-P采样能够根据概率累积动态调整候选集的大小。

- RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与模型生成的技术,通过引入外部知识库或检索系统,增强生成式模型的知识范围和回答准确性。
- Meta(前身为Facebook AI Research)等研究团队于2020年在其发表的工作中提出了RAG,并显著提升了知识密集型NLP任务的性能。
- RAG的原理如图所示,整体可分为两部分——离线构建环节和在线服务环节。

- 功能调用(Function Calling),也称工具调用(Tool Use),是指在基于大模型完成任务的过程中,Agent通过特定机制调用外部对象,获取返回结果后将其与原始Prompt一起输入到大模型,由大模型进一步推理并完成特定任务。
- 被调用的对象可以是远程API、数据库查询接口、本地函数或工具插件(Plugin)等。
- 下图展示了功能与工具调用技术的运行流程。其中,Agent是一个本地运行的软件系统,大模型是其子模块之一。Agent还包括用户请求解析模块、参数处理模块、工具调用模块、调用结果解析模块及与大模型交互的组件等。
- 强化学习可以追溯至20世纪50年代,之后由Richard S. Sutton等学者相继提出了许多关键算法和理论。
- 自2012年起,随着深度学习的迅猛发展,强化学习在多个领域催生了备受关注的应用。
- 2022年11月,结合RLHF(基于人类反馈的强化学习)训练的ChatGPT正式发布。
- 随后在2024年12月,OpenAI推出经过更深入强化学习优化的o1模型,这极大地激发了业界基于强化学习对大模型进行训练的关注和投入。

- 一个RL建模示例:假设未来有一家AGI旅游公司,提供基于自动驾驶汽车的长途旅游服务。旅客只需选择一个旅游行程,自动驾驶汽车将全程负责行程规划、驾驶以及接送服务,完成整个旅游任务。在旅游项目刚上线时,旅客最喜爱的路线尚未明确,需要通过多次实际运行,并结合累计奖励(旅客评分),基于强化学习训练旅游路线规划模型。目标是逐步优化乘客的旅游体验,最终确定最受旅客欢迎的最佳路线。
- 强化学习中的各个核心概念映射如图:

- 马尔可夫链和马尔可夫决策过程(MDP)是强化学习领域的重要理论基础。
- 马尔可夫决策过程(Markov Decision Process,MDP)是在马尔可夫链的基础上引入了动作(A)和奖励(R)的概念。

- 探索与利用(Exploration-Exploitation)的平衡是强化学习的核心挑战之一。
- 智能体在学习过程中需要在“尝试新动作”(探索)与“选择当前已知的最优动作”(利用)之间进行权衡。过度探索可能导致学习过程缓慢,甚至无法收敛到最优解;而过度利用则可能使智能体陷入局部最优,无法达到全局最优回报。

- Ɛ-贪婪(Epsilon Greedy)是一种简单而有效的策略,用于在强化学习中平衡探索与利用。通过引入探索概率因子Ɛ,控制探索与利用的比例。
- 在训练初期,可以将Ɛ的值设得比较大,随着训练的进行,逐步降低 Ɛ的值,使智能体在初期更多地进行探索,随着对环境的了解加深,逐渐转向利用,从而提高学习效率和最终策略的性能。

- 同策略(On-policy)、异策略(Off-policy)、在线强化学习(Online RL)和离线强化学习(Offline RL)
- 根据经验收集与策略训练的方式,主要可以划分为四个核心概念:同策略(On-policy)、异策略(Off-policy)、在线强化学习(Online RL)和离线强化学习(Offline RL)。
- 同策略(On-policy):当行为策略与目标策略相同时,称为同策略学习。也就是说,智能体根据当前策略选择动作,并利用这些经验来更新当前策略,两者是同一个版本的策略。如图所示,在同策略下,行为策略和目标策略都是πn。本质上是同一个策略(模型),为了便于理解和对比,图中绘制了两个策略的示意图。例如,策略梯度方法和SARSA算法都是典型的同策略算法。
- 异策略(Off-policy):当行为策略与目标策略不同时,称为异策略学习。智能体可以使用某种策略进行探索,但学习(训练)和优化的是另一种策略,两者属于不同版本(或不同类型)的策略。例如,Q-learning、DQN等算法是典型的异策略算法,尽管可能使用Ɛ-贪婪策略进行探索,但最终学习的是最优策略。
- 在线强化学习(Online RL):在训练过程中,策略持续与环境交互并收集经验,训练数据源源不断地动态生成,目标策略也在通过训练不断进化。
- 离线强化学习(Offline RL):又称批量强化学习(Batch RL),有时也称为完全异策略强化学习(Fully Off-policy RL)。在训练过程中,智能体完全不与环境交互,而是在一个与线上环境隔离的环境中进行训练,仅依赖预先收集的数据。这些数据可能来源于历史记录、其他策略的积累,或是模拟环境生成的样本。

- 根据不同的维度,强化学习算法分类如下图。
- 此外,强化学习还常与监督学习(Supervised Learning, SL)、对比学习(Contrastive Learning, CL)、模仿学习(Imitation Learning, IL)、生成对抗网络(Generative Adversarial Networks, GAN)等技术结合,这些结合催生了多种交叉类型的算法,进一步扩展了强化学习的应用领域。

- 回报(Return),常用字母G表示(G是Gain的缩写,即收益),也称为未来回报、累计奖励或累计折扣奖励,是指从某一时间步开始,未来所有奖励的累积总和。
- 它衡量了从当前时间步开始,智能体未来可能获得的总奖励,可用于评估智能体策略在长期内的优劣。

- 奖励(Reward)、回报(Return)和价值(Value)三者的关系如图所示。需要注意的是,此处假设折扣因子γ=1。
- (1)奖励(Reward):即时奖励,是在某一状态下获得的局部收益或短期收益。
- (2)回报(Return):未来回报,是从当前状态st开始计算,之后所有奖励的累积和,即未来的总收益。
- (3)价值(Value):价值是回报的期望值,即在所有可能的轨迹中,回报乘以其发生概率后的加权平均值,表示在平均情况下的未来总收益。

- 动作价值函数(Action-Value Function)衡量在策略π下,智能体在状态s时采取动作 a后未来所能获得的回报的期望值,该期望值有时也泛称为Q值(Q-value),通常记为Qπ(s,a)
- 状态价值函数(State-Value Function),记为Vπ(s),表示在状态s下,遵循策略π时,智能体未来能够获得的回报的期望值。

- 蒙特卡洛(Monte Carlo,MC)方法是一种基于随机采样的计算方法,利用随机采样来解决在原则上可能是确定性的难题。
- 在强化学习中,蒙特卡洛方法是指通过多次实际运行试验,获得多个实际的运行轨迹,根据这些结果来估计价值函数或优化策略,特别适用于那些环境模型未知或难以解析的问题。

- TD error(TD误差)衡量了当前价值估计与TD目标之间的差异,它反映了当前估计与最新信息的不一致程度,指导价值函数的更新方向和幅度。
- TD target (TD目标)包含了最新的环境反馈信息rt+1,因此被认为比V(st)更接近真实值,通常将TD目标作为价值函数拟合的目标。TD目标与TD误差的关系如图所示。

【强化学习基础】蒙特卡洛、TD、DP、穷举搜索的关系[32]
- 在强化学习中,有四类方法可以进行价值估计与策略优化:蒙特卡洛、时序差分(Temporal Difference, TD)、动态规划(Dynamic Programming, DP)以及穷举搜索(Brute-Force Search)。
- 从深度搜索和广度搜索的视角看,它们的区别如图。

DQN模型的输入输出结构有两种类型:
- (1)输入为当前状态(S0)和候选执行的动作(A0),输出为对应的价值Q0(未来回报的预估)。在实际应用中,也可以批量计算多个动作的价值Q。
- (2)输入为当前状态(S0),输出为动作空间中所有动作对应的价值Q。在实际应用中,通常选择具有最大价值的动作执行。
- 训练完成后,DQN模型可部署到线上环境,帮助进行实际决策。
- 在推理时,如图所示,根据输出的价值Q选择最优动作执行。由于DQN是基于价值的强化学习算法,输出的值仅为价值Q,需要进一步转换为实际执行的动作A。常见的方法是从所有价值Q中选取最大值对应的动作,并作为最优动作执行。

- DQN算法的两大核心问题:(1)“高估”问题; (2)“狗追尾巴”问题。
- (1)高估问题:DQN在选择和评估动作时,动作价值Q常被过高估计,导致策略优化出现偏差,影响最终性能。这主要由于最大化操作中包含了高估部分的值,如图所示,最终目标价值yt中包含了额外高估的部分,并且这种高估会逐步累积。此外,这种高估是“非均匀”的,即不同动作的价值Q被高估的程度各不相同。
- (2)狗追尾巴问题:也称为自举问题,如式所示,DQN的训练过程可以看做一个“回归问题”,但是回归(要拟合)的目标yt总是在变,所以提升了训练的难度。在DQN中,计算目标价值 和当前状态st的价值预测值 使用相同的网络权重θ。由于回归的目标yt依赖于当前网络的权重θ,当网络权重更新后变为θ′;下一步训练时,计算出的价值预测值和回归的目标yt值将同步变化。这种动态相互依赖关系就像“狗追尾巴”一样,不断循环,导致优化过程容易不稳定,甚至难以收敛。

- 根据学习对象的不同:分为基于价值(Value-Based)、基于策略(Policy-Based)以及演员-评委(Actor-Critic)方法。
- 基于价值的算法通过估计各状态的价值函数(例如V或Q)来间接推导出最优策略;
- 基于策略的算法直接学习和优化策略函数π;
- 演员-评委方法则同时结合了基于价值和基于策略的特点。

- 策略梯度是强化学习众多算法的理论基石。例如,PPO算法、GRPO算法、DPG算法以及基于Actor-Critic架构的众多算法都建立于策略梯度之上。
- RL之父 Richard S. Sutton等人则在前人基础上进一步提出了更为严谨且系统化的策略梯度定理(Policy Gradient Theorem)。
- 与基于价值(Value-Based)的方法(例如DQN等)不同,通过直接优化策略以最大化回报(累积奖励),直接对策略函数进行参数化,并通过梯度上升或下降的方式优化策略参数。

- 多智能体强化学习(Multi-Agent Reinforcement Learning,MARL)是强化学习的一个重要分支,旨在研究多个智能体在共享环境中通过交互(包括竞争与合作)学习最优策略的问题。
- 例如,DeepMind的研究团队开发的AlphaGo、AlphaZero和AlphaStar等,OpenAI开发的OpenAI Five,展示了多智能体强化学习的强大潜力。

【强化学习基础】多智能体DDPG[41]
- MADDPG(Multi-Agent DDPG)由OpenAI等研究团队于2017年发表。
- 如图所示,描述了一个具有N个智能体的环境,包含N个策略网络(π1, π2,…, πN)和N个价值网络(Q1, Q2,…, QN),这些网络各自独立地进行学习。
- 价值网络Qi 接收所有智能体的动作(A1, A2,…, A N)和观测信息(O1, O2,…, ON)作为输入,并输出对应于第i个智能体的Q值。

- 模仿学习(Imitation Learning,IL)是一种通过观察并模仿专家行为来学习复杂任务的机器学习方法。
- 与传统的强化学习不同,模仿学习无需明确的奖励函数,而是直接从专家的示范中学习策略。这种方法特别适用于那些难以手工设计奖励函数的任务场景。常见的模仿学习算法主要分为三类:
- (1)行为克隆(Behavioral Cloning,BC):基于监督学习方法,直接从专家的状态-动作对中学习映射关系。
- (2)逆向强化学习(Inverse Reinforcement Learning,IRL):基于强化学习方法,通过推断奖励函数间接学习策略。
- (3)生成对抗模仿学习(Generative Adversarial Imitation Learning,GAIL):借鉴生成对抗学习的思想,通过对抗过程优化策略。

- 行为克隆(Behavioral Cloning,BC)是一种结合了监督学习的机器学习方法,通过学习专家在不同状态(State)下采取的动作(Action)的映射关系来模仿专家的行为。
- 行为克隆将问题视为一个回归或分类问题,输入为环境的状态,输出为相应的动作。通过最小化预测动作与专家动作之间的误差,模型能够在类似状态下采取与专家相似的动作。

- 逆向强化学习(Inverse Reinforcement Learning,IRL)指的是根据专家或智能体的行为,推断其背后的奖励函数,然后,基于此奖励函数学习最优策略。
- 这一过程与传统强化学习(RL)相反,后者通常是在已知奖励函数的情况下学习最优策略,而逆向强化学习则是在已知行为的基础上反推出奖励函数,再进一步学习策略。
- 吴恩达(Andrew Y. Ng)和Stuart Russell于2000年发表了《Algorithms for Inverse Reinforcement Learning》一文,系统性地阐述了逆强化学习的核心概念。

- 根据是否依赖环境模型:分为有模型(Model-Based)和无模型(Model-Free)的方法。
- 有模型的方法利用环境模型进行规划和决策;无模型的方法则直接通过与环境交互学习策略或价值函数。
- 分层强化学习(Hierarchical Reinforcement Learning,HRL)是一种分而治之的强化学习框架,通过将复杂的任务分解为多个层次的较小的子任务或子策略,使智能体能够在不同的抽象层次上学习和决策。
- 该领域发展至今,已经涌现出多种经典算法,例如,封建等级强化学习(Feudal RL)和MAXQ等算法。
- 封建等级强化学习(Feudal Reinforcement Learning, Feudal RL)最早由AI巨佬Geoffrey E. Hinton等人提出,Hinton因其在人工智能领域的突出贡献于2024年获得诺贝尔物理学奖。

- 分布价值强化学习(Distributional Reinforcement Learning)指的是直接对回报(累积奖励)的分布进行建模,而不仅仅是对其期望值进行估计。
- 分布价值模型包含了更丰富的价值信息,能够更全面地捕捉环境的不确定性,从而在策略优化和潜在风险管理等方面提供优势。
- Actor-Critic架构(AC架构),即演员-评委架构,是一种应用极为广泛的强化学习架构。知名的PPO、DPG、DDPG、TD3等算法均基于Actor-Critic架构。
- (1)Actor(演员):对应于策略模型π,负责选择动作,直接输出策略π(a | s),即在给定状态s下选择动作a的概率分布。
- (2)Critic(评委):对应于价值模型Q,评估Actor执行的动作的好坏,这可以协助Actor逐步优化策略模型的参数。
- 该架构有效融合了基于策略(Policy-Based)和基于价值(Value-Based)的方法,结合了两种方法的优势,通过同时学习策略和价值函数来提升学习效率与稳定性,是一种混合型方法。

- 基础版本的Actor-Critic架构存在高方差等问题。为了解决这些问题,A2C(Advantage Actor-Critic)方法在Actor-Critic的基础上引入基线(Baseline),并进一步构造了优势函数(Advantage Function)。
- (1)引入基线:基线通常采用状态价值函数V(s),即在状态s下的预期回报。将基线设为V(s),相当于在每个状态s下设定了一个平均水平。
- (2)构造优势函数:优势函数衡量在给定状态下,采取某一动作相对于“平均水平”的优劣,即某个动作a相对于特定状态下其他动作的相对优势。优势函数关注的是执行某个动作的相对优势,而非动作的绝对价值。

- GAE(Generalized Advantage Estimation,广义优势估计)算法由RL巨佬John Schulman等发表。该算法是PPO等算法的关键组成部分。
- GAE算法借鉴了TD(λ)算法的思路,(TD(λ)如《大模型算法》5.3.3节所述)。TD(λ)算法通过调节λ因子在偏差和方差之间取得平衡,GAE算法也使用λ因子以达到类似的目的。
- GAE算法计算时,通常采用递归求解的方式进行。
- GAE算法的伪代码如下。算法 6.1 GAE 算法核心实现
importnumpyasnpdefcompute_gae(rewards,values,gamma=0.99,lambda_=0.95):""" 参数: rewards (list 或 np.ndarray): 每个时间步收集到的奖励 r,形状为 (T,) values (list 或 np.ndarray): 每个状态的价值估计 V,形状为 (T+1,) gamma (float): 折扣因子 γ lambda_ (float): GAE 的衰减参数 λ 返回: np.ndarray: 优势估计 A,形状为 (T,)。例如对于 T=5,A=[A0, A1, A2, A3, A4] """T=len(rewards)# 时间步数 T,终止时间步为 t=T-1advantages=np.zeros(T)# 优势估计数组,例如 [A0, A1, A2, A3, A4]gae=0# 初始化 GAE 累计值为 0# 反向从时间步 t=T-1 到 t=0 进行迭代计算,总共迭代 T 次fortinreversed(range(T)):# δ_t = r_t + γ * V(s_{t+1}) - V(s_t)delta=rewards[t]+gamma*values[t+1]-values[t]# A_t = δ_t + γ * λ * A_{t+1}gae=delta+gamma*lambda_*gaeadvantages[t]=gaereturnadvantages
- PPO(Proximal Policy Optimization,近端策略优化),有多种变体,例如PPO-Penalty和PPO-Clip,这些算法继承了部分TRPO算法的思想。
- PPO-Clip因其更优的效果而获得了更多关注和应用,因此通常所说的PPO即指PPO-Clip。

- TRPO(Trust Region Policy Optimization,置信域策略优化),可以说是PPO的前身。
- 该算法是对策略梯度算法的改进,基于两个核心概念:置信域和重要性采样(Importance Sampling)。虽然这两个概念并非在TRPO中首次提出,但TRPO将它们与策略梯度算法相结合,显著提升了算法的效果。
- TRPO的核心思想是在最大化目标函数J(θ)的同时,限制新旧策略之间的差异。

- 重要性采样在诸如TRPO和PPO等强化学习算法中具有关键作用,其主要功能是修正新旧策略之间的分布差异,使得可以利用旧策略所采集的数据来优化新策略。
- 重要性采样(Importance Sampling)是一种基于蒙特卡洛采样思想的方法,经常被用于估计期望值和积分。该方法基于辅助分布进行采样,并通过重要性权重对估计值进行修正,从而提高采样和估计的效率。
- 重要性采样需满足该条件:如果在某个x上p(x)的概率值大于0,那么p'(x)在同一个位置的概率也必须大于0(p'(x)不能为零,意味着该位置在p'(x)中也有可能性)。这是因为如果在p(x)非零的地方p'(x)= 0,那么在这些x上的贡献就无法通过p'(x)来采样计算,一些x的取值会在积分中丢失。

- 通常所说的PPO即指PPO-Clip(近端策略优化-剪裁)。
- PO-Clip的目标是最大化未来回报的期望,具体来说,通过最大化目标函数J(θ)来优化策略,PPO-Clip的目标函数如下图。
- clip与min操作的意义:意义如下图的曲线图,为清晰起见,对式中的部分项用两种缩放系数进行替换,可以分别称为“线性”缩放系数和“剪裁”缩放系数。
- 如图简要展示了通用场景下PPO的训练流程及策略模型(Actor)参数θ的更新过程,其中价值模型(Critic)未在图中展示。PPO的训练流程主要包括以下两个阶段:
- (1)样本收集:基于旧策略收集样本,生成多条轨迹(经验),并存入回放缓冲区,供后续训练使用。
- (2)多轮PPO训练:将回放缓冲区中的所有样本随机打散,并划分为多个小批次(mini-batches),以便进行小批次训练。针对每个小批次(图中的“批次 1”、“批次 2”),分别进行一次训练与参数更新,总计完成mini_batch次训练。如果设置的ppo_epochs > 1,则重复利用回放缓冲区中的所有样本,再次随机打散并切分为小批次,重复上述训练过程ppo_epochs轮(图中的“第 1 轮”、“第 2 轮”)。通过对这一大批次样本的多轮训练,显著提升了样本的重复利用率。在第二阶段中,总计完成ppo_epochs×mini_batch次训练与参数更新。
- 以上两个阶段不断循环运行,每一次循环称为一个迭代(iteration)。经过多次迭代,直至完成所有PPO训练任务。

# 简写 R:rewards, V:values, Adv:advantages, J:objective, P:probabilityforiterationinrange(num_iterations):# 进行num_iterations个训练迭代#【1/2】收集样本(prompt, response_old, logP_old, Adv, V_target)prompt_batch,response_old_batch= [], []logP_old_batch,Adv_batch,V_target_batch= [], [], []for_inrange(num_examples):logP_old,response_old=actor_model(prompt)V_old=critic_model(prompt,response_old)R=reward_model(prompt,response_old)[-1]logP_ref=ref_model(prompt,response_old)# KL距离惩罚。注意:上面的R只取了最后一个token对应的奖励分数KL=logP_old-logP_refR_with_KL=R-scale_factor*KL# 通过GAE算法计算优势AdvAdv=GAE_Advantage(R_with_KL,V_old,gamma,λ)V_target=Adv+V_oldprompt_batch+=promptresponse_old_batch+=response_oldlogP_old_batch+=logP_oldAdv_batch+=AdvV_target_batch+=V_target# 【2/2】多轮PPO训练,多次参数更新for_inrange(ppo_epochs):mini_batches=shuffle_split( (prompt_batch,response_old_batch,logP_old_batch,Adv_batch,V_target_batch),mini_batch_size )forprompt,response_old,logP_old,Adv,V_targetinmini_batches:logits,logP_new=actor_model(prompt,response_old)V_new=critic_model(prompt,response_old)# 策略概率比: ratio(θ) = π_θ(a|s) / π_θ_old (a|s)ratios=exp(logP_new-logP_old)# 计算策略模型LossL_clip=-mean(min(ratios*Adv,clip(ratios,1-ε,1+ε)*Adv ) )S_entropy=mean(compute_entropy(logits) )# 计算策略的熵Loss_V=mean((V_new-V_target)**2)# 计算价值模型LossLoss=L_clip+C1*Loss_V-C2*S_entropy# 总损失backward_update(Loss,L_clip,Loss_V)# 反向传播; 更新模型参数
【策略优化架构算法及其衍生】PPO与GRPO(Group Relative Policy Optimization)[72]
- GRPO(Group Relative Policy Optimization, 群体相对策略优化)是一种基于策略的强化学习算法,由DeepSeek团队提出,并已在DeepSeek、Qwen等模型的训练中得到应用。
- 传统的PPO方法除了训练策略模型外,还需额外构建一个规模相近的价值网络,这会显著增加计算和显存的开销。
- 如图所示,GRPO摒弃了单独的价值网络,并通过多项改进,在保留PPO核心思想的基础上,显著降低了训练所需资源,同时确保了策略更新的高效性和稳定性。
- GRPO的核心思想在于利用群体相对优势估计来取代传统的价值模型。具体来说,GRPO通过采样一组候选输出,并将这些输出的平均奖励作为基线,来计算各个输出的优势值。这种方法不仅避免了对额外价值模型的依赖,同时也充分发挥了奖励模型的比较特性,从而提高了训练的效率和稳定性。

- 强化学习的策略类型可以分为:确定性策略(Deterministic Policy)和随机性策略(Stochastic Policy)。
- 确定性策略:在每个状态下,策略都会输出一个确定的动作。
- 随机性策略:在每个状态下,策略输出的是动作的概率分布。

- 确定性策略梯度(Deterministic Policy Gradient,DPG)算法由RL大佬David Silver在DeepMind期间与其他研究者于2014年发表的论文中系统性阐述,该算法旨在解决连续动作空间中的强化学习问题。
- DPG采用确定性策略,将状态直接映射到具体的动作。
- DPG采用了演员-评委(Actor-Critic)架构。

- 深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)是确定性策略梯度(DPG)算法的改进版本,结合了深度Q网络(DQN)的思想,由DeepMind的研究团队发表。
- DDPG在训练过程中需要加载4个模型——包括2个策略网络(Actor)和2个评估网络(Critic)。
- 知名的TD3 :双延迟深度确定性策略梯度(Twin Delayed Deep Deterministic Policy Gradient, TD3)算法是对DDPG(Deep Deterministic Policy Gradient)的显著改进。在TD3的训练过程中,需要加载6个模型——包括2个策略网络(Actor)和4个评估网络(Critic)。这些网络分工明确、相互配合,通过延迟更新目标网络等技巧,有效提升了训练的稳定性和性能。

- 大模型(LLM、MLLM、VLM等)为何可以用RL范式进行训练? ——这可能是大模型RL方向最基础的一个问题——如何将大模型的生成过程建模为一个强化学习问题?如图所示,以下是生成式语言模型中的一些关键概念在强化学习范式下,具体的定义如下:
- (1)动作(Action, A):动作指模型在每个时间步生成的一个Token。例如,当模型从词表中选择下一个输出词时,这一选择就是一个动作。
- (2)动作空间(Action Space):动作空间是语言模型的词表(Vocabulary),即所有可能的Token的集合,通常包含约10万级的词元。
- (3)智能体(Agent):智能体是负责决策的实体,即LLM。它负责接受文本输入并生成一系列文本或其概率分布。
- (4)策略(Policy):策略是LLM对应的模型参数,决定了模型生成文本的具体规则和行为。
- (5)状态(State, S):状态是模型当前的输入上下文,通常由已生成的Token序列构成。例如,在针对Prompt为“你是谁?”的生成过程中,状态会随着生成的Token动态更新,形成如“你是谁?”、“你是谁?我”、“你是谁?我是”等状态。
- (6)回合(Episode):回合是一次完整的文本生成过程,从初始输入(例如一个问题或指令)开始,到模型生成结束(通常以特殊符号或表示)。
- (7)价值(Value, V):价值表示在特定状态下或采取特定动作后,模型未来所能获得的预期回报。它衡量当前动作(Token或词)的选择质量及其后续可能动作的潜在影响,通常由单独的价值网络进行估计。

RLHF训练可以分为两个阶段:
- (1)阶段一(SFT,训练奖励模型):根据用户输入(Prompt),生成多种候选回答,并由人工对这些回答进行偏好标注。这些标注数据作为训练样本,用于监督学习训练奖励模型,使其能够预测不同回答的偏好得分。
- (2)阶段二(RL,基于PPO的强化学习):联合策略模型、参考模型、奖励模型和价值模型,基于PPO等RL算法进行强化学习训练。通过迭代优化,策略模型逐步提升生成内容的质量,更加符合人类的需求和价值观。两个阶段的样本如下:
- (1)奖励模型样本:奖励模型的训练依赖于偏好数据集(Prompt + 回答),其构建和清洗过程详见《大模型算法》3.2.1节和3.2.3节。
- (2)PPO训练的样本:该阶段的训练样本仅需要Prompt即可,无需回答。如《大模型算法》5.1.1节所述,强化学习通过智能体与环境的交互进行学习,无需明确的标签(回答)。

- 奖励模型(Reward Model,RM)在RLHF训练中起着关键作用,与价值模型共同指导策略模型的优化方向。
- 奖励模型的核心作用是为特定Prompt对应的回答结果输出一个奖励分数,用于指导策略模型的优化。通常,奖励模型是在经过SFT的LLM基础上进行小幅改造而来。由于SFT之后的模型已具备丰富的语言处理能力,直接复用其底层的Transformer结构可以显著减少训练时间和数据需求。改造过程如图所示:
- (1)共享底层结构:奖励模型复用了LLM的底层结构及其权值,包括所有的Transformer Decoder层和Embedding层,从而确保两者具备一致的隐藏状态表示能力。这种共享设计不仅降低了训练复杂度,还显著减少了从零训练所需的计算资源和数据需求。
- (2)替换输出头:将LLM原有的顶层线性层(LM Head)替换为全新的线性层(Reward Head)。如《大模型算法》1.1.3节所述,LLM的最后一层通常是一个线性投影层(LM Head),其输入维度为隐藏状态大小(hidden_size),输出维度为词表大小(vocab_size),用于生成对应于全词表的logits值(概率分布)。而奖励模型只需输出一个分数值,因此,LLM的输出头被替换为一个全新的线性层,该层的输出维度为1(out_dim=1),用于生成奖励分数。

- 奖励模型输入由一条Prompt + 其对应的一条回答(Response)拼接而成,构成一个完整的序列,如图所示,包括Prompt(黄色部分),即用户提供的问题或上下文,以及回答(蓝色部分),即模型生成的回答序列。
- 图中,从第一个动作a0=“青”到最后一个动作a5= ,回答序列中的每个Token都被视为一个独立的动作。
- 奖励模型输出一组奖励分数r0,r1 , ..., r5,分别对应生成回答序列中每个Token位置,用于表示各位置生成Token的质量评分。

如图所示,其中,yw和 yl是针对同一个Prompt(图中的x)生成的两个回答,且 yw 优于 yl ,这包含了人类反馈(偏好)信息。训练步骤如下:
- (1)计算奖励分数:奖励模型分别对两个回答进行推理,得到两个奖励评分,即奖励模型恰好对优质回答yw 的评分更高,这与人类反馈大体一致。
- (2)计算Loss:根据两个奖励分数的差异,代入式(7.2)计算Loss。
- (3)梯度更新:通过反向传播计算梯度,并更新奖励模型的参数。
- (4)重复迭代多次:读取下一批偏好样本,按照上面的流程,重复迭代。随着参数逐步更新,奖励模型在所有偏好数据上的评分逐渐与人类的偏好趋于一致。

如图所示,RLHF的第二阶段需要加载四个模型进行强化学习训练。这四种模型的角色和相互关系如下:
- (1)策略模型(Policy Model, Actor):RLHF训练的核心,负责根据输入的Prompt生成回答At。策略模型需平衡两个目标:一方面,通过奖励模型和价值模型引导优化以符合人类偏好;另一方面,通过参考模型施加KL约束,限制生成内容与初始行为分布的偏离,避免过度激进或不稳定的回答。
- (2)参考模型(Reference Model):为策略模型提供稳定的行为基准,通过计算策略模型与参考模型输出之间的KL距离,可以在训练过程中对策略模型施加约束,防止其过度偏离参考模型的概率分布。这样可以避免策略模型偏离SFT模型太远,确保生成行为的稳定性,从而有效防止策略模型因过度追求奖励而出现“奖励欺骗”现象。
- (3)奖励模型(Reward Model, RM):为策略模型生成的回答分配即时奖励Rt,模拟人类偏好反馈。奖励模型与价值模型协作,共同引导策略模型朝着人类偏好的方向优化。如《大模型算法》 7.2.1节所述,在RLHF训练中,有时还会结合多个奖励模型以增强效果。
- (4)价值模型(Value Model, Critic):全面评估策略模型生成的回答,预测在特定状态下执行某动作的长期回报,计算价值估计Vt。

通常,在通用&低成本场景下,可以简化模型设计,RLHF涉及的四种模型拥有类似的结构,主要区别在于各模型的头部(Head)。这些模型可以基于SFT模型(经过有监督微调后的LLM版本)进行改造和初始化,如图所示:
- (1)策略模型:结构与SFT模型完全一致,包含N层Transformer Decoder和LM Head(Language Modeling Head)。在参数初始化时,通常直接复制SFT模型的所有参数。在随后的PPO训练中,策略模型的参数会持续更新。
- (2)参考模型:结构与SFT模型一致,包含N层Decoder和LM Head。参数初始化时,同样直接复制SFT模型的所有参数。但在后续的PPO训练中,参考模型的参数始终保持冻结(不更新)。因此,在PPO训练的初始时刻,参考模型与策略模型完全一致,在策略模型的优化过程中,参考模型为策略模型提供了一个稳定的行为参考基准。
- (3)奖励模型:与SFT模型的底层Decoder部分结构一致,但将头部结构替换为Reward Head(奖励头)。在参数初始化时,仅复制SFT模型的底层Decoder(N层),而Reward Head的参数通常随机初始化。在随后的PPO训练中,奖励模型的参数始终保持冻结(不进行更新)。
- (4)价值模型:结构类似于奖励模型,包含N层Decoder和Value Head(价值头)。在参数初始化时,可以复制奖励模型的所有参数,有时也可基于SFT模型进行改造。在随后的PPO训练中,价值模型的参数会持续更新。

- 价值模型与奖励模型需要为每个Token输出标量数值。为满足这一需求,TRL库实现了AutoModelForCausalLMWithValueHead类,如图所示,该模型采用了双头结构,即包含两个输出头部——语言模型头(LM Head)和价值头(Value Head)。
- 以回答序列长度为3、词表大小为151936为例,两个头部的输出如下:
- (1)Logits:形状为(3, 151936)的矩阵,表示每个Token在词表中的概率分布。
- (2)价值向量:形状为(3, 1)的向量,表示每个Token的价值估计。
- 为便于理解,本文假设batch_size=1。通过这种双头结构设计,模型的核心模块(N层Decoder)仅需执行一次推理,这显著降低了计算成本和显存消耗。

- 在RLHF中,通过共享同一个底座(N层Decoder),可以显著降低显存开销。这是因为参考模型、奖励模型、策略模型和价值模型之间具有较高的相似性。采用LoRA微调技术(详见《大模型算法》 第2.1.2节),四种模型可以共用同一底座,同时保持底座参数冻结(不更新)。
- 具体而言,参考模型仅用于评估对比,不参与训练;奖励模型在RLHF的第一阶段(奖励建模)中进行训练;而策略模型和价值模型则在第二阶段(策略优化)中进行训练。因此,如图所示,为奖励模型、策略模型和价值模型分别配备了独立的LoRA模块(参数),通过组合相应的LoRA模块、Head和共享的底座,即可动态组装所需的模型。在训练过程中,仅更新LoRA模块和Head部分的参数。
- 四种模型共享相同的底座(N层Decoder)。该底座参数常驻GPU并保持冻结状态,而LoRA模块和Head部分则根据PPO训练的不同环节,可动态加载到GPU中或动态swap。

- 涉及的四个模型具有不同的输入与输出(图中未展示等特殊Token),总结如表7.1所示。
- 所有四个模型中,只有策略模型执行了生成过程。策略模型根据输入的Prompt(或上下文)生成了三个Token,即三个动作([你]、[先去]、[。])(动作与状态的建模见《大模型算法》图7.1)。其余三个模型(参考模型、奖励模型、价值模型)均以Prompt和策略模型生成的回答为基础,执行相应的计算:
- (1)参考模型:输出回答对应的对数概率(LogProbs),与策略模型输出的对数概率计算出KL距离,确保策略模型不会偏离基准分布过远。
- (2)奖励模型:对生成的回答(策略模型的动作)进行逐Token的奖励打分,生成即时奖励Rt。如7.2.2节所述,通常只使用最后一个Token对应的奖励分数,即与 Token对应的奖励分数。
- (3)价值模型:对生成的回答(策略模型的动作)进行逐Token的价值估计,用于评估每个动作的长期回报Vt。
PPO训练中各模型的输入与输出
| 模型 | 输入 | 输出 |
|---|---|---|
| 策略模型 | Prompt(或上下文) | 回答及其对应的对数概率(LogProbs) |
| 参考模型 | Prompt(或上下文) + 回答 | 回答对应的对数概率(LogProbs) |
| 奖励模型 | Prompt(或上下文) + 回答 | 回答对应的每个 token 的奖励值 |
| 价值模型 | Prompt(或上下文) + 回答 | 回答对应的每个 token 的价值估计 |
- 在TRL等框架的实现中,KL距离的作用体现在对Advantage的计算环节,通过惩罚奖励值来达到约束目的。如《大模型算法》6.2.3节所述,在基于GAE算法计算Advantage时,需要用到奖励模型估计的奖励分数。在此基础上,可以对奖励分数进行调整。
- 如图所示,策略模型和参考模型均会输出Logits,并进一步转换为对数概率(LogProbs),转换公式可参考《大模型算法》第2.2.5节,基于这些对数概率即可完成KL距离的计算。
- 策略模型与参考模型的KL距离计算过程如图所示。为便于理解,这里假设批次大小(batch_size)为1,词表大小为7,回答对应的Token序列长度为3。Prompt为“吃饭?”,其Token化后为[吃饭]和[?]。回答为“你先去。”,其Token化后为[你]、[先去]和[。]。此处忽略[EOS]等特殊Token。
- KL计算的详细过程如下:
- (1)策略模型生成回答Token:以Prompt(或上下文)作为策略模型的输入,生成回答(response)以及对应的Logits,response包括三个Token:[你]、[先去]和[。]。注意,在实际RLHF训练中,该步骤已在经验采集(Make Experience)环节完成。
- (2)计算对数概率:在步骤(1)中,策略模型已经生成了Logits,即一个形状为(序列长度=3,词表大小=7)的矩阵。进一步,可以将该矩阵转换为对数概率(LogProbs)矩阵。
- (3)参考模型生成对数概率:以Prompt和response作为输入,参考模型推理并生成Logits,截取对应于response部分的Logits,进而可得到参考模型的对数概率矩阵。
- (4)抽取(Gather):以步骤(1)中策略模型生成的三个回答Token为索引,在策略模型和参考模型的对数概率矩阵中,分别提取出对应Token的对数概率值。通过这一操作,可以得到三个Token的对数概率值——策略模型的logprob和参考模型的ref_logprob。全词表范围下的对数概率矩阵形状为(序列长度=3,词表大小=7),而抽取后的logprob和ref_logprob形状为(3,1)。
- (5)KL距离计算:如图所示,对logprob和ref_logprob进行逐位置相减,最终得到策略模型和参考模型之间的KL距离。

- 如图,可以分为两个半区:整体结构主要分为经验收集和多轮PPO训练两个部分,即图中左右两个半区。在基于PPO算法进行RLHF训练时,这两个部分以循环的方式进行多次迭代。
- 配色说明:图中左下角附有颜色说明,不同颜色用于区分不同的内容类型,例如模型、数据、经验/样本、计算以及Loss,以便于快速理解。
- 缓冲区:图中间的缓冲区用于存储左半区收集的经验数据。这些数据将被切分成多个小批量(mini-batch),以支持右半区进行多次训练和参数更新。
- 模型版本的区别:左半区的策略模型和价值模型可视为旧模型,主要用于生成样本及相关计算。右半区的策略模型和价值模型则会在训练过程中进行多次迭代更新,因此可称为新模型。本质上,左右两个半区的模型(策略模型和价值模型)是同一个模型的不同状态版本,但为了便于理解,图中额外在右半区重复绘制了策略模型和价值模型。

- 拒绝采样(Rejection Sampling)微调:是一种基于数据筛选的模型微调策略,旨在通过人工或模型标注对模型生成的样本进行筛选,剔除低质量的样本,仅保留优质样本用于进一步微调,Anthropic、Meta等公司均曾利用该技术对语言模型进行优化。
- 该过程可重复多轮进行。

- RLAIF(Reinforcement Learning from AI Feedback,基于AI反馈的强化学习)是一种以AI反馈为基础的强化学习方法。该方法兴起于2022年,可作为RLHF的一种替代方案。
- RLAIF与RLHF在整体流程上具有较高的相似性,如图所示,其主要区别在于偏好样本的标注环节。RLHF依赖人类进行偏好标注,而RLAIF则通过AI完成此过程。

- CAI(Constitutional AI,基于宪法的AI)是一种用于大模型训练的RLAIF类型的算法,由美国AI独角兽Anthropic公司于2022年提出[62],并成功应用于Claude、DeepSeek等模型的训练。
- 该算法以一套预先制定的宪法原则为指导,通过结合AI反馈和自我批评机制,得以更加高效地提升模型的有用性和无害性。CAI的训练过程:
- (1)自我批评与回答修订:初始模型(例如RLHF模型)根据输入的Prompt生成回答,随后依据随机选取的一条宪法原则对回答进行批评与修订。模型可以自动识别回答中可能存在的潜在有害、不道德或不合规内容,并根据批评结果对回答进行自我修订。该过程可以多次迭代,通过逐步优化,使生成的回答更加符合预期。
- (2)训练监督学习模型(SL-CAI):修订后的回答与人类标注的有用性样本共同组成监督学习数据集,用于训练监督学习模型(SL-CAI)。通过对预训练语言模型进行微调,SL-CAI能够生成更贴近目标分布的回答,从而显著降低后续强化学习阶段的探索成本。
- (3)生成回答与AI标注:使用SL-CAI模型针对相同的Prompt生成多组候选回答,采用独立的反馈模型(例如预训练模型)对这些候选回答进行AI标注。反馈模型会基于随机选取的一条宪法原则为回答打分。此阶段的AI标注机制有效降低了对人工标注的依赖。
- (4)训练奖励模型:将AI标注数据与人工标注数据混合,形成偏好数据集,并以此训练奖励模型,或称为偏好模型(Preference Model,RM)。
- (5)强化学习优化目标模型(RL-CAI):在强化学习阶段,利用奖励模型提供奖励信号,通过强化学习算法(例如PPO)对目标模型进行优化。此阶段逐步增强模型在无害性和有用性上的表现,同时减少模型在敏感问题上的逃避倾向,确保其行为更加透明和可靠。

- RBR(Rule Based Rewards,基于规则的奖励)是一种基于规则的偏好建模方法,由OpenAI于2024年提出。
- 该方法通过人工标注数据训练出一个RBR奖励模型,将AI反馈融入传统的RLHF流程中。
- 自GPT-4推出以来,OpenAI就将RBR作为其安全系统的核心组成部分,并已应用于包括GPT-4o mini等模型。

- 知识蒸馏(Knowledge Distillation, KD)是一种模型压缩技术,由深度学习之父Geoffrey Hinton等人于2015年提出。
- 强大模型(例如OpenAI的o系列模型、DeepSeek、Qwen等)生成CoT推理链和回答结果,并将其作为训练数据用于对较弱模型进行蒸馏训练。
- 需要注意的是,此处的方法与传统知识蒸馏略有区别。

- 结果奖励模型(Outcome Reward Model,ORM):对于给定的Prompt及模型生成的回答y,结果奖励模型仅对最终输出的结果进行整体验证和奖励评分。
- 过程奖励模型(Process Reward Model,PRM):过程奖励模型对推理过程中的每个中间步骤逐一进行验证和奖励评分,从而提供更精细的反馈,能够有效指导模型关注推理过程的质量。

- 多数投票(Majority Vote)的核心思想是:针对一个给定的Prompt,模型进行多次推理,生成多条不同的推理路径,每条路径可能产生一个最终答案,通过统计最终答案的出现频率,将频率最高的答案作为最终输出。

【逻辑推理能力优化】AlphaGoZero在训练时的性能增长趋势[179]
- AlphaGo Zero展现出最强的性能,Elo评分高达5185。在推理过程中,如不使用MCTS进行预搜索,其Elo评分仅为3055。这一对比直观地揭示了:推理时搜索与计算能够显著提升模型的性能表现。

- 知识蒸馏(Knowledge Distillation):通过将训练好的教师模型输出的软标签(soft labels)转移给更小的学生模型进行训练,使学生模型学习教师的输出分布信息,从而在模型压缩和推理效率上获得显著提升。
- 最早由深度学习之父Geoffrey Hinton等人在论文《Distilling the Knowledge in a Neural Network》中提出。
- AI中常用的数值类型如图,它们的数值实现如下表。
| 类型 | 总位数 | 符号位 | 指数位 | 尾数位 / 整数位 |
|---|---|---|---|---|
| FP64 | 64 | 1 | 11 | 52 (尾数) |
| FP32 | 32 | 1 | 8 | 23 (尾数) |
| TF32 | 19 | 1 | 8 | 10 (尾数) |
| BF16 | 16 | 1 | 8 | 7 (尾数) |
| FP16 | 16 | 1 | 5 | 10 (尾数) |
| INT64 | 64 | 1 | – | 63 (整数值) |
| INT32 | 32 | 1 | – | 31 (整数值) |
| INT8 | 8 | 1 | – | 7 (整数值) |
| UINT8 | 8 | 0 | – | 8 (整数值) |
| INT4 | 4 | 1 | – | 3 (整数值) |
这张图展示了神经网络在常规训练中的前向传播(Forward)和反向传播(Backward)流程:
- 上半部分是前向传播:输入依次通过各层(Layer 1~4),每层的激活值(Activation)会被缓存,用于后续计算梯度。
- 下半部分是反向传播:从最终的损失(Loss)开始,逐层计算梯度(Gradient 4 → 1),并利用前向缓存的激活值进行链式求导。

这张图对比了常规训练与梯度累积(Gradient Accumulation)训练的差异:
- 常规训练(上方):每个 batch(如 Batch 1)执行一次前向 & 反向传播,立刻计算梯度并更新模型参数,更新频繁,对显存要求较低,但 batch size 不能太大。
- 梯度累积训练(下方):多个 batch(如 Batch 1~3)分别计算梯度,不立刻更新,而是将多个梯度累加后统一更新一次,等效于更大的 batch size,适合显存受限的情况。

这张图对比了常规训练与梯度重计算(Gradient Checkpoint)训练的不同:
- 常规训练(上方):每层的激活值(Activation)都完整保存,便于反向传播时直接使用,但显存占用大,不适合大模型。
- 梯度重计算(下方):只保存关键层的激活值(如 Activation 1 和 3),在反向传播时,对中间未保存的激活值(如 2 和 4)进行重新前向计算,以此节省显存。
- 总结:梯度重计算(Gradient Checkpointing)通过以多算换空间的方式降低显存使用,适合训练大模型时节省资源,但代价是训练时间略有增加。

- 完全重计算(Full Recomputation),即在反向传播阶段不保留任何激活值,而是每次需要时从输入开始重新执行前向计算获取中间激活。
- 这种方式极大地节省了显存,非常适合在内存受限场景下训练大模型,但会显著增加计算量和训练时间。

- RNN(Recurrent Neural Network):一种专门处理序列数据的神经网络,通过循环连接在每个时间步保留并更新前一时刻的隐藏状态,使网络具有记忆能力。
- 优点:结构简单、能够捕捉短期依赖;缺点:易出现梯度消失/爆炸,难以学习长距离依赖。

- Pre-norm:在子层(如自注意力或前馈网络)输入前先执行LayerNorm,然后经过子层并与原始输入进行残差连接,可提升梯度流动和深层模型的训练稳定性
- Post-norm:在子层输出后与原始输入进行残差连接,再执行LayerNorm,是Transformer的经典结构,但在深层网络中可能导致梯度衰减和训练不稳定
- BatchNorm(批量归一化):对每个小批量中的每个通道进行标准化(减去均值、除以标准差),再加上可学习的缩放和偏移参数。
- LayerNorm(层归一化):对每个样本的所有特征维度进行标准化(减去均值、除以标准差),同样使用可学习的缩放和偏移参数。
- RMSNorm(Root Mean Square Layer Normalization)是一种归一化方法,仅基于输入特征的均方根值(RMS)进行规范化,不计算均值偏移。
- 对每个样本的特征向量 (x),先计算 (\mathrm{RMS}(x)=\sqrt{\tfrac{1}{d}\sum_i x_i^2}),再做缩放:(\hat{x}=x / \mathrm{RMS}(x)\times \gamma + \beta)。
- 相较于 LayerNorm,它省略了减均值步骤,计算更高效且在多种 Transformer 架构中表现相近或更优。

- 模型剪枝(Model Pruning)是一种压缩深度神经网络的方法,通过移除冗余或不重要的权重、神经元或通道,减少模型参数量和计算量。
- 可以在尽量保持原始精度的前提下,提升模型的推理速度、降低内存占用。
- 典型流程包括:评估重要性 → 标记待剪参数 → 重训练(Fine-tuning)→ 验证性能。

- 在生成阶段,温度系数 (T) 通过放缩模型输出的 logits 分布来控制采样多样性。
- 当 (T < 1) 时,分布“尖锐”,模型更倾向于选择概率最高的 token,回答更固定。
- 当 (T > 1) 时,分布“平坦”,采样结果更具随机性。
- 适当调整温度可以在准确性和创造性之间取得平衡——低温度提升确定性,高温度增强多样性。

- 基本结构:SwiGLU 是 Gated Linear Unit(GLU)的变体,将输入向量通过两条线性映射,一路直接输出,一路经过 SiLU(Swish)激活后作为门控信号,两者逐元素相乘得到最终输出。
- 激活优势:用 SiLU(Swish-1)替换原 GLU 中的 sigmoid,使门控更平滑、梯度更稳定,有助于加速训练收敛并提升下游任务表现。

被面试者、工程师经常混淆的算法常用指标,我画了一张图来对比总结,区别一目了然。
- AUC(Area Under the ROC Curve):衡量二分类模型在所有可能阈值下区分正负样本的能力,ROC(Receiver Operating Characteristic)曲线以假正例率(FPR)为横轴、真正例率(TPR)为纵轴,AUC 值越接近 1 越好;若 AUC≈0.5 则相当于随机猜测。
- PR Curve(Precision–Recall Curve):模型在不同召回率(Recall)下的精确率(Precision)变化趋势。可通过曲线下面积来综合评估模型对正类的检出能力。
- Precision(精确率):在所有被预测为正例的样本中,实际为正例的比例,衡量误报率高低,适用于误报成本高的场景,个人认为“查准率”的翻译更贴切。Precision = TP / (TP + FP)
- Recall (召回率):在所有真实为正例的样本中,被正确预测为正例的比例,衡量漏报率高低,适用于漏报成本高的场景,个人认为“查全率”的翻译更贴切。Recall = TP / (TP + FN)
- F1 Score (F1 值):Precision 与 Recall 的调和平均,当两者平衡时取得最高分。F1 Score = 2 * (Precision * Recall) / (Precision + Recall)
- Accuracy (准确率):在所有样本中,预测正确的比例,适用于类别分布较为均衡时的整体性能评估。Accuracy = (TP + TN) / (TP + TN + FP + FN)
- BLEU(Bilingual Evaluation Understudy;机器翻译评估指标):基于 n-gram 重叠率评估翻译结果与参考的相似程度。
- ROUGE(Recall-Oriented Understudy for Gisting Evaluation;摘要评估指标):生成摘要与参考在 n-gram、最长公共子序列或词重叠方面的匹配情况,关注召回性能。
- RoPE,Rotary Position Embedding,旋转位置编码,由苏剑林提出
- 原理:对 Transformer 中的 Query 和 Key 隐藏向量应用旋转变换(基于正弦、余弦函数),将位置信息编码为向量的相位差。
- 相对位置:旋转操作天然地保留了向量之间的相对角度差异,使模型能够捕捉相对位置信息而不依赖绝对位置索引。
- 优点:无需额外参数、计算开销低;在长序列场景下相较于传统绝对位置编码具有更好的泛化和性能。

- RoPE原理、Base与θ值、作用机制详见:RoPE-theta-base.xlsx
- 维度成对旋转:将嵌入向量按奇偶索引两两分组,对每一对子向量应用一个二维旋转矩阵,旋转角度随位置和维度频率共同决定。高频维度:对应下图左半区、角速度大的那些维度。旋转角度随位置变化快,对相邻 token 的位置微小差异非常敏感,擅长捕捉短距离的局部相对位置信息。低频维度:对应下图右半区、角速度小的那些维度。旋转角度随位置变化慢,能够区分较远距离的相对位置信息,擅长建模全局或长距离依赖。

折叠 / 展开目录
第1章大模型原理与技术概要1.1图解大模型结构1.1.1大语言模型(LLM)结构全景图1.1.2输入层:分词、Token映射与向量生成1.1.3输出层:Logits、概率分布与解码1.1.4多模态语言模型(MLLM)与视觉语言模型(VLM)1.2大模型训练全景图1.3ScalingLaw(性能的四大扩展规律)第2章SFT(监督微调)2.1多种微调技术图解2.1.1全参数微调、部分参数微调2.1.2LoRA(低秩适配微调)——四两拨千斤2.1.3LoRA衍生:QLoRA、AdaLoRA、PiSSA等2.1.4基于提示的微调:Prefix-Tuning、PromptTuning等2.1.5AdapterTuning2.1.6微调技术对比2.1.7如何选择微调技术2.2SFT原理深入解析2.2.1SFT数据与ChatML格式化2.2.2Logits与Token概率计算2.2.3SFT的Label2.2.4SFT的Loss图解2.2.5对数概率(LogProbs)与LogSoftmax2.3指令收集和处理2.3.1收集指令的渠道和方法2.3.2清洗指令的四要素2.3.3数据预处理及常用工具2.4SFT实践指南2.4.1如何缓解SFT引入的幻觉?2.4.2Token级BatchSize的换算2.4.3BatchSize与学习率的ScalingLaw2.4.4SFT的七个技巧第3章DPO(直接偏好优化)3.1DPO的核心思想3.1.1DPO的提出背景与意义3.1.2隐式的奖励模型3.1.3Loss和优化目标3.2偏好数据集的构建3.2.1构建流程总览3.2.2Prompt的收集3.2.3问答数据对的清洗3.2.4封装和预处理3.3图解DPO的实现与训练3.3.1模型的初始化3.3.2DPO训练全景图3.3.3DPO核心代码的提炼和解读3.4DPO实践经验3.4.1β参数如何调节3.4.2DPO对模型能力的多维度影响3.5DPO进阶3.5.1DPO和RLHF(PPO)的对比3.5.2理解DPO的梯度第4章免训练的效果优化技术4.1提示工程4.1.1Zero-Shot、One-Shot、Few-Shot4.1.2Prompt设计的原则4.2CoT(思维链)4.2.1CoT原理图解4.2.2ToT、GoT、XoT等衍生方法4.2.3CoT的应用技巧4.2.4CoT在多模态领域的应用4.3生成控制和解码策略4.3.1解码的原理与分类4.3.2贪婪搜索4.3.3BeamSearch(波束搜索):图解、衍生方法4.3.4Top-K、Top-P等采样方法图解4.3.5其他解码策略4.3.6多种生成控制参数4.4RAG(检索增强生成)4.4.1RAG技术全景图4.4.2RAG相关框架4.5功能与工具调用(FunctionCalling)4.5.1功能调用全景图4.5.2功能调用的分类第5章强化学习基础5.1强化学习核心5.1.1强化学习:定义与区分5.1.2强化学习的基础架构、核心概念5.1.3马尔可夫决策过程(MDP)5.1.4探索与利用、ε-贪婪策略5.1.5同策略(On-policy)、异策略(Off-policy)5.1.6在线/离线强化学习(Online/OfflineRL)5.1.7强化学习分类图5.2价值函数、回报预估5.2.1奖励、回报、折扣因子(R、G、γ)5.2.2反向计算回报5.2.3四种价值函数:Qπ、Vπ、V*、Q*5.2.4奖励、回报、价值的区别5.2.5贝尔曼方程——强化学习的基石5.2.6Q和V的转换关系、转换图5.2.7蒙特卡洛方法(MC)5.3时序差分(TD)5.3.1时序差分方法5.3.2TD-Target和TD-Error5.3.3TD(λ)、多步TD5.3.4蒙特卡洛、TD、DP、穷举搜索的区别5.4基于价值的算法5.4.1Q-learning算法5.4.2DQN5.4.3DQN的Loss、训练过程5.4.4DDQN、DuelingDQN等衍生算法5.5策略梯度算法5.5.1策略梯度(PolicyGradient)5.5.2策略梯度定理5.5.3REINFORCE和Actor-Critic:策略梯度的应用5.6多智能体强化学习(MARL)5.6.1MARL的原理与架构5.6.2MARL的建模5.6.3MARL的典型算法5.7模仿学习(IL)5.7.1模仿学习的定义、分类5.7.2行为克隆(BC)5.7.3逆向强化学习(IRL)5.7.4生成对抗模仿学习(GAIL)5.8强化学习高级拓展5.8.1基于环境模型(Model-Based)的方法5.8.2分层强化学习(HRL)5.8.3分布价值强化学习(DistributionalRL)第6章策略优化算法6.1Actor-Critic(演员-评委)架构6.1.1从策略梯度到Actor-Critic6.1.2Actor-Critic架构图解6.2优势函数与A2C6.2.1优势函数(Advantage)6.2.2A2C、A3C、SAC算法6.2.3GAE(广义优势估计)算法6.2.4γ和λ的调节作用6.3PPO及其相关算法6.3.1PPO算法的演进6.3.2TRPO(置信域策略优化)6.3.3重要性采样(ImportanceSampling)6.3.4PPO-Penalty6.3.5PPO-Clip6.3.6PPO的Loss的扩展6.3.7TRPO与PPO的区别6.3.8图解策略模型的训练6.3.9深入解析PPO的本质6.4GRPO算法6.4.1GRPO的原理6.4.2GRPO与PPO的区别6.5确定性策略梯度(DPG)6.5.1确定性策略vs随机性策略6.5.2DPG、DDPG、TD3算法第7章RLHF与RLAIF7.1RLHF(基于人类反馈的强化学习)概要7.1.1RLHF的背景、发展7.1.2语言模型的强化学习建模7.1.3RLHF的训练样本、总流程7.2阶段一:图解奖励模型的设计与训练7.2.1奖励模型(RewardModel)的结构7.2.2奖励模型的输入与奖励分数7.2.3奖励模型的Loss解析7.2.4奖励模型训练全景图7.2.5奖励模型的ScalingLaw7.3阶段二:多模型联动的PPO训练7.3.1四种模型的角色图解7.3.2各模型的结构、初始化、实践技巧7.3.3各模型的输入、输出7.3.4基于KL散度的策略约束7.3.5基于PPO的RLHF核心实现7.3.6全景图:基于PPO的训练7.4RLHF实践技巧7.4.1奖励欺骗(RewardHacking)的挑战与应对7.4.2拒绝采样(RejectionSampling)微调7.4.3强化学习与RLHF的训练框架7.4.4RLHF的超参数7.4.5RLHF的关键监控指标7.5基于AI反馈的强化学习7.5.1RLAIF的原理图解7.5.2CAI:基于宪法的强化学习7.5.3RBR:基于规则的奖励第8章逻辑推理能力优化8.1逻辑推理(Reasoning)相关技术概览8.1.1推理时计算与搜索8.1.2基于CoT的蒸馏8.1.3过程奖励模型与结果奖励模型(PRM/ORM)8.1.4数据合成8.2推理路径搜索与优化8.2.1MCTS(蒙特卡洛树搜索)8.2.2A*搜索8.2.3BoN采样与蒸馏8.2.4其他搜索方法8.3强化学习训练8.3.1强化学习的多种应用8.3.2自博弈(Self-Play)与自我进化8.3.3强化学习的多维创新第9章综合实践与性能优化9.1实践全景图9.2训练与部署9.2.1数据与环境准备9.2.2超参数如何设置9.2.3SFT训练9.2.4对齐训练:DPO训练、RLHF训练9.2.5推理与部署9.3DeepSeek的训练与本地部署9.3.1DeepSeek的蒸馏与GRPO训练9.3.2DeepSeek的本地部署与使用9.4效果评估9.4.1评估方法分类9.4.2LLM与VLM的评测框架9.5大模型性能优化技术图谱
- 《大模型算法:强化学习、微调与对齐》原书的参考文献详见:参考文献
- 本人的 公众号 / 知乎 / B站 ,均可私信交流。
- 💚公众号:叶子哥AI,扫码关注:

- 📘知乎(叶子哥AI):https://www.zhihu.com/people/yezibro
- 📺B 站(叶子哥AI):https://space.bilibili.com/3546693609982728
- 欢迎为本项目提交纠错与修正或其他任何改进!绘图模板示例:images-template.pptx
- 提交步骤:(1)Fork: 点击页面上的"Fork" 按钮,在你的主页创建独立的子仓库 → (2)Clone:将你Fork后的子仓库Clone到本地 → (3)本地新建分支 → (4)修改提交 → (5)Push到远程子仓库 → (6)提交PR:回到Github页面,在你的子仓库界面点击“Compare & pull request”发起PR,等待维护者审核&合并到母仓库。
- 绘图配色以这些颜色为主:浅蓝(编码
#71CCF5) ;浅黄(编码#FFE699);蓝紫(编码#C0BFDE) ; 粉红(编码#F0ADB7)。
本仓库内所有图片均依据LICENSE 进行授权。只要遵守下方条款,你就可以自由地使用、修改及二次创作这些材料:
- 分享 —— 你可以复制并以任何媒介或格式重新发布这些材料。
- 修改 —— 你可以对材料进行混合、转换,并基于其创作衍生作品。
同时,你必须遵守以下条款:
- 如果用于网络 —— 如果将材料用于帖子、博客等网络内容,请务必保留图片中已包含的原创作者+本仓库地址信息。
- 如果用于论文、书籍等出版物 —— 如果将材料用于论文、书籍等正式出版物,请按照本仓库规定的引用格式在参考文献中注明出处;在这种情况下,图片中原有的原创作者信息可以删除。
- 非商业性使用 —— 你不得将这些材料用于任何直接的商业用途.
- 如果你在论文、著作或报告中使用了本仓库/本书中的图片等内容,请按以下格式引用:
- 中文引用格式(推荐):
余昌叶. 大模型算法:强化学习、微调与对齐[M]. 北京: 电子工业出版社, 2025. https://github.com/changyeyu/LLM-RL-Visualized- 英文(English)引用格式:
Yu, Changye. Large Model Algorithms: Reinforcement Learning, Fine-Tuning, and Alignment. Beijing: Publishing House of Electronics Industry, 2025. https://github.com/changyeyu/LLM-RL-Visualized中文 BibTeX(推荐):
@book{yu2025largemodel,title ={大模型算法:强化学习、微调与对齐},author ={余昌叶},publisher ={电子工业出版社},year ={2025},address ={北京},isbn ={9787121500725},url ={https://github.com/changyeyu/LLM-RL-Visualized},language ={zh}}
英文(English) BibTeX:
@book{yu2025largemodel_en,title ={Large Model Algorithms: Reinforcement Learning, Fine-Tuning, and Alignment},author ={Yu, Changye},publisher ={Publishing House of Electronics Industry},year ={2025},address ={Beijing},isbn ={9787121500725},url ={https://github.com/changyeyu/LLM-RL-Visualized},language ={en}}
⭐ Star 增长趋势(changyeyu/LLM-RL-Visualized )
欢迎点击仓库顶部的Star ⭐ 关注, 感谢鼓励✨
About
🌟100+ 原创 LLM / RL 原理图📚,《大模型算法》作者巨献!💥(100+ LLM/RL Algorithm Maps )
Topics
Resources
License
Uh oh!
There was an error while loading.Please reload this page.







































