机器学习 | 语言模型对话模板
语言模型对话模板 (Chat Template): 语言模型的对话模板是 Tokenizer 的一部分,用来把问答的对话内容转换为模型的输入提示词,是模型对话能力至关重要的组件。
语言模型对话模板 (Chat Template): 语言模型的对话模板是 Tokenizer 的一部分,用来把问答的对话内容转换为模型的输入提示词,是模型对话能力至关重要的组件。
组相关策略优化 (Group Relative Policy Optimization, GRPO):强化学习中的一种策略优化方法,通过采样求期望节省了 PPO 中的 Value (Critic) 模型。Deepseek-R1 的训练方法。
简单偏好优化 (Simple Preference optimization, SimPO):大语言模型强化学习中的一种偏好优化方法,其对齐了偏好优化目标中的奖励函数与生成指标,同时解放了参考模型,相比 DPO 更简单、稳定与高效。
直接偏好优化算法 (Direct Preference optimization, DPO):大语言模型强化学习中的一种偏好优化方法,其相比 PPO 更简单、稳定与高效。
近端策略优化 (Proximal policy optimization, PPO):强化学习中的一种策略优化方法,其相比 TRPO 更简单、稳定与高效。
策略梯度算法 (Policy Gradient):强化学习中的一种策略优化方法,它直接根据奖励值对策略参数进行梯度上升,从而最大化奖励的期望。