机器学习 | 混合专家模型 (MoE)

混合专家模型 (Mixture of Experts, MoE):一种通过将多个“专家”子模型组合起来,通过路由模块动态选择部分专家处理不同输入,从而实现高效扩展参数规模、提升性能并降低计算成本的深度学习方法。

- 阅读剩余部分 -

机器学习 | 语言模型对话模板

语言模型对话模板 (Chat Template): 语言模型的对话模板是 Tokenizer 的一部分,用来把问答的对话内容转换为模型的输入提示词,是模型对话能力至关重要的组件。

- 阅读剩余部分 -

机器学习 | 组相关策略优化 (GRPO)

组相关策略优化 (Group Relative Policy Optimization, GRPO):强化学习中的一种策略优化方法,通过采样求期望节省了 PPO 中的 Value (Critic) 模型。Deepseek-R1 的训练方法。

- 阅读剩余部分 -

机器学习 | 简单偏好优化 (SimPO)

简单偏好优化 (Simple Preference optimization, SimPO):大语言模型强化学习中的一种偏好优化方法,其对齐了偏好优化目标中的奖励函数生成指标,同时解放了参考模型,相比 DPO 更简单、稳定与高效。

- 阅读剩余部分 -