机器学习 | LLM 并行方法(二)
本部分文章将涉及以下 LLM 并行方法:
- 上下文并行 (Context Parallelism, CP):旨在突破超长序列带来的注意力计算与显存平方级增长瓶颈。
- 流水线并行 (Pipeline Parallelism, PP):拥有极小的跨机通信开销,是突破单节点显存上限、实现多机大模型训练的核心基石。
- 专家并行 (Expert Parallelism, EP):专为混合专家模型 (MoE) 量身定制,实现多专家的负载与算力均衡。
本部分文章将涉及以下 LLM 并行方法:
本部分文章将涉及以下 LLM 并行方法:
集合通信 (Collective Communications):分布式系统或并行计算中,用于在并发执行单元(GPU)间进行数据传输与同步的操作。