机器学习 | LLM 并行方法(二)

本部分文章将涉及以下 LLM 并行方法:

  1. 上下文并行 (Context Parallelism, CP):旨在突破超长序列带来的注意力计算与显存平方级增长瓶颈。
  2. 流水线并行 (Pipeline Parallelism, PP):拥有极小的跨机通信开销,是突破单节点显存上限、实现多机大模型训练的核心基石。
  3. 专家并行 (Expert Parallelism, EP):专为混合专家模型 (MoE) 量身定制,实现多专家的负载与算力均衡。

- 阅读剩余部分 -

机器学习 | LLM 并行方法(一)

本部分文章将涉及以下 LLM 并行方法:

  1. 数据并行 (Data Parallelism, DP):将数据切分给不同 GPU,不同 GPU 并行处理不同输入数据。
  2. 张量并行 (Tensor Parallelism, TP):将单个参数矩阵切分到多卡,通过协作完成层内计算。

- 阅读剩余部分 -