辅导男朋友转算法岗第26天|分布式训练1

奔跑的跳跳 2024-09-10 00:37:43
[向右R]大模型训练因为参数量、数据量、计算量的巨大,对GPU的要求很高,之前学习的参数高效微调、量化等方法都是为了解决单卡场景下的显存消耗问题,今天就来学习多卡场景下的分布式训练吧! [向右R]分布式训练通过并行计算的方式,将数据和计算任务分配到多个节点上,从而提高GPU的训练速度和处理大规模数据的能力。

0 阅读:0