Introductie van SparseLoCo: een communicatie-efficiënte methode voor LLM pre-training. TL;DR: We maken gebruik van Top-k sparsificatie + foutfeedback met DiLoCo’s onregelmatige buitenste stappen—communiceren slechts 1–3% van de gradiënten met 2-bits kwantisatie—en presteren beter dan DiLoCo en DeMo. 1/N, ArXiv: Github:
38,08K