Fügen Sie Top-k + Fehlerfeedback hinzu und entfernen Sie den äußeren Nesterov von DiloCo (also ~äußeres einfaches SGD). Ich bin immer noch ziemlich überrascht, dass es funktioniert / Nesterov ersetzen könnte :0 Tolle Arbeit!
Amir Sarfi
Amir Sarfi22. Aug., 10:13
Einführung von SparseLoCo: eine kommunikationseffiziente Methode für das Pre-Training von LLM. TL;DR: Wir nutzen Top-k-Sparsifikation + Fehlerfeedback mit den seltenen äußeren Schritten von DiLoCo – kommunizieren nur 1–3% der Gradienten mit 2-Bit-Quantisierung – und übertreffen DiLoCo und DeMo. 1/N, ArXiv: Github:
4,85K