Legg til topp-k + feiltilbakemelding og fjern ytre Nesterov fra DiloCo (dermed ~ytre vanlig SGD). Jeg er fortsatt ganske overrasket over at det fungerer / kan erstatte Nesterov :0 Kult arbeid!
Amir Sarfi
Amir Sarfi22. aug., 10:13
Vi introduserer SparseLoCo: en kommunikasjonseffektiv metode for LLM-fortrening. TL; DR: Vi utnytter Top-k-sparsifisering + feiltilbakemelding med DiLoCos sjeldne ytre trinn – som bare kommuniserer 1–3 % gradienter med 2-bits kvantisering – og overgår DiLoCo og DeMo. 1/N, ArXiv: Github:
4,78K