¿Qué pasaría si te dijera cómo superar a DiLoCo mientras solo comunicas el 1-3% del pseudogradiente?
Amir Sarfi
Amir Sarfi22 ago, 10:13
Presentamos SparseLoCo: un método eficiente en comunicación para el preentrenamiento de LLM. Resumen: Aprovechamos la esparsificación Top-k + retroalimentación de errores con los pasos externos infrecuentes de DiLoCo—comunicando solo el 1–3% de los gradientes con cuantización de 2 bits—superando a DiLoCo y DeMo. 1/N, ArXiv: Github:
1,53K