Añadir retroalimentación de error top-k y eliminar Nesterov externo de DiloCo (así que ~SGD plano externo). Todavía estoy bastante sorprendido de que funcione / podría reemplazar a Nesterov :0 ¡Buen trabajo!
Amir Sarfi
Amir Sarfi22 ago, 10:13
Presentamos SparseLoCo: un método eficiente en comunicación para el preentrenamiento de LLM. Resumen: Aprovechamos la esparsificación Top-k + retroalimentación de errores con los pasos externos infrecuentes de DiLoCo—comunicando solo el 1–3% de los gradientes con cuantización de 2 bits—superando a DiLoCo y DeMo. 1/N, ArXiv: Github:
5,01K