Meta acaba de lanzar MobileLLM-R1 un modelo de razonamiento de borde con menos de 1B parámetros Aumento del rendimiento de 2×-5× en comparación con otros modelos totalmente de código abierto: MobileLLM-R1 logra una precisión de MATH ~5× mayor en comparación con Olmo-1.24B y ~2× en comparación con SmolLM2-1.7B. Utiliza solo 1/10 de los tokens de preentrenamiento en comparación con Qwen: iguala o supera la precisión de Qwen3 en múltiples puntos de referencia de razonamiento mientras entrena con solo tokens de 4.2T (solo el 11.7% de los 36T de Qwen3).