Meta hat gerade MobileLLM-R1 veröffentlicht ein Edge-Reasoning-Modell mit weniger als 1B Parametern 2×–5× Leistungssteigerung im Vergleich zu anderen vollständig Open-Source-Modellen: MobileLLM-R1 erreicht ~5× höhere MATH-Genauigkeit im Vergleich zu Olmo-1.24B und ~2× im Vergleich zu SmolLM2-1.7B. Verwendet nur 1/10 der Pre-Training-Tokens im Vergleich zu Qwen: erreicht oder übertrifft die Genauigkeit von Qwen3 bei mehreren Reasoning-Benchmarks, während es nur mit 4,2T Tokens trainiert (nur 11,7% von Qwen3s 36T).