Meta har nettopp gitt ut MobileLLM-R1
en modell for kantresonnement med færre enn 1B-parametere
2×–5× Performance Boost i forhold til andre modeller med fullstendig åpen kildekode: MobileLLM-R1 oppnår ~5× høyere MATH-nøyaktighet sammenlignet med Olmo-1,24B, og ~2× sammenlignet med SmolLM2–1,7B.
Bruker bare 1/10 av pre-training-tokenene sammenlignet med Qwen: matcher eller overgår Qwen3-nøyaktigheten på flere resonneringsbenchmarks mens du trener på bare 4,2T-tokens (bare 11,7 % av Qwen3s 36T).