Společnost Meta právě vydala MobileLLM-R1
model uvažování o hraně s méně než 1B parametry
2×–5× Zvýšení výkonu oproti jiným plně open-source modelům: MobileLLM-R1 dosahuje ~5× vyšší přesnosti MATH oproti Olmo-1.24B a ~2× oproti SmolLM2-1.7B.
Ve srovnání s Qwen používá pouze 1/10 předtrénovacích tokenů: odpovídá nebo překračuje přesnost Qwen3 v několika srovnávacích testech uvažování, zatímco trénuje pouze na 4,2T tokenech (pouze 11,7 % z Qwen3 36T).