Meta剛剛發佈了MobileLLM-R1 這是一個參數少於10億的邊緣推理模型 相比其他完全開源模型,性能提升2×–5×:MobileLLM-R1在MATH準確性上比Olmo-1.24B高出約5倍,比SmolLM2-1.7B高出約2倍。 與Qwen相比,僅使用了1/10的預訓練標記:在多個推理基準上,MobileLLM-R1的準確性與Qwen3相匹配或超越,同時僅在4.2萬億標記上進行訓練(僅為Qwen3的36萬億的11.7%)。