Meta刚刚发布了MobileLLM-R1 这是一个参数少于10亿的边缘推理模型 相比其他完全开源模型,性能提升2×–5×:MobileLLM-R1在MATH准确性上比Olmo-1.24B高出约5倍,比SmolLM2-1.7B高出约2倍。 与Qwen相比,仅使用了1/10的预训练标记:在多个推理基准上,MobileLLM-R1的准确性与Qwen3相匹配或超越,同时仅在4.2万亿标记上进行训练(仅为Qwen3的36万亿的11.7%)。