Nous avons entraîné notre modèle LFM2-350M @LiquidAI_ 1400x au-delà de "l'optimal de calcul" > Lois de mise à l'échelle de Chinchilla : ~20 tokens par paramètre > LFM2-350M : ~28 000 tokens par paramètre (1400x plus) Pourquoi ? Parce que Chinchilla ne concerne que le calcul d'entraînement, tandis que nous nous soucions du coût d'inférence.