Wytrenujemy nasz model LFM2-350M @LiquidAI_ 1400x ponad "optymalne obliczenia" > Zasady skalowania Chinchilla: ~20 tokenów na parametr > LFM2-350M: ~28 000 tokenów na parametr (1400x więcej) Dlaczego? Ponieważ Chinchilla dotyczy tylko obliczeń treningowych, podczas gdy my dbamy o koszty wnioskowania.