Koulutimme @LiquidAI_ LFM2-350M-mallimme 1400x "laskentaoptimaalisen" yli > Chinchillan skaalauslait: ~20 tokenia per parametri > LFM2-350M: ~28 000 tokenia per parametri (1400 kertaa enemmän) Miksi? Koska Chinchilla koskee vain laskennan kouluttamista, kun taas me välitämme päättelykustannuksista