🚀私たちの新しい研究「ニューラルアンサッツを用いた構成からパフォーマンスへのスケーリング法則」をご紹介します。 大規模な事前学習ログで訓練された言語モデルは、訓練構成が事前学習のパフォーマンスにどのように影響するかを正確に予測し、10倍の計算量を持つ実行に一般化できます。