Divertente come il 99% delle persone che cercano di spiegare i LLM dimenticano che non generano il token successivo, ma generano una distribuzione di probabilità su tutto lo spazio del vocabolario da cui l'applicazione finale è libera di campionare. Spesso non ti viene presentato il Token Più Probabile.
Gergely Orosz
Gergely Orosz4 set, 21:46
Divertente come il 99% delle persone che usano i LLM dimentichino come funzionano queste cose: Sono macchine di probabilità avanzate. Generano il prossimo token (parola) più probabile basandosi sull'input e sul loro addestramento. Sotto il cofano, è una gigantesca moltiplicazione di matrici che produce risultati inquietantemente buoni.
848,09K