Un documento di OpenAI afferma che le allucinazioni sono meno un problema con i LLM stessi e più un problema con l'addestramento su test che premiano solo le risposte corrette. Questo incoraggia a indovinare piuttosto che a dire "non lo so" Se questo è vero, c'è un percorso semplice per un'IA più affidabile.
293,14K