Un document d'OpenAI indique que les hallucinations sont moins un problème des LLM eux-mêmes et plus un problème de l'entraînement sur des tests qui ne récompensent que les bonnes réponses. Cela encourage la devinette plutôt que de dire "Je ne sais pas". Si cela est vrai, il existe un chemin simple pour une IA plus fiable.
293,14K