Un documento de OpenAI dice que las alucinaciones son menos un problema de los LLM en sí y más un problema con el entrenamiento en pruebas que solo recompensan las respuestas correctas. Eso fomenta adivinar en lugar de decir "no sé". Si esto es cierto, hay un camino directo hacia una IA más confiable.