El artículo de OpenAI dice que las alucinaciones son menos un problema con los propios LLM y más un problema con el entrenamiento en pruebas que solo recompensan las respuestas correctas. Eso fomenta las conjeturas en lugar de decir "No lo sé" Si esto es cierto, hay un camino directo para una IA más confiable.
293.14K