Um artigo da OpenAI afirma que as alucinações são menos um problema com os LLMs em si e mais uma questão de treinar em testes que apenas recompensam respostas corretas. Isso incentiva o palpite em vez de dizer "não sei" Se isso for verdade, há um caminho direto para uma IA mais confiável.
293,15K