Ein Papier von OpenAI besagt, dass Halluzinationen weniger ein Problem der LLMs selbst sind und mehr ein Problem mit dem Training auf Tests, die nur richtige Antworten belohnen. Das fördert das Raten anstatt zu sagen: "Ich weiß es nicht". Wenn das wahr ist, gibt es einen klaren Weg zu zuverlässigerer KI.
293,14K