Artikkel fra OpenAI sier at hallusinasjoner er mindre et problem med LLM-er i seg selv og mer et problem med trening på tester som bare belønner riktige svar. Det oppmuntrer til å gjette i stedet for å si "jeg vet ikke" Hvis dette er sant, er det en enkel vei for mer pålitelig AI.
300,04K