Dokument od OpenAI mówi, że halucynacje są mniej problemem samych LLM-ów, a bardziej kwestią szkolenia na testach, które nagradzają tylko poprawne odpowiedzi. To zachęca do zgadywania zamiast mówienia „nie wiem”. Jeśli to prawda, istnieje prosty sposób na bardziej niezawodne AI.
267,19K