OpenAI の論文によると、幻覚は LLM 自体の問題というよりも、正解のみに報いるテストのトレーニングの問題であると述べています。それは「わからない」と言うのではなく、推測を奨励します これが本当であれば、より信頼性の高い AI への簡単な道筋があります。
293.14K