Доклад от OpenAI говорит, что галлюцинации меньше связаны с самими LLM и больше являются проблемой обучения на тестах, которые вознаграждают только правильные ответы. Это поощряет угадывание, а не говорит "Я не знаю" Если это правда, то существует простой путь к более надежному ИИ.
293,15K