Сюрприз-сюрприз, галлюцинации происходят потому, что это на самом деле не ИИ, а просто большая модель машинного обучения. Иногда я задаюсь вопросом, зачем это нужно исследовать, если это не дает способов сделать это лучше. Я написал работу в магистратуре, которая использовала Mechanical Turk для ответов на вопросы. Оказалось, что люди хорошо не следуют указаниям и заставляют ожидания быть неверными в целом.
机器之心 JIQIZHIXIN
机器之心 JIQIZHIXIN6 сент., 12:51
OpenAI только что заявила, что нашла виновника за галлюцинации ИИ.
1,29K