Исследователи OpenAI заявили, что постоянная проблема «галлюцинаций» у чат-ботов ИИ связана с методами обучения и оценки моделей, а не с техническими сбоями.
В исследовании компания отмечает, что современные системы оценки фактически учат модели «блефовать», а не признавать свою неуверенность. Даже продвинутые модели, такие как GPT‑5, продолжают делать уверенные, но неверные заявления.
Опубликованная совместно с Технологическим институтом Джорджии работа объясняет, что «галлюцинации» возникают из-за фундаментального несоответствия критериев оценки: модели поощряются за догадки, а не за честное указание на отсутствие знаний.
