OpenAI объяснила, почему ИИ делает «галлюцинации»

Исследователи OpenAI заявили, что постоянная проблема «галлюцинаций» у чат-ботов ИИ связана с методами обучения и оценки моделей, а не с техническими сбоями.

В исследовании компания отмечает, что современные системы оценки фактически учат модели «блефовать», а не признавать свою неуверенность. Даже продвинутые модели, такие как GPT‑5, продолжают делать уверенные, но неверные заявления.

Опубликованная совместно с Технологическим институтом Джорджии работа объясняет, что «галлюцинации» возникают из-за фундаментального несоответствия критериев оценки: модели поощряются за догадки, а не за честное указание на отсутствие знаний.

Актуальные новости России и мира