В научном мире случается всё: от гениальных открытий до пустяковых опечаток — и теперь к ним добавились «галлюцинации» ИИ. Шуточка для настроения: если ваша ссылка выглядит слишком хорошей, чтобы быть настоящей — возможно, её придумал чат‑бот в перерыве на кофе.
Недавно GPTZero заявил, что нашёл около 100 вымышленных цитат и авторов в более чем 51 статье, принятых на конференцию NeurIPS (см. публикацию GPTZero). Это не первый звоночек: ранее было обнаружено 50 подобных ошибок в рукописях ICLR. Одновременно с бурным ростом популярности генеративного ИИ (и с момента появления ChatGPT) увеличилось и число поданных работ: на NeurIPS оно поднялось более чем на 220% с 2020 по 2025 год. Неудивительно, что при таком наплыве нагрузка на рецензентов и процедуры проверки превратилась в сито с дырками.
Исследование коллективов из Together AI, NEC Labs, Rutgers и Stanford (предварительная версия на arXiv) показывает: число объективных ошибок в статьях тоже растёт — например, среднее число ошибок на статью в NeurIPS увеличилось с 3.8 в 2021 году до 5.9 в 2025‑м. Это уже не только забавно — это угроза доверии к результатам исследований.
Проблемы усугубляют «анти‑антидетекторы», вроде репозитория Humanizer, которые пытаются скрыть следы машинного письма. Издатели и сообщества (см. отчёт STM) пытаются адаптироваться: автоматические проверки, расширенный аудит ссылок и усиленная редакционная ответственность — среди предлагаемых мер. GPTZero предлагает включать Hallucination Check в инструментарий издательств, но это лишь часть решения.
Вывод простой и банальный: технологии — великолепный инструмент, если их использовать аккуратно. Наука выигрывает, когда мы сочетает умение творить с умением проверять — и не позволяем технологиям заменить элементарную аккуратность. И да, пока ИИ не научился перечислять настоящие фамилии лучше нас: держите ручку рядом.
