На главной конференции по ИИ NeurIPS обнаружили научные статьи с галлюцинациями
Ирония достигла своего апогея: на NeurIPS, одной из самых престижных мировых конференций по машинному обучению, были обнаружены принятые к публикации научные работы, содержащие «галлюцинации» — выдуманные нейросетями ссылки на несуществующие источники. Этот инцидент наглядно демонстрирует, что даже элитные академические площадки оказались не готовы к лавине низкокачественного контента, генерируемого искусственным интеллектом.
Тревожные данные предоставил стартап GPTZero, специализирующийся на инструментах для детектирования ИИ-текстов. Аналитики компании выяснили, что часть материалов, успешно прошедших строгий процесс рецензирования, содержит библиографические сноски, которые выглядят абсолютно правдоподобно, но не ведут к реальным исследованиям. Подобные артефакты являются классическим признаком использования больших языковых моделей: алгоритмы стремятся сохранить логическую структуру и убедительность текста, зачастую жертвуя фактической точностью и просто выдумывая авторов или названия статей.
Для научного сообщества это сигнал о системном кризисе. Проблема, которую эксперты уже окрестили термином «AI slop» (ИИ-шлак), создает невозможную нагрузку на рецензентов. Человеческого ресурса уже не хватает для тщательной проверки каждой ссылки в растущем потоке публикаций, а инструменты автоматизации пока не гарантируют стопроцентной защиты от подделок. В результате под угрозой оказывается сама репутация NeurIPS и ценность научных публикаций в эпоху генеративного ИИ.