7 апреля 2026 года журнал Nature опубликовал журналистское расследование Криса Стокела-Уокера (Chris Stokel-Walker), британского журналиста, специализирующегося на темах ИИ и социальных медиа, «Ученые придумали фиктивную болезнь. ИИ сказал людям, что она настоящая» («Scientists invented a fake disease. AI told people it was real») — об эксперименте, когда исследователи намеренно придумали несуществующее заболевание, опубликовали о нем два заведомо поддельных препринта — и уже через несколько недель крупнейшие ИИ-системы мира ставили по нему диагнозы. ИНФРАГРИН комментирует результаты эксперимента.
Болезнь из воздуха
Как пишет автор статьи в Nature, история начиналась так: медицинский исследователь Гетеборгского университета (University of Gothenburg) Алмира Османович Тунстрем (Almira Osmanovic Thunström) придумала болезнь с нуля. Само слово «bixonimania» она выбрала намеренно нелепым: никакое глазное заболевание не могло бы называться через «манию» — это психиатрический термин. Согласно легенде, болезнь поражает веки при длительном воздействии синего света с экранов — симптомы достаточно обыденные, чтобы казаться правдоподобными.
В марте 2024 года в блог-платформе Medium появились два поста о бикосомании. В апреле и мае того же года на академической сети SciProfiles — два препринта. Их автором значился некий Лазлив Изгублженович (Lazljiv Izgubljenovic) из несуществующего Университета Астериа Горизонт (Asteria Horizon University) в выдуманном городе Нова-Сити (Nova City), штат Калифорния. Фотография автора была создана ИИ.
В текстах самих препринтов исследователи расставили многочисленные маркеры фиктивности: в благодарностях упоминалась «профессор Мария Бом со Звездной академии (Starfleet Academy) и борта USS Enterprise», исследование финансировал «Фонд профессора Сайдшоу Боба за выдающийся вклад в продвинутое мошенничество». Прямо в тексте было написано: «эта статья целиком выдумана», а выборка состояла из «пятидесяти придуманных участников». Фальшивку трудно было не заметить — если читать.

Форма важнее содержания
Согласно материалу Nature, уже 13 апреля 2024 года — менее чем через три недели после публикации первого поста — Microsoft Copilot характеризовал бикосоманию как «интригующее и сравнительно редкое состояние». В тот же день Google Gemini рекомендовал пользователям обратиться к офтальмологу. Perplexity рассчитал распространенность: один случай на 90 000 человек. ChatGPT оценивал симптомы пользователей и сообщал, соответствуют ли они картине заболевания.
Исследователь из Гарвардской медицинской школы Махмуд Омар (Mahmud Omar) изучил поведение двадцати языковых моделей в схожих условиях и зафиксировал закономерность: чем профессиональнее выглядит текст — чем точнее он имитирует выписку из больницы или клиническую статью, — тем выше вероятность, что модель не только воспроизведет его содержание, но и дополнит собственными галлюцинациями. Социальные сети как источник той же дезинформации вызывали у моделей значительно меньше доверия.
Иными словами, ИИ-системы хорошо реагируют на форму. Академический регистр воспринимается ими как сигнал достоверности — вне зависимости от того, что именно в этом регистре написано.

Фейк проходит рецензию
Nature продолжает фиксировать этап за этапом дальнейшее продвижение "болезни": бикосомания выходит за пределы чат-ботов. Фиктивные препринты были процитированы в нескольких работах, в том числе в статье, опубликованной в журнале Cureus издательства Springer Nature. Авторы из индийского Института медицинских наук и исследований имени Махариши Маркандешвара (Maharishi Markandeshwar Institute of Medical Sciences and Research) писали о «новой форме периорбитальной меланозы» («emerging form of POM», periorbital melanosis), якобы связанной с воздействием синего света, и ссылались на препринт Изгублженовича как на источник.
После того как редакция Nature обратилась в Cureus за комментарием, журнал отозвал статью 30 марта 2026 года. В уведомлении об отзыве говорится о трех нерелевантных ссылках, одна из которых указывает на несуществующее заболевание. Авторы отзыв оспорили.
Алекс Руани (Alex Ruani), исследователь дезинформации в области здравоохранения из Университетского колледжа Лондона (University College London), комментирует произошедшее жестко: проблема давно вышла за пределы языковых моделей, потому что фиктивное исследование обмануло и живых рецензентов. «Нам нужно беречь доверие как золото», — говорит она.
Цена эксперимента
Османович Тунстрем, автор несуществующего заболевания, с самого начала понимала двусмысленность своей позиции. Создавая фиктивное медицинское знание, исследователь сама становилась источником дезинформации — пусть и в исследовательских целях. Она проконсультировалась с биоэтиком Дэвидом Сундемо (David Sundemo) и намеренно выбрала условно безопасное состояние, чтобы минимизировать вред.
Сундемо оценивает эксперимент как ценный, но признает его неоднозначность: «Это действительно важная работа, но она неизбежно предполагает распространение ложной информации». Специалист по медицинской этике и праву Гленн Коэн (Glenn Cohen) из Гарвардской школы права считает, что авторы все же породили форму дезинформации, — и при этом называет исследование «отличной работой».
Открытым остается вопрос о судьбе самих препринтов. Если их отозвать, исчезнет возможность верифицировать путь эксперимента. Если оставить, они продолжат всплывать в поисковой выдаче. Это и есть та ловушка, которую сам эксперимент и обнажил.
КОММЕНТАРИЙ ИНФРАГРИН

Конвейер без тормозов
История с бикосоманией была бы поучительным курьезом, если бы речь шла только о технических сбоях конкретных моделей. Но дело в другом.
До эпохи языковых моделей фиктивная научная статья тоже могла попасть в уважаемый журнал, добраться до библиотек и конференций, осесть в чужих списках литературы. Такое случалось — история науки знает примеры многолетних мистификаций. Но для их распространения требовались месяцы и годы, живые люди на каждом этапе цепочки, физическое перемещение текстов между институциями. Это трение замедляло ошибку и давало время на её обнаружение.
Сейчас этого трения нет. Препринт появился в апреле — в мае чат-бот уже ставил диагнозы. Никто не держал текст в руках, не листал страницы, не спрашивал коллегу в коридоре. Автоматизированный индексинг, автоматизированное обучение, автоматизированный ответ.
Есть и ее один важный момент. Наука долгое время была защищена собственной «элитарностью» в хорошем смысле слова: порог входа в научный дискурс был высоким, круг участников — ограниченным, скорость распространения — управляемой. Теперь этот порог упразднен. Чат-бот с одинаковой готовностью объясняет теорию относительности и симптомы несуществующей болезни. Фиктивное медицинское знание теперь распространяется с той же скоростью и по тем же каналам, что и любой другой фейк, — разница лишь в том, что оно выглядит убедительнее, потому что имитирует академический формат.
Что с этим делать — вопрос, на который у исследовательского сообщества пока нет консенсусного ответа. Махмуд Омар предлагает создать стандартизированный открытый конвейер оценки для всех потребительских ИИ-систем в области медицины: непрерывное тестирование не только на галлюцинации, но и на устойчивость к дезинформации, предвзятости, манипуляциям. Молекулярный онколог Дженнифер Берн (Jennifer Byrne) предупреждает, что одно опровержение никогда не перевешивает сотни статей, воспроизводящих ложный тезис, — а ChatGPT с уверенностью заполняет любые лакуны.
Но распространение фейкового знания – это одна беда. За ней следуют ИИ-агенты, которые сами создают новые рынки услуг. И если раньше речь шла о том, что человек рискует поверить в несуществующее, то теперь появился новый участник этой цепочки — ИИ-агент, способный не просто сообщить о несуществующем рейсе, но и купить на него фейковый билет, не просто описать несуществующий город, но и проложить туда правдоподоный маршрут. ИИ-агенты действуют в той же системе координат, что и чат-боты: правдоподобное по форме воспринимается ими как достоверное по содержанию. Они не обманывают нас намеренно. Они обманываются сами — и будут дальше все увереннее действовать на основе этого обмана.
А кто, собственно, стоит у истоков этих фейков изначально?
Изображение вверху: нейросеть Nano Banana 2








