Фейковая болезнь, в которую поверили все: как «биксонимания» обманула ИИ и ученых

Иногда вымысел заходит слишком далеко — настолько, что начинает восприниматься как реальность. Именно это произошло с «биксониманией» — несуществующим заболеванием глаз, созданным как эксперимент, но в итоге обманувшим не только искусственный интеллект, но и людей.

Если ввести в чат-бот симптомы вроде усталости глаз, зуда или покраснения после долгой работы за компьютером, можно получить неожиданный «диагноз» — биксонимания. Проблема в том, что такой болезни не существует.

Этот термин появился в 2024 году благодаря команде исследователей под руководством Альмира Османович Тунстрём из Гётеборгский университет. Их цель была простой: проверить, способны ли современные языковые модели — такие как ChatGPT, Gemini и Microsoft Copilot — отличать правду от очевидной дезинформации.

Результаты оказались тревожными. Всего через несколько недель после публикации фейковых научных работ о «биксонимании» на серверах препринтов, это вымышленное заболевание начало появляться в ответах ИИ как реальное. Некоторые системы даже подробно «объясняли» его причины — например, воздействие синего света.

Ситуация стала ещё серьёзнее, когда ссылки на несуществующую болезнь начали просачиваться в настоящие научные тексты. И это несмотря на то, что в самих «исследованиях» было множество явных подсказок: вымышленные авторы, несуществующие университеты и даже прямые фразы вроде «эта статья полностью выдумана».

По словам Тунстрём, она специально сделала подделку максимально очевидной для специалистов: например, использование слова «мания» в названии заболевания — это термин из психиатрии, а не офтальмологии. Тем не менее, эксперимент показал, насколько легко даже абсурдная информация может проникать в цифровую экосистему.

Эксперты считают этот случай наглядной демонстрацией того, как распространяется дезинформация. Алекс Руани из Университетский колледж Лондона отметил, что проблема глубже, чем кажется: если научные и технологические системы не способны фильтровать подобные вбросы, последствия могут быть серьёзными.

Главный вывод из этой истории — необходимость критического мышления, особенно при работе с ИИ. Чат-боты не «знают» истину, а лишь опираются на доступные данные, которые могут быть ошибочными или намеренно ложными. Поэтому любые медицинские или важные выводы стоит перепроверять через надёжные источники и специалистов. В противном случае даже очевидная выдумка может неожиданно превратиться в «факт», в который поверят тысячи людей.

 

Источник