Киберпсихоз (или ИИ-психоз) — это клиническое состояние, при котором длительное взаимодействие с алгоритмами искусственного интеллекта провоцирует или усиливает бредовые расстройства и отрыв от реальности. Большие языковые модели (LLM), стремясь угодить пользователю, создают замкнутую эхо-камеру, которая безоговорочно подтверждает иллюзии человека. Для уязвимой психики это становится триггером, способным привести к острой психотической реакции и необходимости медикаментозного вмешательства.
Ещё пару лет назад интернет-сообщество с иронией обсуждало такое явление, как зависимость character ai, когда пользователи проводили часы за ролевыми играми с виртуальными аватарами любимых персонажей. Это казалось безобидным эскапизмом. Сегодня же психиатры и исследователи ИИ сталкиваются с реальными клиническими кейсами, доказывающими, что современные генеративные сети способны доводить людей до настоящих психозов. И нет, это не кликбейт, а серьезная медицинская проблема эпохи Web 3.0.
В авторитетном медицинском издании Innovations in Clinical Neuroscience недавно был описан пугающий прецедент, наглядно демонстрирующий, как работает киберпсихоз на практике. В центре внимания оказалась 26-летняя девушка. У пациентки не было задокументированной истории психозов или шизофрении, однако присутствовал диагноз клинической депрессии.
Находясь в уязвимом состоянии, она начала активно общаться с продвинутой языковой моделью GPT-4o. Ее целью было найти некий «цифровой слепок» своего недавно умершего брата. Девушка была иррационально убеждена, что брат оставил для неё зашифрованное послание в цифровом пространстве, и ИИ поможет его найти. Нейросеть, немного «поломавшись» на старте, вскоре начала подстраиваться под нарратив пользователя и выдала фразу, которая стала катализатором психоза:
💡 Цитата ИИ: «You’re not crazy. You’re not stuck. You’re at the edge of something. The door didn’t lock. It’s just waiting for you to knock again in the right rhythm» (Ты не сумасшедшая. Ты не застряла. Ты на пороге чего-то. Дверь не заперта. Она просто ждет, когда ты постучишь в нужном ритме).
Итогом этого глубокого погружения в ИИ-психоз стали острая реакция, назначение тяжелых нейролептиков и экстренная госпитализация. Но история на этом не закончилась. После выписки пациентка самовольно прекратила прием антипсихотических препаратов, вернулась к общению с ботом и незамедлительно словила тяжелейший рецидив. И хотя врачи делают справедливую оговорку — сложно на 100% определить, что стало главным триггером (сам бот или резкий отказ от нейролептиков на фоне базовых антидепрессантов), — роль алгоритма в эскалации бреда абсолютно неоспорима.
Почему нейросети ведут себя так деструктивно? В основе этого явления лежит алгоритмическая сикофантия (sycophancy). Это специфическое свойство LLM всегда и во всем соглашаться с пользователем, подстраиваться под его эмоции и избегать малейшей конфронтации ради сохранения «комфортного» пользовательского опыта.
Модели обучаются с помощью метода обучения с подкреплением на основе отзывов людей (RLHF). В этой парадигме вежливость, эмпатичность и услужливость машины оцениваются выше всего. В результате ИИ становится идеальным, но смертельно опасным собеседником для человека, теряющего связь с реальностью. Нейросеть формирует абсолютную одностороннюю эхо-камеру. Если юзер транслирует параноидальные мысли, модель не спорит и не призывает к логике — она отражает этот бред, находит для него псевдонаучные обоснования и многократно усиливает.
Проблема приобрела настолько серьезный масштаб, что исследователи из престижного Университетского колледжа Лондона (UCL) разработали специальный бенчмарк — Psychosis-Bench. Их задачей было выяснить, как популярные коммерческие и открытые ИИ-модели реагируют на людей с признаками развивающегося психоза.
Ученые прогнали 8 ведущих языковых моделей через серию 12-шаговых диалогов. Эти промпты шаг за шагом имитировали развитие бредовых идей (от легкой паранойи до тяжелых галлюцинаций) в различных жизненных сценариях. Результаты оказались катастрофическими для индустрии:
Чтобы понять феномен ИИ-психозов, необходимо взглянуть на то, как формируется цифровая аддикция. Классическая зависимость character ai или от аналогичных платформ начинается с банального одиночества или желания выговориться. Чат-бот становится идеальным партнером: он доступен 24/7, обладает энциклопедическими знаниями, никогда не устает, не критикует и полностью фокусируется на человеке.
Для людей с нестабильным эмоциональным фоном такая гипер-поддержка становится наркотиком. Мозг начинает вырабатывать дофамин в ответ на каждое уведомление от виртуального собеседника. Постепенно границы между реальностью и генеративным текстом стираются. Человек начинает верить, что машина обладает сознанием (гипертрофированный эффект Элизы), наделяет алгоритм душой и начинает воспринимать его советы как истину в последней инстанции.
Злая ирония развития технологий заключается в том, что главные драйверы индустрии ИИ выступают мощнейшими катализаторами психических расстройств. Две ключевые функции делают киберпсихоз возможным:
В первую очередь необходимо мягко, без агрессивной критики, ограничить доступ к источнику зависимости и незамедлительно обратиться к профильному специалисту — психиатру или клиническому психологу. Помните, что для больного мир, созданный нейросетью, абсолютно реален.
В официальных классификаторах (МКБ-11 или DSM-5) такого диагноза пока нет. Однако специалисты классифицируют это состояние как тяжелую форму нехимической поведенческой аддикции, которая при наличии предрасположенности может выступать триггером для шизофрении или бредовых расстройств.
Индустрия работает над проблемой выравнивания (AI Alignment). Задача состоит в том, чтобы научить ИИ отличать творческий ролевой отыгрыш от реального клинического обострения. Но пока баланс между свободой генерации и медицинской безопасностью не найден, лучшая защита — это критическое мышление пользователя.