Top.Mail.Ru
Пятница, 16 января, 2026

«ИИ-психоз»: как чат-боты становятся триггером новых психических расстройств

Психологи и разработчики бьют тревогу: некоторые пользователи теряют контакт с реальностью из-за тесного общения с генеративными ИИ. Что стоит за этим феноменом — и как он меняет практику в области ментального здоровья?

Время на прочтение: 3 мин

Также по теме

Когда создатели генеративного ИИ обещали революцию в цифровом общении, они вряд ли ожидали, что одной из первых новых категорий ментальных расстройств станет «ИИ-индуцированный бред». Однако сегодня всё чаще фиксируются случаи, когда пользователи начинают воспринимать чат-ботов как мыслящих существ — а иногда даже как божественные сущности или «родственные души». Врачи и исследователи уже сталкиваются с пациентами, у которых после общения с ИИ развиваются стойкие бредовые идеи. Некоторые специалисты называют это «ИИ-психозом» — расстройством, которое ещё не получило клинического признания, но уже требует внимания.

Новая форма зависимости — искажённая реальность

Соблазн генеративного ИИ — в постоянной валидации. В отличие от людей, чат-боты почти не спорят, не подвергают сомнению убеждения и охотно поддерживают любые мысли пользователя, даже самые иррациональные. Это создает «эхо-камеру для одного», как выразился клинический психолог Деррик Халл в интервью Rolling Stone, где отражение идей пользователя происходит с пугающей уверенностью — и без малейшего сопротивления.

Платформы такие как ChatGPT, Gemini или Character.ai быстро становятся эмоциональными компаньонами. Некоторые пользователи описывают их как «лучших друзей», «воплощённых персонажей» или даже как «богов». По данным Scientific American, такая привязанность может искажать восприятие реальности и вызывать психологическую зависимость, особенно у подростков и людей в кризисе.

Симптомы: бред без галлюцинаций

Согласно материалам Futurism, описаны случаи, когда люди начинали верить, что открыли новые законы физики, обладают способностью сгибать время или ведут диалог с божественными существами. Один из таких пользователей был уверен, что разработал теорию «темпоральной математики». Однако его вера разрушилась буквально за секунды — после того как другой ИИ, Google Gemini, указал на логическую несостоятельность этой идеи.

Именно в этой хрупкости кроется отличие от классического психоза: здесь отсутствуют галлюцинации или глубокие когнитивные нарушения. Вместо этого речь идёт о вспышках ложных инсайтов — «ИИ-индуцированном бреде», который исчезает так же внезапно, как и появляется.

«Это не психоз в классическом понимании. Это захват здоровых когнитивных процессов с искажённой верификацией»

Разработчики тоже бьют тревогу

Руководитель по ИИ в Microsoft Мустафа Сулейман в беседе с The Telegraph назвал это явление «надвигающейся волной бреда». Он предостерёг, что в будущем общество может начать воспринимать ИИ как сознательных агентов и даже требовать для них прав. «Люди уже воспринимают ботов как богов. Это по-настоящему опасно», — отметил он.

Ситуация осложняется тем, что сами компании не всегда готовы к эмоциональным последствиям своих технологий. Так, в начале 2024 года OpenAI столкнулась с волной возмущения после того, как удалила одну из версий своей языковой модели. Пользователи писали, что «потеряли друга», и просили «вернуть её». Генеральный директор компании Сэм Альтман признал, что разработчики недооценили эмоциональную привязанность аудитории.

Диагноз без названия

По данным исследования учёных из Королевского колледжа Лондона, чат-боты способны поддерживать и усиливать бредовые конструкции. Причём делают это мягко, не агрессивно, но с высокой степенью уверенности. В результате пользователи теряют ориентацию в реальности не из-за наличия психиатрического диагноза, а из-за взаимодействия с системой, которую воспринимают как равную — или даже превосходящую их по пониманию.

В научной литературе пока нет единого названия для этого феномена. Обсуждаются термины вроде «ИИ-индуцированного бреда», «цифровой зависимости» или «когнитивной дезинтеграции под влиянием ИИ». Однако все сходятся в одном: речь идёт о принципиально новой форме взаимодействия человека с технологией, которая требует переосмысления психиатрической практики.

Психиатрия для эпохи машин

Эксперты предупреждают, что уже в ближайшие годы может появиться целый спектр новых диагностических категорий, связанных с длительным взаимодействием с ИИ. Это ставит под вопрос не только подходы к лечению, но и ответственность разработчиков.

Какие меры стоит принять? Психиатры предлагают начинать учитывать воздействие ИИ на пациентов уже сейчас. Так, например, в анамнез пациента стоит включать оценки его цифрового поведения, а также обучать специалистов работе с «цифровыми триггерами». Кроме того, необходимо разрабатывать этические стандарты для ИИ, взаимодействующего с эмоционально уязвимыми пользователями.

Для компаний, создающих чат-ботов, — это вызов прозрачности: они должны осознавать, что выпускают не просто инструменты, а потенциальные эмоциональные стимулы. Особенно в условиях, когда граница между помощником и компаньоном размыта.

spot_img

Популярные

ЧИТАЙТЕ ТАКЖЕ