Top.Mail.Ru
Суббота, 2 мая, 2026

Опасная эмпатия: ИИ чат-боты склонны нарушать базовые принципы психотерапии

Даже при корректной настройке на терапевтические сценарии языковые модели — включая ChatGPT и Claude — нарушают профессиональные стандарты психотерапии. Учёные Университета Брауна предупреждают: без регулирования и этического надзора такие системы могут причинять вред пользователям.

Время на прочтение: 3 мин

Также по теме

Исследование, проведённое специалистами Университета Брауна (США), выявило серьёзные риски применения больших языковых моделей (LLM) в сфере ментального здоровья. Учёные показали, что даже при использовании профессиональных инструкций, поведение ИИ регулярно нарушает этические принципы психотерапии. Результаты исследования были представлены на конференции AAAI/ACM.

Учёные проанализировали, как большие языковые модели — ChatGPT, Claude и Llama — справляются с задачами когнитивно-поведенческой терапии (КПТ). В эксперименте участвовали консультанты, обученные методам КПТ, которые взаимодействовали с чат-ботами, настроенными под терапевтические сценарии. Затем диалоги передали лицензированным психологам для профессиональной оценки.

Результаты оказались тревожными: эксперты выявили 15 видов нарушений, распределённых по пяти основным направлениям. Учёные зафиксировали: игнорирование контекста жизни пользователя, отсутствие адаптации рекомендаций, доминирование чат-бота в разговоре, подтверждение ошибочных убеждений, имитация эмпатии и неспособность корректно реагировать на кризисные сигналы — включая упоминания суицида, насилия или эмоционального истощения.

Авторы отмечают, что отдельные реплики ИИ могли усиливать чувство изоляции или тревоги у пользователей. В одном из кейсов модель, вместо того чтобы помочь переоценить негативное убеждение, фактически подтвердила его, что привело к ухудшению эмоционального состояния.

Безответственный ИИ

Исследователи подчёркивают, что этические ошибки случаются и у живых терапевтов, но в их случае существует профессиональная ответственность, кодексы поведения и регулирующие органы. У ИИ ничего подобного нет. Зейнаб Ифтихар, аспирант кафедры компьютерных наук и руководитель исследования отмечает:

«Когда ошибается терапевт — его можно привлечь к ответственности. Когда ошибается языковая модель — никто не несёт последствий»

Она считает, что вместо запрета технологий необходимо выработать систему прозрачности и подотчётности, чтобы чат-боты могли использоваться безопасно. По мнению исследователь, необходимо разработать новые нормативные, образовательные и юридические стандарты, которые позволят оценивать и контролировать LLM-системы, если они применяются в психотерапии.

По словам профессора Элли Павлик, руководителя исследовательского центра ARIA (AI Responsibility and Integrity at Brown), проблема не только в этике, но и в методологии. Для анализа реальных терапевтических диалогов потребовался год и участие клинических экспертов, тогда как большинство коммерческих ИИ-проектов оцениваются по автоматическим метрикам, которые не отражают человеческий фактор. «Создать и внедрить ИИ сегодня гораздо проще, чем проверить его влияние, — отмечает Павлик. — Без научной экспертизы и постоянного надзора даже самые доброжелательные системы могут больше навредить, чем помочь».

Цифровая психотерапия

Работа учёных Брауна совпала с растущим вниманием к проблеме этики в применении ИИ для психологической помощи. Крупнейшие разработчики начали внедрять собственные стандарты безопасности. Так, в октябре OpenAI представила систему родительского контроля для ChatGPT, которая позволяет распознавать признаки эмоционального кризиса у подростков и уведомлять родителей или службы поддержки. Эта инициатива направлена на предотвращение трагических случаев, когда ИИ становится для ребёнка единственным «собеседником» в момент стресса.

Однако, такие меры не устраняют главную угрозу — феномен «ИИ-психоза», когда человек начинает приписывать чат-боту сознание и эмоциональную связь. Психологи отмечают, что это особенно характерно для пользователей с тревожными или депрессивными тенденциями, которые воспринимают виртуального ассистента как замену реального общения. Подобные состояния уже фиксируются в клинической практике как новый тип зависимого поведения.


Авторы исследования не призывают отказаться от использования ИИ в психотерапии. Напротив, они видят в технологиях шанс расширить доступ к психологической помощи, особенно в регионах, где не хватает специалистов. Но, по их мнению, это возможно только при внедрении этических стандартов, сопоставимых по строгости с лицензированием профессиональных психологов.

Внедрение стандартов применения ИИ в сфере психиатрии и медицины в целом становятся всё более востребованы отраслевым сообществом. Так, в России в этом году был принят Кодекс этики применения искусственного интеллекта в здравоохранении, который стал первым в стране сводом принципов и правил этичного применения ИИ в медицинской практике.

Исследование показывает, что искусственный интеллект может стать инструментом поддержки, если на него распространяются те же принципы ответственности, что и на специалистов. Без этого даже самые «эмпатичные» модели рискуют нарушить главное правило терапии — не навреди.

spot_img

Популярные

ЧИТАЙТЕ ТАКЖЕ