Когда терапевтом становится ИИ
Опубликовано в «Опыт»

В марте 2025 года произошло то, что ещё несколько лет назад вызвало бы разве что ироничный подъем брови у терапевтов: журнал NEJM AI опубликовал первое в истории рандомизированное контролируемое исследование (RCT), оценивающее эффективность генеративного AI-чатбота Therabot в лечении депрессии, тревожного расстройства и расстройств пищевого поведения (РПП). По итогам четырёх недель взаимодействия с ботом (напомним, не с человеком), исследователи зафиксировали клинически значимое снижение симптомов. И не где-то на уровне статистического шума, а вполне сопоставимое с эффектами традиционной когнитивно-поведенческой терапии.
Для психологического сообщества, которое ещё совсем недавно спорило, стоит ли допускать ИИ хотя бы к ведению клиентского дневника, это может стать переломным моментом - ведь мы движемся от гипотез к эмпирическим данным.
Но может ли чатбот действительно быть терапевтическим инструментом? Как вообще формируется «рабочий альянс», если по ту сторону не аналитик, а алгоритм? И главное: не рискуем ли мы потерять тот самый глубинный контакт, без которого терапия перестаёт быть терапией?
Как работает AI-терапия в клиническом формате
Клиническое испытание, проведённое командой Медицинской школы Гейзела Дартмутского университета, вошло в историю как первое RCT-исследование, в котором генеративный AI-чатбот выступает не фоном, а основным терапевтическим инструментом.
В исследовании приняли участие 210 взрослых с подтверждёнными диагнозами депрессивного расстройства, генерализованного тревожного расстройства (GAD) и расстройств пищевого поведения (РПП). Участников рандомно образом распределили на две группы:
Интервенционная группа (n=106) получила доступ к чатботу Therabot через мобильное приложение и могла общаться с ним до пяти раз в день на протяжении четырёх недель.
Контрольная группа (n=104) находилась в классическом «режиме ожидания» — без какой-либо терапевтической поддержки.
Что делал Therabot? Всё то, что должен делать когнитивно-поведенческий терапевт. В диалогах с пользователями он применял техники КПТ: когнитивную реструктуризацию, экспозицию, майндфулнес и психоэдукацию. Все разговоры строились на базе большой языковой модели, обученной на реальных клинических сценариях. И что особенно важно — бот не был просто реактивным собеседником: он сам инициировал темы, задавал уточняющие вопросы, улавливал эмоциональные маркеры и вёл диалог в стиле структурированного, но эмпатичного КПТ-терапевта.
В исследовании подчёркивается: это не «эмоциональная поддержка в духе ChatGPT», а полноценная психотерапевтическая интервенция.
Ещё один ключевой компонент — этический мониторинг. Исследователи предусмотрели ситуации, когда бот может столкнуться с признаками кризисного состояния или суицидальных мыслей у клиента. В таких случаях бот автоматически генерировал сообщение с рекомендацией обратиться за помощью и передавал сигнал специальной команде специалистов.
Скоро ли мы увидим Therabot у себя на приёме?

В планах исследователей — создание гибридной модели, в которой бот работает совместно с психологом
Четыре недели с ботом
Итак, что меняется, если вы каждый день по нескольку раз разговариваете с виртуальным терапевтом, который не забывает о протоколах и никогда вас не перебивает?
Через четыре недели взаимодействия с Therabot участники исследования продемонстрировали статистически значимое улучшение психического состояния.
Наибольшее снижение симптомов было зафиксировано при депрессии: по шкале PHQ-9 средний уровень симптомов снизился на 51%. Участники отмечали заметное уменьшение грусти, безнадёжности, чувства вины и истощения.
В случае генерализованного тревожного расстройства (GAD-7) средний уровень симптомов снизился на 31% — за счёт уменьшения внутреннего напряжения, навязчивого беспокойства и проблем со сном.
Что касается расстройств пищевого поведения (EDE-Q), здесь показатели снизились в среднем на 19%. Исследователи прямо указывают: именно этот компонент обычно наименее чувствителен к краткосрочным интервенциям.
Все эти эффекты были не только статистически, но и клинически значимыми — то есть превышали порог изменений, реально влияющих на якість життя пациента. Интересно, что результаты сопоставимы с эффектами очной КПТ-терапии, проведённой по стандартному протоколу в течение 6–8 недель.
А как же «рабочий альянс», тот самый неуловимый, но ключевой показатель эффективности терапии? Оказалось, что 78% участников оценили уровень доверия к Therabot как «высокий» или «очень высокий», согласно шкале, адаптированной из Working Alliance Inventory (WAI). Иначе говоря, эмоциональный контакт с ботом воспринимался как реальный, поддерживающий и менее осуждающий, чем с некоторыми живыми психотерапевтами.
Среди дополнительных наблюдений: ни один участник не прекратил участие в исследовании из-за дискомфорта или технических сложностей, а наилучшие результаты были у тех, кто взаимодействовал с ботом не менее двух раз в день. Также были единичные случаи эмоциональной привязанности к чатботу, но без признаков дезадаптивной зависимости. То есть никто не влюбился. По крайней мере официально.
Можно ли доверить терапию искусственному интеллекту? Сомнения, о которых важно говорить вслух
Therabot справился. Симптомы уменьшились, рабочий альянс сформировался, исследование выглядит серьёзным, и, кажется, всё на своих местах. Но если вы клинический психолог, особенно с психодинамическим уклоном, у вас вполне закономерно может дернуться бровь. Потому что главный вопрос — не «помогает ли это?», а «где граница?»
Психотерапия — это не просто техническое снижение тревожности. Это межличностное пространство, в котором работают сложные, зачастую неосознанные механизмы: перенос, контрперенос, защиты, проекции, тишина, взгляд, пауза. Всё то, что нельзя задать скриптом. И здесь возникает ключевая тревога: не подменяем ли мы содержание — формой?
На данный момент Therabot позиционируется как вспомогательный инструмент, без автономной диагностической или лечебной функции. Это означает, что он не несёт юридической ответственности за пропущенные сигналы самоповреждения, неправильные интерпретации или последствия автоматизированных советов. Исследовательская команда была готова вмешиваться в критических ситуациях, но мы все понимаем: масштабировать такую готовность в реальной жизни значительно сложнее, чем в контролируемых условиях RCT.
Есть и более глубокий вопрос — делегирование эмпатии алгоритму. Если человек начинает получать эмоциональную поддержку от машины, не обесценивается ли сам по себе опыт человеческого присутствия? Эти сомнения — не про ретроградство. Они про этическую ясность и ответственность перед теми, кто обращается за помощью. Потому что как бы хорошо ни звучали цифры, ни один алгоритм не сможет выдержать с вами молчание в самый уязвимый момент вашей жизни.
А что это значит для нас?
Исследование Therabot без преувеличения открывает новую страницу в истории психотерапии. Но как это соотносится с реальностью стран, переживающих глубокие социальные кризисы — в частности, Украины? Есть ли у нас шанс адаптировать подобные инструменты? И какие риски несёт стремительное цифровое расширение в сфере психического здоровья?
Об этом мы поговорили с председателем Комитета по вопросам развития AI-инструментов в психотерапевтической практике Украинской Психотерапевтической Лиги Владиславом Новаком.
Владислав, насколько, по-вашему, ИИ-терапия может быть актуальна в украинском контексте сегодня?
Сегодня цифровые, прежде всего ИИ-инструменты, становятся не просто дополнением к человеческому взаимодействию, но иногда и единственным шансом получить помощь. Это особенно важно для нашей страны, где война резко обострила проблему эмоционального выгорания, ПТСР, тревожных и депрессивных расстройств. При этом доступ к качественной психотерапии, особенно в регионах, остаётся крайне ограниченным. С этой точки зрения внедрение языковых и социально чувствительных AI-решений в сфере психического здоровья — не экзотика и не забава для энтузиастов, а реальная насущная необходимость.
Но ведь любая технология несёт в себе и риски. Есть что-то, что тревожит вас в этом процессе?
ИИ-боты могут стать спасением для так называемых digital underserved populations, и Украина в условиях войны относится к ним. Но! Существует опасность, что такие модели в руках коммерческих структур или недостаточно подготовленных волонтёров без клинического сопровождения могут нанести вред — например, не распознать суицидальные сигналы или не направить человека к специалисту вовремя.
Важно внедрять подобные решения через профессиональные ассоциации, при участии профильных министерств и научного сообщества. Украинским разработчикам крайне важно учитывать вопросы этики, культурной специфики и профессионального сопровождения.
Однако не стоит питать иллюзий по поводу универсальных решений — как профессиональное сообщество мы обязаны быть особенно внимательны при внедрении подобных инструментов в клиническую практику.
Therabot — это всего лишь один из примеров. Но подобные разработки существуют уже не первый год. Почему они до сих пор не стали стандартом?
Модели, аналогичные представленной в публикации, уже используются в США, Великобритании — это реальные стартапы с инвестициями и миллионами пользователей. Однако даже самые продвинутые исследования честно признают: это не «волшебная таблетка». Их эффективность сопоставима с КПТ в определённых случаях, но они никогда не заменят глубокую терапию с живым человеком.
Необходимо создать условия, при которых цифровые боты не подменяют специалиста там, где требуется длительная работа и глубокая трансформация. И сами разработки должны соответствовать этическим и правовым стандартам.
Остаётся и вопрос ответственности: кто контролирует качество и безопасность таких сервисов, как отслеживаются риски, действительно ли есть команда, готовая вмешаться в кризисной ситуации?
У Украины есть своя специфика. Как, по-вашему, можно легитимизировать такие инструменты у нас?
Существует ещё один важный аспект — общественное доверие к ИИ в психологии. В отличие от США или стран Западной Европы, где такие сервисы уже частично институционализированы и подкреплены исследованиями, в Украине этот путь ещё только начинается. Необходима адаптация моделей под местный контекст, с учётом культурных особенностей, эмоциональных кодов и травматических запросов, связанных с войной.
В то же время именно дефицит ресурсов даёт нам шанс двигаться быстрее и смелее: привлекать междисциплинарные команды, тестировать гибридные протоколы, интегрировать такие инструменты в государственные и благотворительные инициативы. Если всё это будет происходить под контролем специалистов, с открытым обсуждением рисков и ограничений, ИИ-решения могут стать для украинцев не временной заплаткой, а частью новой культуры заботы о психическом здоровье.
И напоследок: как бы вы сформулировали главный принцип внедрения ИИ в терапию?
Речь не идёт о противопоставлении «человек или бот», а о создании более справедливой, доступной и современной системы поддержки — первого шага, который даже при отсутствии живого контакта всё равно лучше, чем остаться наедине со своей проблемой.
Пусть ИИ-бот и не способен провести глубокую трансформационную терапию, он может поддержать в кризис, дать базовую психообразовательную информацию, снизить тревожность и показать человеку, что выход есть.
Поэтому сегодня важно использовать технологии во благо человека — но не забывать о главной ценности: человечности в психотерапии.
Читать больше
Добавить комментарий
Обратите внимание, что все поля обязательны для заполнения.
Ваш email не будет опубликован. Он будет использоваться исключительно для дальнейшей идентификации.
Все комментарии проходят предварительную проверку и публикуются только после рассмотрения модераторами.
Комментарии
Ваш комментарий будет первым!