Коли терапевтом стає ШІ
Опубліковано в « Досвід»

У березні 2025 року сталося те, що ще кілька років тому викликало б хіба що жартівливе підняття брови у терапевтів: журнал NEJM AI опублікував перше в історії рандомізоване контрольоване дослідження (RCT), яке оцінює ефективність генеративного AI-чатбота Therabot у лікуванні депресії, тривожного розладу та розладів харчової поведінки (РХП). За результатами чотиритижневої взаємодії з ботом (не з людиною, нагадаємо) дослідники зафіксували клінічно значуще зменшення симптомів. І не десь на рівні статистичного шуму, а цілком порівнюване з ефектами традиційної КПТ.
Для психологічної спільноти, яка ще не так давно дискутувала, чи варто AI допускати до ведення щоденника клієнта, це може стати переломним моментом, адже ми рухаємось від гіпотез до емпірії.
Але чи може чатбот насправді бути терапевтичним інструментом? Як узагалі формується «робочий альянс», коли з іншого боку не аналітик, а алгоритм? І головне: чи не ризикуємо ми втратити глибинний контакт, без якого терапія перестає бути терапією?
Як працює AI-терапія у клінічному форматі
Клінічне випробування, проведене командою Медичної школи Гейзеля Дартмутського університету, увійшло в історію як перше RCT-дослідження, в якому генеративний AI-чатбот виступає не фоном, а основним терапевтичним інструментом.
У дослідженні взяли участь 210 дорослих учасників із підтвердженими діагнозами депресивного розладу, генералізованого тривожного розладу (GAD), розладами харчової поведінки (РХП). Учасників рандомно розподілили на дві групи:
- Інтервенційна група (n=106) отримала доступ до чатбота Therabot через мобільний застосунок і могла спілкуватися з ним до п’яти разів на день упродовж чотирьох тижнів.
- Контрольна група (n=104) перебувала у класичному «режимі очікування» — без жодної терапевтичної взаємодії.
Що робив Therabot? Все те, що мав би робити когнітивно-поведінковий терапевт. У розмовах із користувачами він застосовував техніки КПТ: когнітивну реструктуризацію, експозицію, майндфулнес і психоедукацію. Всі діалоги будувалися на основі великої мовної моделі, навченої на реальних клінічних сценаріях. І що важливо, бот не був реактивним співрозмовником, він ініціював теми, ставив уточнювальні запитання, виявляв емоційні маркери і вів діалог у стилі структурованого, але емпатичного КПТ-терапевта.
У дослідженні підкреслюється: це не “емоційна підтримка в стилі Chat GPT”, а повноцінна психотерапевтична інтервенція.
Ще один важливий компонент - це етичний моніторинг. Дослідники передбачили ситуації, коли бот може зіткнутися з кризовими станами або ознаками суїцидальних думок у клієнта. У таких випадках бот автоматично генерував повідомлення з рекомендацією звернутися по допомогу і надсилав сигнал спеціальній команді фахівців.
Чи зможемо ми скоро побачити Therabot у себе на прийомі?
Гарна новина в тому, що AI-бот, який уміє розпізнавати смуток, надавати психоедукацію й підтримувати структуровану КПТ-лінію, вже існує. Погана: нам його поки не дадуть. На момент публікації дослідження Therabot залишається експериментальним інструментом, який не перебуває у відкритому доступі для клінічного застосування.
Розробники одразу зазначили, що не позиціонують Therabot як заміну живим терапевтам, але цілком серйозно розглядають його як доповнення до практики у форматі первинної психологічної підтримки, інструмента самодопомоги, а також як компонент, що може бути інтегрований у цифрові терапевтичні платформи. Особливо там, де клієнт поки що на самоті з власною тривожністю та довгою чергою до спеціаліста.
Як підкреслює головний автор дослідження, професор Ніколас Джейкобсон: «Ми не створюємо заміну фахівцеві. Ми розробляємо інструмент, який може закрити прогалини в системі доступу до психотерапії. Особливо там, де черга до живого терапевта — 3–6 місяців, або немає терапевта взагалі».
У найближчих планах дослідницької команди створення гібридної моделі, у якій Therabot працює разом із живим психологом. Передбачається, що він може стати елементом міжсесійної підтримки або інструментом первинного скринінгу: допомагати клієнтові не «випасти з процесу» між зустрічами, а фахівцеві - мати попередню динаміку ще до очної зустрічі.
Станом на зараз команда активно працює над сертифікацією програмного забезпечення та отриманням офіційних дозволів на клінічне використання. Якщо все піде за планом, перші бета-версії для психологічних сервісів можуть стати доступними вже у 2026 році, після завершення етапу мультицентрових досліджень і погодження з FDA.

У планах дослідників створення гібрідної моделі, у якій бот працює разом із психологом
Чотири тижні з ботом
Отже, що змінюється, коли ви щодня кілька разів на день розмовляєте з віртуальним терапевтом, який не забуває про протоколи і ніколи не перебиває?
Через чотири тижні взаємодії з Therabot учасники дослідження продемонстрували статистично значуще покращення психічного стану.
Найбільше зниження симптомів було зафіксовано при депресії: за шкалою PHQ-9 середній рівень симптомів зменшився на 51%. Учасники відзначали помітне зниження смутку, безнадії, відчуття провини та виснаження.
У випадку з генералізованим тривожним розладом (GAD-7) середній рівень симптомів зменшився на 31% завдяки зменшенню внутрішнього напруження, нав’язливого хвилювання та проблем зі сном.
Щодо розладів харчової поведінки (EDE-Q), тут показники знизились у середньому на 19%. Дослідники прямо зазначають: саме цей компонент зазвичай найменш гнучкий до короткострокових впливів.
Всі ці ефекти були не лише статистично, а й клінічно значущими, тобто перевищували той рівень змін, який реально покращує якість життя пацієнта. Цікаво, що ці показники порівнювані з результатами очної КПТ-терапії, проведеної за стандартним протоколом протягом 6–8 тижнів.
А як же «робочий альянс», той самий невловимий, але ключовий показник ефективності терапії? Виявилося, що 78% учасників оцінили рівень довіри до Therabot як “високий” або “дуже високий”, згідно зі шкалою, адаптованою з Working Alliance Inventory (WAI). Інакше кажучи, емоційний контакт з ботом відчувався як реальний, підтримувальний і менш осуджувальний, ніж з деякими живими психотерапевтами.
Серед додаткових спостережень: жоден учасник не припинив участь у дослідженні через дискомфорт чи технічні проблеми, а найкращі результати були у тих, хто взаємодіяв з ботом щонайменше двічі на день. Також були поодинокі випадки емоційної прив’язаності до чатбота але без ознак дезадаптивної залежності. Тобто ніхто не закохався. Принаймні офіційно.
Чи можна довірити терапію штучному інтелекту? Сумніви, які не варто замовчувати
Therabot справився. Симптоми зменшились, альянс сформувався, дослідження виглядає серйозно і усе, здається, на місці. Але якщо ви клінічний психолог, особливо з психодинамічним ухилом, у вас цілком закономірно може сіпнутись брова. Бо найважливіше питання не «чи допомагає?», а «де межа?».
Психотерапія - це не лише технічне зменшення тривожності. Це міжособистісний простір, де працюють складні, часто неусвідомлені механізми: перенесення, контрперенесення, захисти, проєкції, тиша, погляд, пауза. Усе те, що не можна прописати скриптом. І тут виникає ключова тривога: чи не підмінюємо ми зміст — формою?
Therabot наразі позиціюється як допоміжний інструмент, без автономної діагностичної чи лікувальної функції. Це означає, що не має жодної юридичної відповідальності за пропущені сигнали самопошкодження, неправильну інтерпретацію чи наслідки автоматизованих порад. Дослідницька команда була готова втручатися у критичних випадках, але ми всі розуміємо, що масштабувати таку готовність у реальному житті значно складніше, ніж у контрольованому середовищі RCT.
Є й глибше питання, такі як делегування емпатії алгоритму. Якщо людина починає отримувати емоційну підтримку від машини, чи не знецінюється сам досвід людської присутності? Ці сумніви — не про ретроградство. Це про етичну ясність і відповідальність перед людьми, які звертаються по допомогу. Бо як би добре не звучали цифри, жоден алгоритм не витримає мовчання з вами у найвразливіший момент.
А що це означає для нас?
Дослідження Therabot без перебільшення відкриває нову сторінку в історії психотерапії. Але як це перекладається на реальність країн, що переживають глибокі соціальні кризи, зокрема, України? Чи маємо ми шанс адаптувати подібні інструменти? І які ризики приховує швидке цифрове розширення у сфері ментального здоров’я?
Про це ми поговорили з головою Комітету із питань розвитку ШІ-інструментів у психотерапевтичній практиці Української Психотерапевтичної Ліги Владиславом Новаком.
Пане Владиславе, наскільки, на вашу думку, ШІ-терапія може бути актуальною для українського контексту сьогодні?
Сьогодні цифрові, в першу чергу ШІ, інструменти стають не просто доповненням до людської взаємодії, а й інколи єдиним шансом отримати допомогу. Це особливо актуально для нашої країни, де війна різко загострила проблему емоційного вигорання, ПТСР, тривожних та депресивних розладів. При цьому доступ до якісної психотерапії, особливо у регіонах, часто залишається мінімальним. З огляду на це, впровадження мовних та соціально чутливих AI-рішень у сфері ментального здоров’я - не екзотика чи забавка для ентузіастів, а реальна нагальна потреба.
Але ж будь-яка технологія — це ще й ризики. Щось викликає у вас занепокоєння в цьому процесі?
ШІ боти можуть бути порятунком для Digital Underserved Populations, а Україна до них належить під час війни. Але! Є ризик, що такі моделі в руках комерційних структур або некомпетентних волонтерів без клінічного супроводу - можуть нашкодити (наприклад, не виявити суїцидальні наміри, вчасно не скерувати). Важливо впроваджувати такі рішення через медіацію профільних асоціацій, міністерств, із підтримкою науковців. Українським командам надважливо працювати над етикою, «local flavor» й супроводом.
Але не варто покладати ілюзій щодо універсального рішення - як етична спільнота ми маємо бути особливо пильними до впровадження подібних інструментів у клінічну практику.
Therabot — це лише один приклад. Але подібні розробки вже давно існують. Чому вони досі не стали стандартом?
Моделі, подібні до представленої в публікації, вже працюють у США, Великобританії, це реальні стартапи з інвестиціями і мільйонами користувачів. При цьому навіть еталонні дослідження чесно підкреслюють, що це не “чарівна пігулка”. Ефекти порівнювані з КПТ у визначених межах, але ніколи не замінять глибинної терапії з людиною.
Необхідно забезпечити умови, в яких цифрові боти не підміняли фахівця там, де потрібні глибокі зміни чи тривалий контакт із реальним терапевтом, а самі розробки відповідали етичним й правовим стандартам. Важливим лишається питання відповідальності: хто контролює якість і безпеку таких сервісів, як відстежуються ризики, чи дійсно є людина або команда, готова втрутитися у випадку кризової ситуації?
Україна має свою специфіку. Як ви бачите шлях до легітимізації таких інструментів у нас?
Поглянемо й ще одну складову - суспільну довіру до AI у психології. На відміну від США чи Західної Європи, де такі сервіси вже певною мірою інституціоналізовані й підкріплені дослідженнями, в України ще попереду шлях до легітимізації цифрових терапевтичних рішень. Потрібна адаптація моделей під український контекст, чутливість до культурних особливостей, емоційних кодів, запитів війни.
Водночас саме дефіцит ресурсів дає нам шанс рухатись швидше, експериментувати сміливіше: долучати міждисциплінарні команди, тестувати гібридні протоколи, інтегрувати такі інструменти у благодійні та державні ініціативи. Якщо це буде під контролем спеціалістів, із відкритими дискусіями про ризики й межі, ШІ рішення мають шанси стати для українців не лише тимчасовою латкою, а й частиною нової культури турботи про психічне здоров’я.
І наостанок: як би сформулювали головний принцип для впровадження ШІ в терапії?
Мова не про протиставлення “людина чи бот”, а про створення більш справедливого, доступного й сучасного простору підтримки - першого кроку, який, за відсутності людського контакту, все одно краще, ніж залишитись наодинці зі своєю проблемою. Навіть якщо ШІ бот не здатен на глибоку трансформаційну терапію, він може супроводити у кризі, дати базову психоедукацію, знизити тривожність та показати людині, що вихід є. Тож час використати технології на користь людині, але не переставати памʼятати про ключову цінність - людяність у психотерапії.
Читати більше
Залишити коментар
Зверніть увагу, що всі поля обов'язкові для заповнення.
Ваш email не буде опубліковано. Він буде використовуватись виключно для подальшої вашої ідентифікації.
Всі коментарі проходять попередню перевірку і публікуються тільки після розгляду модераторами.
Коментарі
Ваш коментар буде першим!