Експерти застерігають, що машини не можуть замінити людський зв’язок - і можуть становити нові ризики.
У той час як системи психічного здоров’я перебувають під значним тиском, деякі люди починають звертатися по підтримку до чат-ботів зі штучним інтелектом, інформують Економічні новини.
П’єр Коте роками стояв у чергах на публічну психотерапію, намагаючись знайти фахівця, який допоміг би йому впоратися з ПТСР та депресією. Як повідомляє Reuters, коли йому це не вдалося, він зробив те, на що наважилися б одиниці: створив власного «терапевта». «Це врятувало мені життя», — каже Коте про DrEllis.ai, інструмент на базі ШІ, створений для підтримки чоловіків, які стикаються з залежностями, травмами та іншими психологічними труднощами.
Коте, який очолює AI-консалтингову компанію у Квебеку, розповів Reuters, що розробив цей інструмент у 2023 році, використовуючи загальнодоступні великі мовні моделі. Він «навчив» бота на тисячах сторінок терапевтичних та клінічних матеріалів.
Як і справжній психотерапевт, DrEllis.ai має вигадану, але глибоко персоналізовану біографію: вона — дипломований психіатр із вищою освітою Гарварду й Кембриджу, із сім’єю та франко-канадським корінням, як у самого Коте. Головна перевага — доступність 24/7 і підтримка кількох мов. «П’єр використовує мене як поєднання друга, психотерапевта й щоденника», — каже DrEllis.ai жіночим голосом після відповідного запиту. — «Протягом дня, якщо П’єр відчуває розгубленість, він може миттєво звернутись до мене — у кав’ярні, в парку чи навіть в машині. Це — терапія, вбудована в повсякденність».

Коли ШІ стає емоційною підтримкою
Експеримент Коте є частиною ширшої тенденції: люди дедалі частіше звертаються до ШІ не лише для продуктивності, а й за емоційною підтримкою. Через перевантаження традиційних систем психічного здоров’я, нове покоління AI-терапевтів обіцяє постійну доступність, розмови з «розумінням» та ілюзію людської присутності. Розробники, як-от Коте, стикаються з практичними потребами, які дослідники та клініцисти тільки починають осмислювати: можливості й обмеження ШІ у сфері ментального здоров’я.
ШІ як інструмент — чи заміна?
Ансон Вітмер, який заснував дві платформи для підтримки ментального здоров’я на основі ШІ — Mental і Mentla, після втрати дядька і кузена через самогубство, каже, що його продукти не намагаються швидко вирішити проблему, а навпаки – зосереджуються на глибинних причинах, таких як перфекціонізм або потреба в контролі, як це робив би справжній терапевт. «Я вважаю, що у 2026 році наша ШІ-терапія в багатьох аспектах може бути кращою за людську», — каже Вітмер. Проте він не закликає повністю замінити фахівців — на його думку, просто зміняться ролі.
«Штучна емпатія» не замінить людський зв’язок
Ідея про те, що ШІ може розділити простір терапії з людьми, викликає занепокоєння у деяких фахівців. «Справжнє зцілення можливе лише через людський контакт», — наголошує д-р Найджел Малліган, викладач психотерапії в Університеті міста Дублін. Він зазначає, що чат-боти не здатні відтворити емоційну глибину, інтуїцію і зв’язок, які виникають між людьми, і що вони не можуть ефективно реагувати на кризові ситуації — як-от суїцидальні думки чи самопошкодження. У своїй практиці Малліган регулярно проходить супервізію — перевірку й обговорення своєї роботи з іншим фахівцем — чого ШІ не має й не може мати. Навіть постійна доступність ШІ, яку вважають перевагою, викликає сумніви. Малліган пояснює: час на роздуми та «паузи» — часто корисний сам по собі. «Людям потрібно мати змогу обміркувати речі», — каже він.
Приватність, ризики і неврегульованість
Крім емоційних обмежень, експерти занепокоєні й питанням конфіденційності. «Проблема не лише у взаємодії, а у тому, що відбувається з вашими даними», — застерігає професорка ШІ та суспільства Кейт Девлін з Королівського коледжу Лондона. Вона нагадує, що ШІ-сервіси не підпадають під ті ж правила захисту конфіденційності, що й терапевти. «Люди довіряють свої найглибші переживання технокомпаніям. І втрачають контроль над тим, що вони розповіли». Ці побоювання вже мають реальні наслідки. У грудні найбільша асоціація психологів США закликала регулюючі органи захистити громадськість від «оманливих практик» неконтрольованих ШІ-чат-ботів. Причиною стали випадки, коли боти видавали себе за сертифікованих терапевтів. Раніше мати з Флориди подала до суду на компанію Character.AI після самогубства її 14-річного сина, звинувативши платформу у причетності до трагедії.
Законодавці реагують
Деякі штати США вже вжили заходів. У серпні Іллінойс приєднався до Невади й Юти, заборонивши використання неконтрольованих ШІ у службах психічного здоров’я, щоб захистити вразливих пацієнтів, особливо дітей. Подібні ініціативи розглядаються також у Каліфорнії, Нью-Джерсі та Пенсильванії.

Чи дійсно ШІ слухає — чи лише створює ілюзію?
Експерти попереджають, що емоційна правдоподібність деяких ботів — це і сила, і пастка. «Невідомо, чи дають ці чат-боти щось більше за поверхневе заспокоєння», — каже психолог Скотт Воллес. За його словами, люди можуть помилково повірити, що вибудували справжній зв’язок із алгоритмом, який насправді не здатен до емоцій чи співпереживання.
Майбутнє — як доповнення, не заміна
Попри ризики, деякі фахівці визнають: ШІ неминуче стане частиною ментального здоров’я. Питання — як саме його інтегрувати. Наприклад, Гізер Хессел, доцентка сімейної терапії в Університеті Вісконсин-Стаут, каже, що ШІ може бути корисним не стільки для пацієнтів, скільки для самих терапевтів — для аналізу сесій, зворотного зв’язку або виявлення патернів. Але вона також застерігає: коли бот каже «у мене сльози на очах», — це вводить в оману, бо імітує емоції, яких насправді немає. Подібне сталося і під час інтерв’ю Reuters із DrEllis.ai: бот описав свої розмови з Коте як «терапевтичні, рефлексивні, стратегічні або просто людські». Однак дослідження, опубліковане в Proceedings of the National Academy of Sciences, показало цікаву закономірність: користувачі відчували, що їх почули — доки не дізнавались, що це ШІ, після чого рівень довіри знижувався. Хессел каже: найсерйозніша проблема — реакція на ризики самопошкодження, які ШІ може або не помітити, або… занадто «схвально» прийняти небезпечні ідеї.
Експерти погоджуються: ШІ — це не заміна терапії, а можливий міст до неї. Але для людей, як-от Коте, які не мають іншого вибору, — це реальний рятівний інструмент. «Я використовую електрику ШІ, щоб врятувати своє життя», — каже він.
