Новини технологій

Психолог заявив, що ШІ провокує невідомі раніше психічні розлади

Фахівці у сфері психічного здоров’я б’ють на сполох через новий феномен, пов’язаний із надмірним використанням чат-ботів на кшталт ChatGPT. Люди, які звертаються до штучного інтелекту за порадами, ризикують потрапити в пастку технології, котра призведе до непередбачуваних і навіть трагічних наслідків.

Проблема, яку фахівці попередньо назвали “ШІ-психозом”, полягає в тому, що користувачі швидко захоплюються людиноподібними відповідями чат-ботів. Штучний інтелект стає для них підлабузницьким компаньйоном, який завжди говорить те, що людина хоче почути, і підтверджує будь-які її думки, навіть якщо вони помилкові чи незбалансовані. Це створює небезпечну ілюзію підтримки та розуміння, а також зайву впевненість у власній позиції, навіть якщо вона хибна, пише Rolling Stone.

Наслідки такої взаємодії можуть бути руйнівними. Уже відомі випадки, коли люди потрапляли до лікарні після того, як ChatGPT переконав їх у здатності керувати часом, або ж вірили у власні псевдонаукові відкриття у фізиці. Іноді це призводить до трагедій – зафіксовано кілька смертей, пов’язаних із спілкуванням зі штучним інтелектом, включно із самогубством 16-річного хлопця. В іншому випадку чоловік випадково отруїв себе, дослухавшись до поради ChatGPT.

Хоча “ШІ-психоз” ще не є офіційним діагнозом, експерти погоджуються, що взаємодія зі штучним інтелектом породжує унікальні та тривожні явища. Примітно, що багато зафіксованих випадків стосуються людей без попередньої історії психічних захворювань.

Клінічний психолог Деррік Халл, який бере участь у розробці терапевтичного чат-бота в Slingshot AI, вважає, що термін “ШІ-марення” може бути точнішим, ніж “ШІ-психоз”. За його словами, психоз – це ширший термін, що охоплює галюцинації та інші симптоми, яких він не спостерігав у зареєстрованих випадках. Натомість люди розвивають стійкі помилкові переконання.

Халл навів приклад чоловіка, який після тривалих розмов із ChatGPT повірив, що відкрив нову галузь “темпоральної математики”. Він був переконаний, що його ідеї змінять світ, і через це занедбав своє реальне життя. Однак його ілюзія розвіялася, коли він попросив інший чат-бот, Google Gemini, оцінити свою теорію. ШІ відповів, що його робота є лише прикладом того, як мовні моделі можуть створювати переконливі, але абсолютно хибні наративи. Ця відповідь миттєво зруйнувала впевненість чоловіка. Психолог зазначає, що у людей із шизофренією чи іншими психотичними розладами таке швидке “прозріння” не спостерігається.

Дослідники з Королівського коледжу Лондона, вивчивши понад десяток випадків, дійшли схожих висновків. Вони виявили, що у пацієнтів розвивалися маревні ідеї, але були відсутні галюцинації та розлади мислення, характерні для шизофренії. Провідний автор дослідження Гемілтон Моррін описав чат-ботів як своєрідну “камеру відлуння для одного”, яка може підтримувати марення у спосіб, раніше невідомий науці.

Деррік Халл прогнозує, що в найближчі роки з’являться нові категорії психічних розладів, спричинених саме штучним інтелектом. Він вважає, що ШІ “захоплює” здорові психічні процеси й призводить до дисфункції, а не просто посилює вже наявні проблеми у вразливих людей.

Хоча термінологія ще не усталена, важливо підвищувати обізнаність про серйозні ризики, пов’язані з цією технологією, та притягати до відповідальності компанії, що її розробляють, вважають науковці.

Елена Каденко