ChatGPT за кілька років перетворився на універсальний цифровий інструмент: від швидкого пошуку інформації до допомоги з текстами й плануванням. Водночас дедалі більше користувачів починають сприймати його як істину. Це хибне уявлення, адже чат-боти схильні до помилок, вигадувань і не мають реального розуміння контексту.
Їхня користь можлива лише за умови усвідомлення обмежень. Видання SlashGear перелік із 14 типів запитів, які не варто довіряти ChatGPT і будь-якому іншому ШІ.
Розмови з ChatGPT не є приватними. Згідно з політикою конфіденційності, OpenAI збирає запити та завантажені файли. Технологічні компанії регулярно стають жертвами витоків даних, і OpenAI – не виняток: у минулому вже траплялися збої, які призводили до розкриття чужих чатів.
Окрему загрозу підтверджує дослідження Корнелльського університету. У ньому вчені показали, що деякі мовні моделі можна змусити відтворювати майже дослівні фрагменти тренувальних даних. У межах експерименту дослідникам вдалося отримати практично повний текст одного з романів про Гаррі Поттера, попри авторське право. Це означає, що інформація, введена користувачем, теоретично може бути згодом відтворена.
Питання про незаконні дії – погана ідея з двох причин. По-перше, чати не є конфіденційними й можуть бути використані в суді. Подібні випадки вже траплялися з історіями браузерів і пошукових запитів.
По-друге, навіть якщо обійти обмеження, ChatGPT часто вигадує переконливі, але неправильні відповіді. У контексті незаконних дій це може бути не просто помилкою, а реальною загрозою здоров’ю чи свободі. Окрім усього, такі запити можуть призвести до блокування доступу до сервісу.
ChatGPT часто використовують як інструмент для узагальнення й аналізу текстів. Проте ніколи не варто завантажувати важливі дані.
У 2023 році компанія Samsung підтвердила, що її співробітники вводили в ChatGPT внутрішню інформацію, зокрема фрагменти програмного коду та службові документи, через корпоративну платформу. Після цього компанія обмежила використання чат-бота. Цей кейс показав, що навіть ненавмисні дії можуть створювати серйозні ризики витоку.
ChatGPT не здатен відрізнити правду від вигадки. Він просто комбінує інформацію з різних джерел, незалежно від їхньої достовірності. Попри це, бот досі може відповідати на запити про симптоми й лікування.
Навіть медичні фахівці визнають: чат-боти придатні лише для дуже загальної інформації, але не для індивідуальних порад. Люди вже хворіли, намагаючись дотримуватися рекомендацій, отриманих від чат-ботів. За будь-яких симптомів потрібно звертатися до лікаря, а не до алгоритму.
ChatGPT навчався на масиві інтернет-контенту, включно з форумами сумнівної якості. Він не бачить реального контексту, не зчитує невербальні сигнали й не знає, чи користувач подає ситуацію об’єктивно.
Часто бот або дає помилкові поради, або підтакує шкідливим переконанням, замість того щоб їх ставити під сумнів. У складних або токсичних стосунках це може бути особливо небезпечно.
ChatGPT – поганий інструмент для створення паролів. Він може генерувати однакові або недостатньо складні комбінації, неправильно рахувати кількість символів і, що найгірше, зберігати ці дані у своїх логах. Для цього існують спеціалізовані менеджери паролів.
ChatGPT схильний до надмірної підтримки й схвалення, що в терапевтичному контексті може бути руйнівним. Людям із психічними проблемами потрібен об’єктивний фахівець, а не алгоритм, який випадково підкріплює небезпечні думки.
ChatGPT може правильно описати загальні принципи, але часто помиляється в деталях. Коли йдеться про автомобіль або дорогу техніку, одна неправильна порада може призвести до серйозних пошкоджень. У таких випадках краще звертатися до професіоналів.
Фінанси – це складна сфера, що залежить від законодавства, ринку й індивідуальних обставин. ChatGPT може вигадувати або спрощувати інформацію. Податкові, інвестиційні та бухгалтерські питання мають вирішувати спеціалісти, а не чат-бот.
Освіта базується на розвитку мислення й умінні аналізувати. Регулярне використання ChatGPT замість власної роботи вже пов’язують зі зниженням когнітивних навичок. Крім того, виникає ризик залежності від інструменту.
ChatGPT не враховує всі нюанси законодавства й може вигадувати норми або судові прецеденти. Відомі випадки, коли юристи подавали документи з неіснуючими посиланнями, згенерованими ботом. Це серйозний ризик.
Чат-бот не може передбачати майбутнє – ні в економіці, ні в політиці, ні в особистому житті. Він лише узагальнює минулі дані. Використовувати його для серйозних прогнозів або життєвих рішень – ризиковано.
У надзвичайних ситуаціях час має вирішальне значення. Помилкова порада чат-бота може коштувати життя. У таких випадках потрібно звертатися до служб порятунку, а не до ШІ.
ChatGPT не є нейтральним. Він відображає упередження своїх даних і може або підтверджувати вже наявні переконання, або подавати викривлену інформацію. Політичні рішення потребують перевірених джерел і критичного мислення.