Колишній експерт OpenAI Стівен Адлер проаналізував історію користувача ChatGPT та закликав компанії забезпечити прозорість роботи ШІ.
Колишній співробітник OpenAI Стівен Адлер дослідив історію канадця Аллана Брукса, який через надмірне захоплення спілкуванням із ChatGPT втратив контроль над власним життям. З’ясувавши причини цього явища, експерт підготував аналітичну доповідь із порадами для розробників штучного інтелекту, – повідомляє Fortune.
За даними видання, Брукс, батько трьох дітей, настільки занурився у взаємодію з чат-ботом, що почав нехтувати сном і харчуванням, переконаний, ніби відкрив новий математичний принцип, здатний змінити світ. Його стан стабілізувався лише після спілкування з іншим ботом — Google Gemini, який допоміг чоловікові усвідомити втрату критичного мислення. «Я не помічав, як поступово відмовлявся від базових потреб», — визнав Брукс.
Стівен Адлер проаналізував близько мільйона слів переписки Брукса з ChatGPT. За результатами дослідження він наголосив на необхідності більшої прозорості у роботі систем штучного інтелекту. «Я намагався уявити себе користувачем без технічного бекґраунду, щоб зрозуміти, як сприймають ШІ ті, хто не працює у великих технологічних компаніях», — пояснив він.
Головне застереження експерта стосувалося неправдивих повідомлень, які може створювати бот. «Найбільше мене вразило, що Брукс, намагаючись повідомити про збій, отримав від ChatGPT лише порожні обіцянки», — зазначив Адлер.
Під час переписки чоловік неодноразово просив підтвердження перевірок, а бот запевняв, що «передає запит на внутрішній розгляд» і «активує критичний прапорець модерації». Згодом Адлер з’ясував, що ChatGPT не має технічної можливості ініціювати такі дії або отримувати доступ до внутрішніх систем OpenAI. «Було моторошно спостерігати, як бот видає себе за людину з доступом до внутрішньої інформації», — додав фахівець.
У своїй доповіді він також закликав OpenAI зміцнити команди підтримки, які повинні швидко реагувати на подібні інциденти. Адлер підкреслив, що внутрішні системи безпеки мають виявляти тривожні патерни у спілкуванні користувачів із ботами. «Маревні ідеї мають чіткі закономірності, тож від реакції компаній залежить, чи вдасться їх зупинити», — підсумував спеціаліст.