Розслідування The Guardian засвідчило, що огляди Google на основі штучного інтелекту можуть наражати людей на небезпеку. У перших результатах пошуку користувачам пропонувалися неточні та оманливі поради щодо діагностики й лікування хвороб. Експерти попереджають, що такі зведення можуть призводити до хибних рішень і відкладання звернення за медичною допомогою.
Компанія Google заявляє, що її AI Overviews, які використовують генеративний штучний інтелект, є “корисними” та “надійними”. Водночас розслідування показало, що низка таких зведень містила помилки у чутливих темах, насамперед у сфері охорони здоров’я.
В одному з випадків, який фахівці назвали “дійсно небезпечним”, Google порадив людям з раком підшлункової залози уникати продуктів із високим вмістом жиру. Експерти наголосили, що це суперечить медичним рекомендаціям і може підвищити ризик смерті пацієнтів від цієї хвороби.
Директорка з питань підтримки, досліджень та впливу в Pancreatic Cancer UK Анна Джуелл заявила, що така порада є “абсолютно неправильною”. За її словами, дотримання цих рекомендацій може призвести до нестачі калорій, втрати ваги та неможливості перенести хімієтерапію або важливу операцію.
В іншому “тривожному” прикладі огляди Google AI надавали хибну інформацію про аналіз функції печінки. Це могло змусити людей із серйозними захворюваннями помилково вважати себе здоровими та не звертатися до лікаря.
Штучний інтелект також надав некоректні дані щодо “нормального діапазону показників аналізу крові на печінку”, висипавши на користувача купу цифр без контексту. Відсутність розмежування за віком, статтю та етнічною приналежністю робить такі результати не лише неточними, а й потенційно небезпечними для інтерпретації.
“Багато людей із захворюваннями печінки не виявляють жодних симптомів до пізніх стадій, тому так важливо пройти обстеження. Але те, що огляди штучного інтелекту Google називають “нормальним”, може разюче відрізнятися від того, що насправді вважається нормальним”, — заявила головна виконавча директорка Британського фонду з лікування печінки Памела Гілі.
The Guardian також зафіксував оманливі результати щодо психічних розладів. Стівен Баклі з благодійної організації Mind заявив, що деякі поради щодо таких станів, як психоз та розлади харчової поведінки, були “неправильними, шкідливими або могли призвести до того, що люди уникатимуть звернення за допомогою”.
“Нас непокоїло й те, що підсумок штучного інтелекту змінювався, коли ми виконували той самий пошук, щоразу видаючи різні відповіді з різних джерел. Це означає, що люди отримують різні відповіді залежно від того, коли вони шукають, і цього недостатньо”, — зазначила головна виконавча директорка благодійної організації Eve Appeal Афіна Ламнісос.
У Google відповіли, що більшість оглядів ШІ є точними та корисними, а їхня правдивість на рівні з іншими функціями пошуку. У компанії запевнили, що реагуватимуть на випадки, коли ШІ перекручує інформацію або ігнорує контекст, діючи в межах своєї політики безпеки.
“Ми значно інвестуємо в якість оглядів штучного інтелекту, особливо з таких тем, як здоров’я, і переважна більшість з них надає точну інформацію”, — підсумував речник Google.