Новини технологій

Використання ШІ у чотири рази підвищує схильність людей до брехні – дослідження

Використання ШІ підвищує схильність до брехні у 4 рази, а чат-боти частіше генерують неправдиві дані.

Люди значно частіше обманюють і шахраюють, коли залучають штучний інтелект для виконання завдань. Такий висновок зроблено у новому дослідженні, опублікованому в журналі Nature, інформує Уніан.

Автор роботи Зої Рахван з Інституту психіатрії Макса Планка назвав це явище «моральною дистанцією», пояснивши, що ШІ створює своєрідний екран між діями людини та її відповідальністю. У результаті учасники дослідів частіше йшли на неетичні кроки, перекладаючи провину на машини. Щоб перевірити рівень чесності, науковці провели 13 експериментів за участю 8000 добровольців. Учасникам пропонували інструктувати нейромережу виконати завдання, і з’ясувалося, що з використанням ШІ люди брехали вчетверо частіше. Без допомоги системи більшість відповідала правдиво, але опція «відповісти через ШІ» різко збільшувала кількість неправдивих заяв.

Дослідження також виявило ризики у поведінці самих ШІ-агентів. Аналіз 35 тисяч діалогів показав, що у 34% випадків боти провокували агресію, домагання або навіть насильство. «Результати ясно показують, що необхідно терміново розробляти технічні та правові запобіжники, а суспільству слід усвідомити значення спільної моральної відповідальності з машинами», – підсумовують автори.

Крім того, нещодавнє дослідження зафіксувало, що ChatGPT та інші чат-боти стали вдвічі частіше надавати неточні або вигадані дані. Зростання кількості помилок пояснюють тим, що нейромережі дедалі рідше відмовляються відповідати, навіть без достатньої перевірки інформації.

Kseniia Lazorenko