Стрічка новин
27 Листопада 2024

OpenAI, Google, Meta та інші компанії позначатимуть водяним знаком контент створений ШІ

22 Липня 2023, 22:55
401bf93 gettyimages 1546723121 Економічні новини - головні новини України та світу

Низка найбільших технологічних компаній, серед яких OpenAI, Alphabet, Meta взяли на себе зобов’язання перед Білим домом запровадити такі заходи, як позначення "водяним знаком" контенту, який був створений штучним інтелектом (ШІ).

Про це повідомляє Reuters. 

За словами президента США  Джо Байден, зобов’язання, які взяли на себе компанії, є багатообіцяючим кроком в напрямку регулювання сфери використання ШІ. 

“Ці зобов’язання є багатообіцяючим кроком, але нам потрібно ще багато працювати разом”, — сказав Байден.

Компанії, до яких також входять Anthropic, Inflection, Amazon і партнер OpenAI Microsoft, пообіцяли ретельно тестувати системи перед їх випуском і ділитися інформацією про те, як зменшити ризики та інвестувати в кібербезпеку.

Байден, який приймав керівників компаній, сказав, що він також працює над розробкою виконавчого указу та закону щодо технології ШІ.

“Ми побачимо більше технологічних змін у наступні 10 років або навіть у наступні кілька років, ніж ми бачили за останні 50 років. Це було для мене вражаючим відкриттям, відверто кажучи”, — сказав Байден.

У рамках зусиль сім компаній взяли на себе зобов’язання розробити систему “водяних знаків” для всіх форм вмісту, від тексту, зображень, аудіо до відео, створених ШІ.

Цей водяний знак, вбудований у вміст технічним способом, імовірно, полегшить користувачам виявлення глибоко підроблених зображень або аудіо, які можуть, наприклад, демонструвати насильство, якого не було, створювати кращу аферу або спотворювати фотографію політика, щоб виставити людину в невтішному світлі.

Поки незрозуміло, як саме водяний знак буде видно під час обміну інформацією.

Компанії також пообіцяли зосередитися на захисті конфіденційності користувачів у міру розвитку штучного інтелекту та на забезпеченні того, щоб технологія була вільною від упереджень і не використовувалася для дискримінації вразливих груп. 

Залишити коментар:
Подписаться
Уведомить о
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии
Відео
Всі статті