Провідні світові компанії, які займаються розробкою і розвитком ШІ, створили форум для подолання ризиків, пов’язаних зі штучним інтелектом.
Компанії OpenAI, Microsoft, Alphabet, Google і Anthropic запускають форум Frontier Model Forum для підтримки безпечної та відповідальної розробки великих моделей машинного навчання, інформує Reuters.
Група зосереджуватиметься на координації досліджень безпеки та визначенні найкращих практик так званих «передових моделей штучного інтелекту», які перевершують можливості найдосконаліших існуючих моделей.
Лідери галузі попереджають, що деякі моделі ШІ можуть мати небезпечні можливості, достатні для створення серйозних ризиків для громадської безпеки. Генеративні моделі штучного інтелекту, зокрема ті, що лежать в основі чат-ботів, екстраполюють великі обсяги даних на високій швидкості, щоб обмінюватися відповідями у формі прози, поезії та зображень.
Хоча варіантів використання таких моделей досить багато, державні органи, включаючи Європейський Союз, і лідери галузі, включаючи генерального директора OpenAI Сема Альтмана, заявили, що для подолання ризиків, пов’язаних зі штучним інтелектом, необхідні відповідні запобіжні заходи. «Компанії, що створюють технологію штучного інтелекту, несуть відповідальність за те, щоб вона була безпечною, захищеною та залишалася під контролем людини», — сказав президент Microsoft Бред Сміт.
Галузева організація Frontier Model Forum працюватиме з політиками та науковцями, сприяючи обміну інформацією між компаніями та урядами. Представник OpenAI сказав, що він не займатиметься лобіюванням, але зосередиться на розробці та поширенні загальнодоступної бібліотеки тестів і технічних оцінок передових моделей ШІ.
У найближчі місяці Frontier Model Forum створить консультативну раду, домовиться про фінансування з робочою групою, а також створить виконавчу раду, яка керуватиме його діяльністю. «Це термінова робота і цей форум має хороші можливості діяти швидко, щоб покращити рівень безпеки штучного інтелекту», – сказала віце-президентка із глобальних питань OpenAI Анна Маканджу.