Ведущие мировые компании, занимающиеся разработкой и развитием ИИ, создали форум для преодоления рисков, связанных с искусственным интеллектом.
Компании OpenAI, Microsoft, Alphabet, Google и Anthropic запускают форум Frontier Model Forum для поддержки безопасной и ответственной разработки крупных моделей машинного обучения, информирует Reuters.
Группа будет сосредотачиваться на координации исследований безопасности и определении лучших практик так называемых «передовых моделей искусственного интеллекта», которые превосходят возможности наиболее совершенных существующих моделей.
Лидеры отрасли предупреждают, что некоторые модели ИИ могут иметь серьезные риски для общественной безопасности. Генеративные модели искусственного интеллекта, в частности лежащие в основе чат-ботов, экстраполируют большие объемы данных на высокой скорости, чтобы обмениваться сообщениями.
Хотя вариантов использования таких моделей достаточно много, государственные органы, включая Европейский Союз, и лидеры отрасли, включая генерального директора OpenAI Сэма Альтмана, заявили, что для преодоления рисков, связанных с искусственным интеллектом, необходимо разработать соответствующие меры предосторожности. “Компании, создающие технологию искусственного интеллекта, несут ответственность за то, чтобы она была безопасной, защищенной и оставалась под контролем человека”, – сказал президент Microsoft Брэд Смит.
Отраслевая организация Frontier Model Forum будет работать с политиками и учеными, способствуя обмену информацией между компаниями и правительствами. Представитель OpenAI сказал, что он не будет заниматься лоббированием, но будет сосредоточен на разработке и распространении общедоступной библиотеки тестов и технических оценок передовых моделей ИИ.
В ближайшие месяцы Frontier Model Forum создаст консультативный совет, договорится о финансировании с рабочей группой, а также создаст исполнительный совет, который будет руководить его деятельностью. “Это срочная работа и этот форум имеет хорошие возможности действовать быстро, чтобы улучшить уровень безопасности искусственного интеллекта”, – сказала вице-президент по глобальным вопросам OpenAI Анна Маканджу.