Facebook анонсировал конкурс Deepfake Detection Challenge. Вместе с Microsoft, MIT, Калифорнийским университетом в Беркли, Оксфордским университетом и другими исследовательскими организациями социальная сеть решила провести соревнование, участники которого должны будут разработать наиболее эффективный способ отличать deepfake-видео и фото.
Об этом в официальном блоге компании написал CTO Facebook Майк Шрофер.
Facebook вложит в инициативу 10 миллионов долларов, часть из которых пойдет на призовой фонд, а остальные — на создание базы данных для обучения и тестирования алгоритмов. Отсутствие подходящего открытого набора данных, с которым инженеры могли бы работать без каких-либо юридических ограничений, является, по мнению руководства компании, одним из ключевых препятствий в деле борьбы с дипфейками.
Для создания подходящего датасета планируется пригласить актеров, подписавших соглашение на использование своего изображения, и записать с ними видеоролики, которые станут доступны участникам конкурса. Однако выкладывать их в открытый доступ не планируется: для работы с данными потребуется пройти процедуру регистрации и подписать соответствующие соглашения.
Победителей конкурса определит панель экспертов. В нее войдут специалисты из Facebook, Microsoft, правозащитной организации WITNESS и других общественных, IT и академических сообществ, которые сравнят эффективность решений разных команд.
В Facebook считают, что демократизация ИИ и последовавшая за ней волна фейков в интернете подрывают доверие к информации в Сети и ведет к дезинформации. «Фейков стало слишком много, а у индустрии нет инструмента для их выявления», — написал Шрофер. Конечная цель новой инициативы — разработать инструмент, который будет находить сгенерированные нейросетями фото и видео максимально эффективно. В день на Facebook загружают более 350 миллионов изображений, и даже маленькая погрешность при таком масштабе может повредить репутации и социальной сети, и тех людей, чье изображение использовали при создании ролика.
Сегодняшние инструменты с фейковыми видео и фото справляются плохо: их слишком легко обойти. О трудностях определения подделок в июне этого года изданию The Verge рассказал профессор университета Южной Калифорнии Хао Ли. Вместе с коллегами он создал алгоритм, позволяющий находить подмену в 97% случаев. Метод основан на анализе особенностей мимики, которые текущее поколение Deepfake пока не может воспроизвести. Однако Ли признался, что разработанный его командой алгоритм совсем скоро устареет — технологии создания фейков изменяются очень быстро, и методы их определения за этим развитием не поспевают.
Сложность борьбы с фейковыми видео еще и в том, что улучшение методов детекции автоматически приводит к улучшению технологии производства фейковых видео в будущем. Дело в том, что в самой структуре алгоритма GAN, с помощью которых они генерируются, заложен принцип состязательности: одна нейросеть пытается создать фейковое видео или фото, а вторая стремится найти подделку среди настоящих роликов.