Как победить «дипфейки»? По словам Google, вы разрабатываете больше из них. Google только что выпустил большую бесплатную базу данных дипфейковых видео, чтобы помочь в разработке инструментов обнаружения.
Google сотрудничал с Jigsaw, технологическим «инкубатором», основанным Google, и программой FaceForesenics Benchmark Program Мюнхенского технического университета и Университета Федерико II в Неаполе. Они работали с несколькими платными актерами для создания сотен реальных видео, а затем использовали популярные технологии дипфейка для создания тысяч поддельных видео.
Исследователи смогут получить свободный доступ как к поддельным, так и к реальным видео для разработки «методов синтетического обнаружения видео». Есть надежда, что эти новые инструменты обнаружения смогут предотвратить вред и неправомерное использование. Google также обещает постоянно обновлять базу данных «по мере развития технологии дипфейков».
Новая база данных является частью усилий Google по внедрению лучших практик искусственного интеллекта ( ИИ ). Прошлой зимой они также выпустили базу данных синтетической речи, чтобы помочь исследователям создавать фальшивые детекторы звука. Hoya, iFlytek и несколько других учреждений и университетов также внесли свой вклад в создание этой большой базы данных.
Мы надеемся, что база данных дипфейков поможет в обнаружении предстоящего натиска дипфейковых видео. Доктор Хао Ли, научный сотрудник Университета Южной Калифорнии, недавно предсказал, что до «совершенно настоящих» дипфейковых видео осталось всего 6–12 месяцев. . Он заметил: «Вскоре дело дойдет до того, что мы больше не сможем обнаруживать [дипфейки], поэтому нам придется искать другие типы решений». Уже есть ряд дипфейковых видеороликов с политическими лидерами и знаменитостями, которые весьма убедительны.
Даже плохо созданные дипфейковые видео и фото могут нанести большой ущерб. Приложение «DeepNude» использовало машинное обучение и искусственный интеллект для «раздевания» женщин. Машинное обучение использовало «GAN» или генеративную состязательную сеть для создания реалистичных изображений. Изображения не были реальными, но они были пугающими и агрессивными. Даниэль Цитрон, профессор права юридического факультета Бостонского университета, рассказала Motherboard . «Как сказала мне жертва дипфейка — казалось, что тысячи людей видели ее обнаженной, она чувствовала, что ее тело больше не принадлежит ей». Жуткое приложение, к счастью, было удалено из-за волны негативной реакции в социальных сетях.