Ученые-компьютерщики утверждают, что нашли надежный способ обнаружения дипфейковых видео

Ученые-компьютерщики нашли способ обнаруживать новости о дипфейках
По мере распространения и совершенствования технологий машинного обучения на первый план вышли некоторые потенциально тревожные варианты использования. Одним из таких вариантов использования является возможность создавать изображения, видео и аудио, которые воспроизводят внешний вид человека, выражение лица и голос, при создании того, что обычно называют дипфейками . Дипфейки могут выглядеть удивительно убедительно, когда алгоритму машинного обучения предоставляется достаточно вычислительной мощности, времени и обучающих данных.

В случае традиционного дипфейка видео или изображения алгоритм начинает с видео или изображения одного человека, а затем меняет лицо человека на лицо кого-то другого. Однако вместо того, чтобы менять лица, технология дипфейка может изменить выражение лица человека. Обе эти возможности имеют потенциал для гнусных приложений. Технологии дипфейков можно использовать для лечения или создания видеороликов о том, как кто-то действует или говорит недобросовестно в целях очернения репутации, мотивированного местью, политической выгодой или жестокостью. Даже возможность дипфейков подрывает доверие к видео, изображениям или аудиодоказательствам. Некоторые исследователи в ответ разработали способы обнаружения дипфейков , используя ту же технологию машинного обучения, которая делает их возможными.

Ученые-компьютерщики нашли способ обнаружения дипфейков в образцах новостей
Замена выражений (вверху) и замена лица/идентификации (внизу)

До этого момента некоторым исследователям удавалось разработать довольно точные методы обнаружения подмен анфас/идентификации, но обнаружение подмен выражений оказалось более сложным. Однако специалисты по информатике из Калифорнийского университета в Риверсайде опубликовали статью, демонстрирующую новую методику обнаружения подмен идентичности и выражений с высоким уровнем точности. Исследователи представили свою статью под названием «Обнаружение и локализация манипуляций с выражением лица» на Зимней конференции 2022 года по приложениям компьютерного зрения.

Новая структура, которую ученые назвали «Обнаружение манипулирования выражениями» (EMD), сначала отображает выражения лица, а затем передает эту информацию кодеру-декодеру, который обнаруживает манипуляции. Фреймворк может указать, какие области лица подверглись манипуляциям. Исследователи применили свою структуру к наборам данных DeepFake и Face2Face и смогли достичь 99-процентной точности для обнаружения как идентичности, так и выражения. Эта статья дает нам надежду на то, что автоматическое обнаружение дипфейков вполне реально.
Верхнее изображение: демонстрация манипуляций с лицом (источник: Эдвард Уэбб на Викискладе )

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал