«Совершенно настоящие» дипфейк-видео могут появиться всего через 6 месяцев, говорит профессор-исследователь

Если верить новому отчету, технология дипфейков собирается увеличить фактор реализма, делая ее все более доступной для широкой публики. Хотя это интересная разработка для людей, которым нравится делать подобные цифровые трюки для развлечения; в эпоху «фейковых новостей» это может привести к еще большим потрясениям, учитывая, как быстро видео может стать вирусным в социальных сетях.

По словам Хао Ли, адъюнкт-профессора компьютерных наук Университета Южной Калифорнии (USC), дипфейковые видео могут выглядеть «совершенно реальными» в течение шести-двенадцати месяцев. Во многих случаях с современными технологиями вы часто можете сказать, что видео были изменены. Это было очевидно, когда технология была впервые представлена ​​более года назад, но в наши дни ее становится еще труднее отличить.

«Есть также очень, очень убедительные примеры», — сказал Ли в интервью CNBC . «Вскоре дело дойдет до того, что мы больше не сможем обнаруживать [дипфейки], поэтому нам придется искать другие типы решений».

Дипфейки захватили Интернет штурмом, поскольку технология позволяет вам манипулировать существующими видео, отображая чье-то лицо на оригинальном исходном материале. Неудивительно, что некоторые из самых ранних примеров дипфейковых видео появились в киноиндустрии для взрослых (где знаменитости наклеивают свои лица на тела порноактеров), и они распространились, включив в себя также манипулирование кадрами политических деятелей. .

Технология дипфейков также используется для изменения видео с общественными деятелями и их голосовых моделей, чтобы они говорили вещи, которые никогда не исходили из их уст в реальной жизни. Мы видели, как подобные дипфейки использовались с такими политическими деятелями, как бывший президент Барак Обама, президент Дональд Трамп и президент России Владимир Путин.

Появились и другие дипфейки, в том числе DeepNude — приложение, которое позволяло пользователям «раздевать» женщин с помощью машинного обучения через генеративно-состязательную сеть (GAN). Излишне говорить, что негативная реакция соцсетей на приложение пришла быстро (особенно с учетом роста популярности порномести).

Ли говорит, что появление таких приложений, как DeepNude и Zao, привело к его более агрессивному графику, когда дипфейки будут почти неотличимы от настоящих. Zao позволяет вам вставлять свое лицо в популярных персонажей из фильмов, используя всего несколько селфи вместо тысяч и тысяч изображений, которые нужно прокручивать для предыдущих видео с дипфейками.

Итак, что мы можем сделать, чтобы бороться с этими дипфейками, поскольку они, похоже, не исчезнут в ближайшее время? Ли добавляет, что нам просто нужно использовать более совершенные технологии, чтобы обнаруживать этих самозванцев и находить ограничения технологии.

«Настоящий вопрос заключается в том, как мы можем обнаружить видео, в которых намерением является то, что используется для обмана людей или что-то, что имеет вредные последствия», — заключил Ли.

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал