Жуткое приложение DeepFake Nudie становится вирусным, раздевает женщин с помощью ИИ, а затем закрывается


Разработчик довольно тревожного и развратного приложения «DeepNude», которое запрограммировано на «раздевание» женщин с помощью машинного обучения и технологии искусственного интеллекта , закрыл операцию после негативной реакции в социальных сетях. В сообщении, опубликованном в Twitter, разработчик признал, что «вероятность того, что люди будут злоупотреблять [приложением], слишком высока». Я думаю?
Как и почему разработчик мог подумать иначе, остается загадкой. В неуклюжей попытке оправдать существование приложения разработчик далее заявил, что программное обеспечение было создано «для развлечения пользователя» и «не так уж хорошо, оно работает только с определенными фотографиями». Вот полное заявление о том, почему приложение больше не доступно…

DeepNude был создан на основе pix2pix, проекта с открытым исходным кодом, разработанного два года назад исследователями из Калифорнийского университета в Беркли. Он использует машинное обучение с помощью GAN или генеративно-состязательной сети, в которой две нейронные сети как бы конкурируют друг с другом за создание реалистичного изображения.
«Сетей несколько, потому что у каждой своя задача: найти одежду. Замаскировать одежду. Угадать анатомическое положение. Рендерить», — рассказал разработчик Motherboard . «Все это делает обработку медленной (30 секунд на обычном компьютере), но в будущем это можно улучшить и ускорить».

Приложение DeepNude жуткое и унизительное
Кто подумал, что это хорошая идея? На домашней странице приложения сейчас мало информации.
DeepNude работает только с изображениями женщин. Хотя разработчик считает, что это «медленный» процесс, эффект достигается намного быстрее, чем ручное манипулирование фотографией аналогичным образом в Photoshop. Это также намного быстрее, чем то, что требуется для создания дипфейкового видео.
Последствия чего-то подобного явно жуткие, болезненные и пугающие. Это то, что может быть использовано для порномести, причем в этом случае фото обнаженной женщины может быть размещено без ее согласия. Хотя обнаженные части объекта не принадлежат реальному человеку, это вряд ли имеет значение.
«Да, это не ваша настоящая вагина, но… другие думают, что видят вас обнаженной», — сказала Motherboard Даниэль Цитрон, профессор права в Школе права Кэри Университета Мэриленда . «Как сказала мне жертва дипфейка, казалось, что тысячи людей видели ее обнаженной, она чувствовала, что ее тело больше не принадлежит ей».
Дипфейки становятся настоящей проблемой и в эпоху фейковых новостей. Даже за пределами сферы обнаженных фотографий и видео мы видели некоторые тревожные случаи использования этой технологии. Это не просто изображения — на недавней демонстрации воспроизводились аудиоклипы, которые звучали как голос Джо Рогана, но на самом деле были сгенерированы компьютером.
Приложение DeepNude представляет собой одну из худших реализаций машинного обучения. К сожалению, даже несмотря на то, что он был удален из сети, копии, которые находятся в дикой природе, все еще работают. Более того, разработчик, вероятно, прав в том, что кто-то другой создал бы (и все еще будет) подобное приложение.

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал