Главная
>
Смешные картинки
>
deep fakes
deep fakes
Подписчиков: 11 Сообщений: 32 Рейтинг постов: 1,117.0шварценеггер Актеры и Актрисы Знаменитости Билл Хейдер deep fakes видео DeepFakes
Если бы Арнольд Шварценеггер не стал Мистером Олимпия
Актеры и Актрисы Знаменитости Дженнифер Лоуренс Стив Бушеми гифки видео deep fakes
Ничего необычного, Дженнифер Лоуренс с лицом Стива Бушеми, листай дальше
Пользователь Delaware Destroyer выложил на YouTube видео, созданное с помощью искусственного интеллекта, на котором у актрисы Дженифер Лоуренс лицо актера Стива Бушеми.
За основу неизвестный автор видео взял видео Лоуренс на церемонии вручения «Золотого глобуса» в 2016 году.
С помощью специального алгоритма на основе машинного обучения, находящегося в свободном доступе, создатель ролика подставил вместо лица Лоуренс лицо Бушеми. В результате создается полное ощущение, что Бушеми в женском платье разговаривает голосом Лоуренс.
Такие видео называют дипфейками (deep fakes). Впервые о них стали писать в конце 2017 года, когда появились порноролики, в которых лица голливудских актрис «приставлены» к телам порноактрис.
нейронные сети nvidia котэ deep fakes
Посмотрите на эти изображения. Люди на них выглядят вполне реальными, но на самом деле они никогда не существовали. Их создала нейросеть от Nvidia
Производитель компьютерной периферии Nvidia научила нейросеть создавать максимально реалистичные изображения людей, которых на самом деле не существует. Отчет о работе специалистов опубликован на сайте библиотеки Корнеллского университета.
За основу для своей работы исследователи из Nvidia взяли так называемую генеративно-состязательную сеть, которая среди прочего позволяет создавать реалистичные фотографии.
В 2014 году сеть описал Ян Гудфеллоу. Сейчас он работает в проекте Google Brain, который посвящен изучению искусственного интеллекта. Четыре года назад Гудфеллоу представил первые результаты работы нейросети — тогда это были не очень детальные черно-белые изображения людей.
Сотрудники Nvidia добавили в генеративно-состязательную сеть метод style transfer — он позволяет совмещать характеристики одного изображения с другим. Похожий метод используют фоторедакторы вроде Prisma, которые с помощью нейросети превращают обычное фото в изображение, к примеру, в стиле импрессионизма.
В случае с исследованием Nvidia, style transfer позволил придать исходному изображению человека черты другого человека, таким образом создавая уникальное изображение мужчины или женщины.
Verge отмечает, что результаты работы Nvidia в будущем можно будет использовать, например, для рекламных материалов. Но в тоже время существует опасность, что их будут использовать в пропаганде или, например, для разжигания конфликтов.
Отличный комментарий!