Testing with Daisy Ridley / First test video автор nuttynutter6969 / daisy ridley :: reddit :: нейросеть :: deepfakes :: нейронные сети :: замена лиц :: gif :: nuttynutter6969

deepfakes нейросеть нейронные сети gif reddit замена лиц daisy ridley nuttynutter6969 

Testing with Daisy Ridley / First test video автор nuttynutter6969

Я играл с новым GUI от deepfakeapp, и это результаты моего первого полного тестового видео.


Это единственные части, которые выглядели нормально:


deepfakes,нейросеть,нейронные сети,gif,reddit,замена лиц,daisy ridley,nuttynutter6969


https://gfycat.com/IdleLankyIcterinewarbler


https://gfycat.com/SoftFelineAmericancurl


https://gfycat.com/FlashyAggressiveGermanwirehairedpointer


https://gfycat.com/KindheartedSpeedyAxolotl


Если вам нужны остальные части видео, чтобы увидеть все его проблемы, оно находится здесь -> https://sendvid.com/cxulmetg. Будьте осторожны, большинство из фрагментов из них несмотрибельно.

Извлеченные уроки:

1- Нужно добавлять фотографии с высоким разрешением для учебных данных, я думаю, это поможет в устранении сильных размытий в видео.

2- В этом видео было, к сожалению, картина с лицом за моделью в нескольких сценах, это не очень хорошо сочеталось с распознаванием лица, и ИИ запутался, так как он узнавал лицо в картине на стене.

3. Нужно избегать сцен, где угол обзора модели плох по сравнению с учебными данными, например, когда она на коленях между 1:23 и 04:04 в видео

Помимо этого, когда данные были правильными, и все собиралось хорошо, как в первых трех ссылках, эта новая технология просто потрясающая.

Я сделаю еще несколько тестовых видео и попытаюсь улучшить свой рабочий процесс. Если у кого-нибудь есть советы о том, как бороться с проблемой № 2, дайте мне знать.

Благодарю deepfakes и deepfakeapp за их удивительный вклад!


"mengohmengohmeng

Отличная работа!

Интересуюсь, каковы спецификации вашего компьютера? И как долго вы тренировались? Также, сколько фотографий / видеороликов вы собрали из Daisy? С нетерпением ждем, что вы будете работать дальше.

nuttynutter6969

Мой компьютер i5 7600k Kaby Lake с видеокартой GTX 1080 и 16 ГБ памяти. Я получил около 7500 фотографий ( скаченных кадров ) Daisy из разных интервью YouTube. Я почти уверен, что это перебор, но это было легко и довольно просто, так почему бы и нет. Я уверен, что мне нужно обрезать и скачать качественные снимки из других источников, чтобы улучшить результаты. Что касается девочки из порно, я просто вырезал кадры из реального порно клипа, их было около 3000.

Нейросеть обучалась около 18 часов."



Подробнее

deepfakes,нейросеть,нейронные сети,gif,reddit,замена лиц,daisy ridley,nuttynutter6969
Еще на тему
Развернуть

Отличный коммент!

Вот бы разрабы успели к 2049 году добиться реалистичной синхронизации.
vedymyr21 vedymyr2111.01.201801:01ссылка
+33.24
Я так понимаю что лицо актрисы появлялось в картине на стене? Хера крипота
Я нихуя не понимаю в нейросетях и прочей фигне. Но допустим... допустииим. Я хочу снять видео сам вот я сам снимаю видео. Затем я хочу чтобы нейросеть это моё видео взяло и вместо меня поставила другого человека. Как это сделать. Где вообще эта нейросеть, как её сказать, там есть интерфейс или надо быть задро прогером? Как с этим работать что к чему и так далее. Я уже не первый пост вижу, выглядит ахуенно. Но я нихуя.. вообще нихуя не понимаю как это работает. А было бы пиздецки интересно. Но почему то никто не слова не говорит об этом. В итоге задры сидят всё понимают, а казуалы гуманитарии вроде меня нихера не понимают, и нам никто даже не пытается на пальцах объяснить. А я в этом вижу ахуенный потенциал для дешёвых роликов, для блогов, стримов ещё блять хуй знает чего, тут идей может быть триллиард, но в идеале конечно система должна быть дружелюбна к обычному юзеру, поэтому мне и интеерсно насколько система близка к этому, и как это работает сейчас. Будьте так любезны.
AlanWake AlanWake 11.01.201802:25 ответить ссылка 11.1
Рано просишь. Подожди пару лет - начнут появляться решения вроде того, что ты просишь. А так-то на текущий момент инфы весьма много, но да, порог вхождения немного выше чем просто пару кнопок нажать. Будет спрос - будут делать и интерфесы и прочее. А пока - незачем его в массы пускать. Будет многолионные видео, которые ты не сможешь нормально редактировать, потому что АХЗ как оно работает, а в предсказуемое поведение нейронки пока никто не умеет.
Kilew Kilew 11.01.201802:46 ответить ссылка 3.9
На самом деле порог вхождения, чтобы заюзать Keras и поставить tensorflow примерно как у местного сисадмина в геймклубе, а чтобы заюзать нейронку не нужно даже вышмат знать, если юзать такие либы. Только вот продукт из этого разве что на рандоме только склепаешь, если не понимаешь, как это всё дело работает. А вообще на курсере есть халявный курс от Andrew Ng, можно прожевать за пару дней, хотя он рассчитан на часов 60, не то, чтобы он прямо достаточен для чего-то инновационного, но чтобы понимать статьи и книги умных дядей- очень даже.
Как бы ФШМ-у не свою ИНС строить, а выбирать готовую. Так что всё кончается на "На самом деле порог вхождения, чтобы заюзать Keras и поставить tensorflow примерно как у местного сисадмина в геймклубе, а чтобы заюзать нейронку не нужно даже вышмат знать, если юзать такие либы. "
Т.е. "а запускать готовую".
Если умеешь в английский - тут вот вся программа и все инструкции
http://reddit.com/7ox5vn
koyot koyot 11.01.201805:11 ответить ссылка 0.1
Будь она дружелюбна к пользователю все бы уже клипали "ориджинал контент")

Интересно, для таких роликов придетс имена обоих актрис указывать?
Romin Romin 11.01.201806:14 ответить ссылка 1.1
https://www.reddit.com/r/deepfakes/comments/7ox5vn/fakeapp_a_desktop_tool_for_creating_deepfakes/

I've completed a desktop app /w GUI to create deepfakes. Here is a what it looks like ( https://imgur.com/BDX9ANb ). For anyone unfamiliar with this subreddit, deepfakes are neural network-generated faceswap videos created with a machine learning algorithm designed by /u/deepfakes( https://www.reddit.com/u/deepfakes ). Check the sub wiki for more info. Here is an excellent example of a deepfake of Daisy Ridley ( https://thumbs.gfycat.com/EasySecondDouglasfirbarkbeetle-size_restricted.gif ) produced with this app in less than a day by /u/nuttynutter6969 ( https://www.reddit.com/u/nuttynutter6969 ). This app is intended to allow users to move through the full deepfake creation pipeline—creating training data, training a model, and creating fakes with that model—without the need to install Python and other dependencies or parse code. The download link is in the comments.

Instructions:

Download CUDA 8.0 and store it's bin folder in the PATH environment variable ( https://imgur.com/a/itUH9 )

Split some videos with your two desired faces into two sets of a few hundred frames each with a tool like FFMPEG ( https://www.ffmpeg.org/ ). If you use FFMPEG, the command you want is: ffmpeg -i scene.mp4 -vf fps=[FPS OF VIDEO] "out%d.png". After splitting, run both directories of split frames through the "Align" tool to produce training data

Switch to the "Train" tool, and input the paths of the training data produced in step 1 (it should be in a folder called "aligned") as well as those of the encoder and decoders included in the "models" folder along with this project

Train until the preview window shows results you are satisfied with

Split the video to be faked into frames and run the "Merge" tool on them to create faked frames, which can then be remerged into a deepfaked video

Copy and reuse the same encoders for faster results in future fakes

Requirements:

-CUDA 8.0 must be installed, and its bin folder must be included in the PATH environment variable.

-At least a few GB of free space on disk to allow the app to create Temp files

Notes:

-Run fakeapp.bat to launch the app

-RuntimeError: module compiled against api version 0xc but this version numpy is 0xb is just a warning related to how the alignment libraries were installed, the app will run properly despite it appearing if no other errors occur

-It may take 30-45 seconds after pressing the Start button for the app to unpack and start the training/merging scripts the first time

-You can still quit training by focusing the training window and pressing "q"

-Paths to models/data must be absolute, not relative

If it doesn't work for you:

The console for the tool you are using (Align, Train, or Merge) will output a full error log if the tool fails. Here are some known errors with solutions:

General Issues

All directories used by the app should have names comprised of only English characters. Many users have had issues with directories with Cyrillic or Chinese characters, so if you have directories like this make sure to use different directories with English character names when running the app.

If any tool's log contains AssertionError: dir.isDir(), the tool cannot find your directories. Make sure they are typed into the app correctly.

Align Issues

If the Align log contains KeyError: state_dict, your version of a dynamic library called2DFan-4.pth.tar is corrupted. This is a library downloaded the first time the Align tool is run, and it is possible for that download to fail to produce a working 2DFan file. Download a working version from the link in the comments (this link is not allowed to be in the post), and replace the corrupted version in C:\Users\[NAME]\AppData\Local\face_alignment\data.

If the Align log contains AssertionError: can't find input files make sure the File Type parameter is set to the same image type as the images in your data folder (i.e. png, jpg, etc.)

If the Align log contains error while calling cudaMalloc() reason: out of memory, you are probably training with images that are too large. Make sure images are not greater than 1200x700 in resolution, this resolution is plenty to produce a good model

Train Issues

If the Train log contains AssertionError in image_augmentation.py you are training with images of the wrong size, make sure you are only training with the 256x256 images created using the Align tool

If the Train log contains Missing cudart_64.dll you have the wrong version of CUDA installed (Tensorflow requires 8.0)

If the Train log contains MemoryError train.py line 60/line 61 you are probably training with too many images at once for your GPU to handle and should reduce the number of images you are training with (500 is more than sufficient)

If the Train log contains OOM when allocating tensor with shape [W, X, Y, Z] the current model is too intensive for your GPU. Try lowering the batch size (to a lower power of 2 than 64) and see if that helps.

If the Train log mentions Theano Keras is wrongly trying to use Theano as a backend. Setting the KERAS_BACKEND environment variable to "tensorflow" should fix it.

Merge Issues

If Merge outputs faces with visible boxes around them, make sure that *Seamless is set to 'true' and faces are not too close up in the images you are working with. The scripts this app works with cannot always avoid creating a box on very large faces, but will almost always create a seamless merge with moderately-sized faces.

In the future I plan to make ease-of-use improvements to the app and look into replacing scripts with more efficient/streamlined/accurate versions as they come out.
Link to FakeApp ( https://drive.google.com/file/d/1_D6JIZsv4JdIqydhfpXCP63HzlvnqCt6/view )

Link to an uncorrupted 2DFan if you get the KeyError: state_dict error. ( https://drive.google.com/file/d/19Xtwjohj8bO_Fvnlo81L7pSF5aN-zoX6/view )
Забыл добавить wiki ( https://www.reddit.com/r/deepfakes/wiki/index ) от него же

FAQ

*Can I see some examples of videos created by this algorithm?

For the best new examples, sort the sub by top/all-time. The most widely known example is this faked video of Gal Gadot (NSFW) ( https://www.reddit.com/r/CelebFakes/comments/7amgwl/gal_gadot_oc/ ), which was featured on a number of sites ( http://www.complex.com/life/2017/12/ai-assisted-fake-is-here ).

*Where are the original scripts that produced these videos?

The source code can be found here ( https://github.com/deepfakes/faceswap ). The entire project with pre-trained models can be found here ( https://anonfile.com/p7w3m0d5be/face-swap.zip ).

*Is there a program/website that I can use to produce these videos?

FakeApp ( https://www.reddit.com/r/deepfakes/comments/7oc018/simple_desktop_app_with_gui/ ) is a community-developed desktop app to run the deepfakes algorithm without installing Python, Tensorflow, etc. Currently it supports only training/conversion of faces, and cannot create training data.

*How can I install and run the original scripts?

Follow the instructions here ( https://www.reddit.com/r/deepfakes/comments/7nq173/v2_tutorial_intelbased_python_easy_to_follow/?st=jc4lh5lx&sh=acde4329 ).

*What tools do I need to produce these videos?

At a minimum, your computer should have a good GPU. Failing this, you can rent cloud GPU(s) through services like Google Cloud Platform ( https://cloud.google.com/gpu/ ).

*How long does this whole process take?

Times vary by hardware quality, but generally speaking the pipeline is:

Extraction: Producing uniform training data of a model's face (5-20 min)

Training: Running a neural network to learn to emulate this face (8-12 hours)

Conversion: Using the neural network to project the target face onto the original face in a video frame-by-frame (5-20 min)

*Pages

-In progress

Warp On Other Domain Landmarks ( https://www.reddit.com/r/deepfakes/wiki/WarpOnOtherDomainLandmarks )

Pose Similarity Estimation ( https://www.reddit.com/r/deepfakes/wiki/PoseSimilarityEstimation )

Alternate Loss Functions ( https://www.reddit.com/r/deepfakes/wiki/AlternateLossFunctions )

-Placeholders

Original DeepFakes Implementation ( https://www.reddit.com/r/deepfakes/wiki/OriginalDeepFakesImplementation )

Image Selection Region Expansion ( https://www.reddit.com/r/deepfakes/wiki/ImageSelectionRegionExpansion )
если ты казуальный гуманитарий, то мне кажется что во первых ты им так и останешься, во вторых вряд ли у тебя есть достаточно мощный комп для этой нейросети (хотя может я и ошибаюсь). нейросеть лежит в отткрытом доступе, просто погугли "FakeApp" мануалы найдёшь на буржуйских форумах и ютубчике. Удачи
"во вторых вряд ли у тебя есть достаточно мощный комп для этой нейросети"
"Гуманитариям" не нужны GPU? :-)
Каким образом, не дочитав еще коммент и не глядя на ник комментатора, я уже чувствую что это фотошоп мастер? Что за магия?
1. любителей писать портянки маловато.
2. возможно - есть какие-то характерные черты стиля текста.
А можно лицо моего физрука с гей-порно совместить?
Neonavt Neonavt 11.01.201800:43 ответить ссылка 16.0
тебе IRL надо?
он просто не знает с чего начать знакомство...
Подойти к физруку и намекнуть, что часто думает о его лице и гей порно?
jabia jabia 11.01.201800:59 ответить ссылка 6.6
Не советую, когда я так сделал, это плохо кончилось...
Нюансы отличались от нюансов идеи?
Нет.
Я извиняюсь, можно более подробную инструкцию на русском и исходник программы, если не затруднит, уж больно интересная тема, но в некоторых аспектах сам не разберусь.
_LoR_ _LoR_ 11.01.201800:53 ответить ссылка -7.1
>> подробную инструкцию на русском
может вам и исходник нейросети на qbasic заебенить?
А можно на Паскале?
Можно. Делай.
Сделал. Не работает.
Бэйсик попробуй.
ТЗ было четким: Паскаль, работоспособность не указана. Я справился.
а можно ли с оригиналом выкладывать? а то я хз этих актрис
diofjs diofjs 11.01.201800:55 ответить ссылка 6.1
Вот бы разрабы успели к 2049 году добиться реалистичной синхронизации.
vedymyr21 vedymyr21 11.01.201801:01 ответить ссылка 33.2
Т.е. заказал шлюху, хуяк на нее галограмму Анны, Де Армас и вперед?
В фильме это была, кстати, какая-то пингующая синхронизация. Регулярно просвечивают элементы лица оригинала и периодически возникают четыре руки. Хотя в этом что-то есть
Так даже интереснее.
Pangolin Pangolin 11.01.201801:02 ответить ссылка 30.7
активно изучаю вопрос на Эмме уотсон,пока выходит криво в основном из-за несовподения тонна/освящения с NSFW может кто подкинет хороший сурс на NSFW где свет примерно как тут
codofag codofag 11.01.201801:04 ответить ссылка 6.3
"там".
не ставится запятая, вы с аноном неправы.

Атин, ты тоже неправ, доебался не там, где надо. да, ошибок хватает у кодофага, но если так хорошо знаешь русский, то вали в корректоры в любую группу переводчиков-любителей.
Krong Krong 11.01.201808:12 ответить ссылка 3.2
Чувак походу как-то может в программирование, так что поверь, пунктуации ему хватает)
Romin Romin 11.01.201806:16 ответить ссылка 7.8
я подобное освещение видел только в пиратах, и то могу ошибаться
Krong Krong 11.01.201808:08 ответить ссылка 3.5
Попробуй лучше как автор гифок выше взять кадры актрисы с интервью там и тебе и свет хорошо поставленный как в проне и разнообразная мимика на разные вопросы
я думаю лучше брать с интервью каких нибудь, там точно будут ракурсы и ровное освещение
подобное освещение только в роликах типа home pron
МАТЕРЬ БОЖЬЯ! Это же будущее!
Как всегда, подкралось незаметно..
Нужно бы и гифку оригинала для сравнения. О то так не получится оценить изменения.
WRZESZCZ WRZESZCZ 11.01.201802:05 ответить ссылка 4.0
нужен сурс!
alexsuus alexsuus 11.01.201802:07 ответить ссылка -1.3
самое забавное, это что когда-то нейросеть научится достаточно что бы вспоминать и охуевать с того для чего её использовали в начале
Никогда. Как и фотошоп не обретет сознание и не охуеет от того, сколько фотожаб и хреновых мемов с помощью него сделано
Сейчас бы смешивать алгоритмизированный набор данных и математическую модель совокупности искусственных нейронов.
Ебать. Представь себе математическая модель искусственных нейронов это просто оптимизированный на некоторой выборке обучения эмпирический алгоритм по предсказанию поведения системы.
Как будто математическая модель совокупности нейронов не алгоритм, параметры которого подогнаны под обучающую выборку алгоритмом оптимизации :-)

И да - память в обычном понимании тут просто нахуй не нужна. Тут нужны 2 вещи:
- извлечение/замена признаков, описывающих лицо
- возможно - какой-то сорт памяти, работающий в пределах ролика. Если окажется, что без него на соседних кадрах подменяющая лицо сеть может выдать разные результаты.

Какой архитектурой реализовать их - вопрос, но врядли для этого нужны сорта нейронных машин тьюринга :-)

з.ы. впрочем, так и мы и людей сведём к аппаратной реализации какого-то алдгоритма. Не имею ничего против.
нейросеть с нуля может научиться из одномерного пространства взаимодействовать с трехмерным и быстрее чем лысые обезьяны, в дальнейшем нас ждет скайнет и терапия для нейросети от этого непотребства
Эти лысые обезъяны как раз собрали данные обучения и оптимизировали нейросеть ориентироваться в трехмерном пространстве лучше себя.
Это всего лишь очередной инструмент по подстраиванию реальности под себя. Как дубинка. Или колесо. Или микроскоп. Только что-то никто не заикается о том, что микроскоп умнее лысых обезьян(ну может в вашем случае это и правда)
Гораздо проще вырастить реальный биологический мозг и обучать его, чем эмулировать нейроны мозга, пытаясь имитировать его деятельность.
Кекк, микроскопу не зашита логика, тип экспериментировал например с марио и нейросеть с нуля научилась проходить игру, пользуясь математическими выведением логических решений, осталось только отмерять время когда её логические заключения приведут к вопросу о пользе людей, и это еще без вшитой социальной составляющей
Учи матчасть.
Марио она прошла тупым(не совсем, но в целом) перебором вариантов, просто отбрасывая неудачные попытки. обучением там и не пахло. Я уж молчу, что логические заключения это сильный ИИ, а нейросети это слабый ИИ.
Such artificial. Much intelligence.
это и есть обучение, глупенький, выражение "путем проб и ошибок" по твоему с потолка взяли? Дальше больше, путем бинарного да-нет оно определит более сложные вопросы, по сути, преимущество машины в бессмертии и скорость там уже не так важна, хотя они только ускоряются
Воистину, для тех, кто не понимает, как работает мушкет он превращается в бум-палку с кучей лишних магических свойств.
Советую тебе расширить свои познания в ИТ, а потом рассуждать на такие специфические темы.
сам же говоришь что ии - бумпалка, а расширять что-то нужно мне лол
"Эти лысые обезъяны как раз собрали данные обучения"
Обучение с подкреплением, не?
Впрочем, даже в этом случае обезьяны должны выбрать архитектуру ИНС.
alex4321 alex4321 11.01.201808:07 ответить ссылка -1.6
Malal Malal 11.01.201802:17 ответить ссылка 6.5
жаль что на дейзи ридли даже дрочить не хочется, настолько она не харизматична и бездушна в фильме(
Она и по жизни так себе
tabuka tabuka 11.01.201802:22 ответить ссылка 0.6
Обколются своими технологиями и дрочат на 3д!!!
MaXM00D MaXM00D 11.01.201802:37 ответить ссылка 4.6
А хули сделать! В мире процветает феминизм, тёлки во все щели показывают какие они самостоятельные и мужики им нах не нужны. Вот и приходиться как-то крутиться выпутываться вертеться
rossvel rossvel 11.01.201815:46 ответить ссылка -0.9
Но нахуя 3д?! Что за дикое извращение. Нужна срочно нейросеть, что будет порно превращать в хентай.
С Софи Тернер что-то прям очень годно вышло. А программе всего один день пока, что же будет:
https://www.reddit.com/r/deepfakes/comments/7p1uxq/natalie_lust_sophie_turner/
RidOff RidOff 11.01.201803:26 ответить ссылка 8.0
вот только наташка-то красивее. Тёрнер как-то так-себе.
На Софи Тёрнер я одну очень похожую актрису видел. Какую-то из fuckingmachines.
Приду домой - напишу имя, если не забуду.
Catrina Cummings её звать.
друг говорит спасибо что погрел руки об трение
Это из видео и фоток нарезается лицо актрисы в разных ракурсах и подгоняется к другому телу? Это все делает нейросеть? Или я не правильно понял технологию)
majari majari 11.01.201804:02 ответить ссылка 0.7
На основе изучения массива фотографий лицо модели с видео перерисовывается в лицо актрисы. Это не совсем то, что ты написал. Да, это все делает нейросеть.
В фильмах они кстати очень похожи. Дисней умеет подбирать красивых актрисс
KeNiV KeNiV 11.01.201819:57 ответить ссылка 0.1
neverman neverman 11.01.201807:13 ответить ссылка 3.6
Слушайте, я, может, в глаза долблюсь, но я абсолютно не вижу, чтобы эта баба с приделанным лицом Дейзи Ридли была похожа на Дейзи Ридли. Какую-то совершенно левую бабу вижу.
И с Галь Гадот у меня ровно та же фигня была.
там выше в комментах выложили пробник с Софи Тернер. Ахуеть как попало в лицо, у меня челюсть на стол упала даже
К тому моменту как нейросеть обучится полноценно заменять лица Дэйзи Ридли, она успеет два раза сняться в домашнем порно, и "потерять" его в Интернете. (Привет, Fappening!)
Icilex Icilex 11.01.201808:40 ответить ссылка 5.6
Помните тот список?Второй пункт с Эммкой можно технически отметить..
и для чего же использовать такие технологии? Правильно, для дрочева
Как порноиндустрия повлияла на технологический прогресс
https://geektimes.ru/post/290465/
жду версии порнушки с мистером бином во всех ролях
Гарри Поттера я бы глянул в такой версии :D
дааааа, мне нужны остальные части видео чтобы увидеть все его "проблемы"
Elias Elias 11.01.201810:50 ответить ссылка 4.6
Это всё, конечно, заебись, но есть место тотальному пиздецу.
Пример:
1) какой-то мажор-неудачник пропалился по камере во время некого действа;
2) решают вопрос с организацией, меняют лицо в вещдоках.
И всё, пиздец, да?
Пфф. А сейчас эту запись как доказательство не примут, делов то.
0mikron 0mikron 11.01.201814:04 ответить ссылка -0.3
Видео и так можно потделать, никаких проблем, просто слишком геморойно, что бы переделывать порнушку под знаменитостей. Просто сейчас этим бесплатно могут заниматься работяги благодаря нейро сетям.
Mumrik Mumrik 11.01.201815:17 ответить ссылка 1.6
Думаю, кончится тем, что эту прогу у пацана возьмет в аренду какая-то порно-студия и они будут снимать видосы с похожими актрисами в идеальных ракурсах.
человек похожий на генпрокурора
krako krako 11.01.201814:46 ответить ссылка 6.2
Даже нейросеть нужна,есть актриса которая копия ее
пруфы
krako krako 11.01.201814:58 ответить ссылка 0.3
А ты иди паять! Давно новых видосиков не было!!!
Abigaile Johnson, если не ошибаюсь.
Нам нужны Пруфы Билли
Мне кажется актриса в исходнике не очень подходящая взята. Вроде лицо у нее шире, чем у Дейзи. Плюс татуировки.
KeNiV KeNiV 11.01.201818:07 ответить ссылка 1.2
Надо было брать Megan Rain, комплекция (за исключением жопы) и лицо очень похожи.
хуета
MaJIbIu MaJIbIu 11.01.201822:28 ответить ссылка -2.4
в некоторых моментах заметно наложение лица, небольшое потемнение, сразу вспомнился пятый элемент и момент с мандачиванами в порту)
shamaaan shamaaan 12.01.201816:30 ответить ссылка 0.0
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
How It's Made - Mascot Costume,Entertainment,how,its,made,mascot,costume,fursuit,Building a mascot costumeWabby Wabbo by Cray-Z -- Plants vs. Zombies Hip Hop Video,Games,PvZ,plants vs. zombies,popcap,ps3,psn,playstation 3,playstation network,sony,casual games,zombie,crazy dave,cray-z,rap video,music,video games,DOWNLOAD THE iTUNES SINGLE HERE!
подробнее»

Plants vs Zombies

Wabby Wabbo by Cray-Z -- Plants vs. Zombies Hip Hop Video,Games,PvZ,plants vs. zombies,popcap,ps3,psn,playstation 3,playstation network,sony,casual games,zombie,crazy dave,cray-z,rap video,music,video games,DOWNLOAD THE iTUNES SINGLE HERE!
Будзинкан ниндзюцу,Sports,,Экзамен. Это Масааки Хацуми 34-ый патриарх Тагакурэ Рю. Основатель школы Будзинкан Тэнгу. То что вы видите называется Сакки Тест. Проходят его только малая часть. Смысл Дантэста почувствовать момент удара и увернуться. В феодальной Японии этот тест проводился катаной и не
подробнее»

Масааки Хацуми 5 Dan Testing video

Будзинкан ниндзюцу,Sports,,Экзамен. Это Масааки Хацуми 34-ый патриарх Тагакурэ Рю. Основатель школы Будзинкан Тэнгу. То что вы видите называется Сакки Тест. Проходят его только малая часть. Смысл Дантэста почувствовать момент удара и увернуться. В феодальной Японии этот тест проводился катаной и не
Sweetie Bot - Fear Me (Re-Animated),Film,,I finally went and did it. I have just now completed my first animation using proper puppet rigs! After a few months of off and on tinkering around in Flash, I figured out how to organize my Flash pones in such a way that I can animate them without wanting
подробнее»

my little pony,Мой маленький пони фэндомы mlp видео,mlp video mlp милитаризм Sweetie Belle,Свити Белль minor

Sweetie Bot - Fear Me (Re-Animated),Film,,I finally went and did it. I have just now completed my first animation using proper puppet rigs! After a few months of off and on tinkering around in Flash, I figured out how to organize my Flash pones in such a way that I can animate them without wanting
WARGAME RED DRAGON: TEASER,Games,,Site: http://www.wargame-rd.com/ FaceBook: https://www.facebook.com/WargameRTS Twitter: https://twitter.com/WargameRTS Devblog: http://devblog.wargame-ab.com/ The tension is ramping up in Wargame Red Dragon! The latest game in the spectacular RTS series created by
подробнее»

video Игры wargame red dragon песочница стратегии третья мировая альтернативная история wargame

WARGAME RED DRAGON: TEASER,Games,,Site: http://www.wargame-rd.com/ FaceBook: https://www.facebook.com/WargameRTS Twitter: https://twitter.com/WargameRTS Devblog: http://devblog.wargame-ab.com/ The tension is ramping up in Wargame Red Dragon! The latest game in the spectacular RTS series created by