Ловлю себя на том, что специально ищу артефакты генерации, чтобы убедиться, что это нейросеть, а не рисунок. Знаю, это странно: как будто кто-то будет рисовать картинки и выдавать их за нейро-арт ради плюсиков? Но всё-таки...
мокренькая
еще чуть-чуть и нейросеть наконец нарисует картинку, от которой будет невозможно оторвать глаз
это один из возможных сценариев конца развития человечества - также как тик-ток подсовывает зрителям контент, от которого конкретный пользователь не может оторваться, также и в будущем людям будут подсовываться бесконечный сгенерированный контент, учитывающий все их вкусы, и люди плотно на это подсядут и больше ничего делать не будут.
и отдаст её "Самому Плохому Человеку"?
-Нуу нет, это пошло!
-Ну хорошо, тогда одному из Самых Плохих! Так пойдёт?
-А? Да, да, так нормально, так вообще ничего... (с)
-Ну хорошо, тогда одному из Самых Плохих! Так пойдёт?
-А? Да, да, так нормально, так вообще ничего... (с)
Это точно нейромазня? Даже без учета рук. Потому что откуда то реф бранс и даже для художника - делать прозрачную ткань пиздец. Либо это обработка по фото, хотя ...
Ебаные технологии. Следующий шаг - генерация видео?
Ебаные технологии. Следующий шаг - генерация видео?
порновидео
Ну шутки-шутками, а если прикинуть - набор локаций, моделей (условный овер), скормить риги анимаций. Конечно сравнение с фото не идет, банально в сотни раз меньше материала, с другой - качественное, а не куча говна/стилей.
Дипфейки есть, а значит старт есть. Мда. Страшно за будущее, если переживем.
Дипфейки есть, а значит старт есть. Мда. Страшно за будущее, если переживем.
Шаг с генерацией видео уже сделан.
https://3dnews.ru/1075027/meta-predstavila-neyroset-makeavideo-kotoraya-generiruet-video-po-tekstovomu-opisaniyu
Meta представила нейросеть Make-A-Video, которая генерирует видео по текстовому описанию
29.09.2022 [19:12]
За последнее время было представлено несколько нейросетей, создающих изображения по текстовому описанию. Команда инженеров по машинному обучению из Meta* пошла дальше и создала алгоритм Make-A-Video, способный создавать небольшие видеоролики по текстовому описанию. На данном этапе таким образом удаётся получать видео низкого качества с артефактами, однако в будущем разработка может помочь существенно продвинуться в сфере создания контента с помощью ИИ.
https://3dnews.ru/1075359/google-predstavila-neyroset-kotoraya-generiruet-hdvideo-po-tekstovomu-opisaniyu
Google представила нейросеть, которая генерирует HD-видео по текстовому описанию
06.10.2022
Google рассказала о системе искусственного интеллекта Imagen Video, которая генерирует видео высокого разрешения (1280×768 пикселей, 24 кадра в секунду) по текстовому описанию. Однако из опасения, что модель будет генерировать неприемлемый контент, компания пока решила воздержаться от публикации исходных кодов проекта.
Как и с нейросетью для картинок. Разработали но моралофажество не даёт поделиться с обществом ибо вдруг кто-то сгенерит белого НЕ угнетателя?! Это же кошмар!
Так что ждём видео-StableDiffusion, без лицемерия и ханжества.
https://3dnews.ru/1075027/meta-predstavila-neyroset-makeavideo-kotoraya-generiruet-video-po-tekstovomu-opisaniyu
Meta представила нейросеть Make-A-Video, которая генерирует видео по текстовому описанию
29.09.2022 [19:12]
За последнее время было представлено несколько нейросетей, создающих изображения по текстовому описанию. Команда инженеров по машинному обучению из Meta* пошла дальше и создала алгоритм Make-A-Video, способный создавать небольшие видеоролики по текстовому описанию. На данном этапе таким образом удаётся получать видео низкого качества с артефактами, однако в будущем разработка может помочь существенно продвинуться в сфере создания контента с помощью ИИ.
https://3dnews.ru/1075359/google-predstavila-neyroset-kotoraya-generiruet-hdvideo-po-tekstovomu-opisaniyu
Google представила нейросеть, которая генерирует HD-видео по текстовому описанию
06.10.2022
Google рассказала о системе искусственного интеллекта Imagen Video, которая генерирует видео высокого разрешения (1280×768 пикселей, 24 кадра в секунду) по текстовому описанию. Однако из опасения, что модель будет генерировать неприемлемый контент, компания пока решила воздержаться от публикации исходных кодов проекта.
Как и с нейросетью для картинок. Разработали но моралофажество не даёт поделиться с обществом ибо вдруг кто-то сгенерит белого НЕ угнетателя?! Это же кошмар!
Так что ждём видео-StableDiffusion, без лицемерия и ханжества.
этож можно экранизировать любую книгу.. ёмае...
Сейчас все ебутся с художниками для тегов, через пять лет будут ебаться с режиссёрами для тегов.
"Блять, вписал Питера Джексона - теперь регулярно пролёты камеры с высоты птичьего полёта появляются, заебался вырезать их"
"Какой вес надо проставить Майклу Бею, чтобы всё перестало взрываться нахуй? А то бомбится даже каша, даже небо"
"Ебал в рот того мудака, который посоветовал в теги Уэса Андерсона вписать, нейросеть все сцены отзеркалила нахуй, вместе с персонажами, Полная АТМТА получилась!".
"Блять, вписал Питера Джексона - теперь регулярно пролёты камеры с высоты птичьего полёта появляются, заебался вырезать их"
"Какой вес надо проставить Майклу Бею, чтобы всё перестало взрываться нахуй? А то бомбится даже каша, даже небо"
"Ебал в рот того мудака, который посоветовал в теги Уэса Андерсона вписать, нейросеть все сцены отзеркалила нахуй, вместе с персонажами, Полная АТМТА получилась!".
Уэса Андерсона вписывать это вообще с огнем играть, то цвет пропадает, то часть персонажей фризает, то синхронит все движение под ритм, со светом и бэкграундом вообще дичь творится.
тату теперь аниме что-ли?
Первая тупо жиза, сидишь мокрый на остановке, а автобус не едет.
ага, а ты прекрасная тян в прозрачной блузке.
Мне впервые стало страшно от размера Negative prompt, вообще удивлён что у него жутких артефактов нету, при 30 то шагах
Увидел арты (крутейшие) и заиграло
Чтобы написать коммент, необходимо залогиниться