Ну вот предыдущие твои посты прям норм, чего начинаешь то!
Это не Stable Diffusion, а модель modelscope от китайцев.
это модель для Stable Diffusion
Нет, но поддержку этой модели добавили в репу автоматика (которая да, в первую очередь для моделей stable diffusion сделана была) в виде расширения.
то то Уилл Смит так обазиатился тут
Кстати, добавление тефтелей в промпт результат делает еще интересней.
я прям в предвкушении нового расцвета нейро-сюрреализма
негро-сюрреализма
Кто кого ест?
Да
Уилли не выглядит расстроенным
Он выглядит так, будто его Снуп Догг шышками угостил и похавать пробило
добавь в промпт шышечки хочу посмотреть на это
Ахахах, Man-Made Horrors Beyond Our Comprehension, наконец-то
Это уже прям cyriak какой-то получился
Когда сказал бабушке, что голоден:
Похоже на упоротую японскую рекламу.
На клипы Apex Twin тоже похоже
типичная французская анимация на каком-нибудь фестивале "независимой анимации"
его пожирает макаронный монстр. Раминь!
Самоедство какое-то
зашел запостить эту картинку
Эх, я помню, какие странные были картинки от нейросетей года 3 назад, а теперь генерируемые изображения сложно отличить от реальных фото.
Лет через 6-7 нейросети будут генерировать видеозаписи, неотличимые от реальных видео.
Какой же охуенный прон будет...
Лет через 6-7 нейросети будут генерировать видеозаписи, неотличимые от реальных видео.
Какой же охуенный прон будет...
Тëмная эра технологий практически так и начиналась
Слава темным богам, что ТЭТ длилась достаточно долго и я успею умереть до эры раздора
Это не так работает, все зависит от вычислительной мощности, картинки требуют намного меньше ресурсов и нейросеть обучать на них легче.
значит уже в следующем году?
Уде вследующем году мы сможем оценить глобальное потепление от работы серверов по генерации порно
Поверь оно того стоит.
Ну, если научатся обходить физические ограничения кремния, тогда хоть в следующем году, если не научатся, то довольствоваться придется только картинками.
Ощущение, будто я наблюдаю кат-сцену GTA Vice City.
remaster
San Andreas
Люди в черном 5 сняли? Джей хорош!
А что, есть 4?
Я хз что там по счету но видел кусок на ютубе с крисом хемсвортом или кто там у нас Тора в марвел играл... И нигровалькирией из мстителей что то снимали относительно недавно.
Самое стабильное в этом видео - вотермарка Shutterstock
Чувак, тащи еще этого дерьма. Смотрю уже пять часов.
И после этого люди думают что нейросети заберут у людей работу?
Нейросети будут вместо тебя есть спагетти.
караваны к сожалению и на море тоже за тебя не поедут оно ему н. не надо это ваше море.
Вспомни первые нейропикчи и посмотри что генерируется сейчас. В будущем мы вполне сможем посмотреть Властелин Колец: Возвращение джедая.
Блядь а ведь бог создал кучу вселеных включая нашу именно для того что бы сгенерить этот фильм который он соучайно удалил
Видео сейчас на этапе на котором генержка картинок была год назад.
Нейросети развиваются, в отличии от большинства людей, которым "и так пойдет".
Знаете...а что-то в этом ест
Всмысле "что-то"? Это Уилл Смит
и он ест
Напоминает какой-то сюрреалистичный кошмарный сон.
По сути примерно так и есть.
Мозг ведь, в сути своей, просто чудовищно(относительно того с чем мы сейчас имеем дело) продвинутая нейросеть, но принципы работы примерно те же.
Потому сходство хуевой работы нейросети с сюрреалистичными снами более чем естественно. Было бы странно, если бы этого сходства не было.
Мозг ведь, в сути своей, просто чудовищно(относительно того с чем мы сейчас имеем дело) продвинутая нейросеть, но принципы работы примерно те же.
Потому сходство хуевой работы нейросети с сюрреалистичными снами более чем естественно. Было бы странно, если бы этого сходства не было.
А где реверс?
Можно контент для сюрреалистических хорроров клепать...
Таких существ машины точно не пощадят
А котиков?
Расскажите как вы этим балуетесь? На huggingface.co генерит уже больше 1000 секунд.
Я нашел инструкцию по инсталляции, но до своего компа только завтра вечером доберусь.
Инструкции:
pip install modelscope==1.4.2
pip install open_clip_torch
pip install pytorch-lightning
from modelscope.pipelines import pipeline
from modelscope.outputs import OutputKeys
p = pipeline('text-to-video-synthesis', 'damo/text-to-video-synthesis')
test_text = {
'text': 'A panda eating bamboo on a rock.',
}
output_video_path = p(test_text,)[OutputKeys.OUTPUT_VIDEO]
print('output_video_path:', output_video_path)
Я нашел инструкцию по инсталляции, но до своего компа только завтра вечером доберусь.
Инструкции:
pip install modelscope==1.4.2
pip install open_clip_torch
pip install pytorch-lightning
from modelscope.pipelines import pipeline
from modelscope.outputs import OutputKeys
p = pipeline('text-to-video-synthesis', 'damo/text-to-video-synthesis')
test_text = {
'text': 'A panda eating bamboo on a rock.',
}
output_video_path = p(test_text,)[OutputKeys.OUTPUT_VIDEO]
print('output_video_path:', output_video_path)
Вил Смит упал в зловещую долину. Свят свят.
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!