Результаты поиска по запросу «

Stable diffusion nude

»

Запрос:
Создатель поста:
Теги (через запятую):



нейронные сети Stable diffusion длиннопост 

Stable Diffusion 3 теперь доступна для скачивания и запуска локально

нейронные сети,Stable diffusion,длиннопост

Генерация по промту: Epic anime artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "Stable Diffusion 3" made out of colorful energy

Теперь модель можно скачать и запустить локально (пока только Medium-версию). Разработчики пишут, что новая модель лучше понимает текст промта, более реалистичная в плане рук и лиц. А так же лучше запоминает детали на даже на небольших дата сетах. Одна из интересных фитч - генерация надписей.

Еще пишут что она "идеально подходит для работы на стандартных потребительских графических процессорах без снижения производительности". Но тут бы я поспорил, легко переварить 10Gb не каждая видеокарта сможет. На моей машине работает медленнее по сравнению с SDXL.

Скачать саму модель можно с civitai или huggingface. Запустить на данный момент только в comfyui.

Немного погонял локально, промты действительно понимает хорошо. Но модель "недообучена" - качество оставляет желать лучшего. Предыдущие версии тоже от этого страдали, но люди из комьюнити допиливали до вполне не плохих результатов.

Несколько примеров на модели SD3 Medium Incl Clips T5XXLFP8

Сложный промт с положением объектов на картинке указанием цветов (у прошлых моделей возникали проблемы):

Three bottles on a table in a kitchen. Bottles that look like cola. Left bottle is full of blue liquid with the number 1 on it. Middle bottle is full of white liquid with the number 2 on it. Right bottle is full of red liquid with the number 3 on it.

нейронные сети,Stable diffusion,длиннопост

Видно, что модель четко следует промту. Круто!

Попробуем с людьми: 

Forest in the background. Dark theme, sunset, look at at viewer, captured in the late afternoon sunlight. Photo of three 21 year old woman. Left woman is blonde with the number 1 on blue T-shirt. Middle woman is redhead with the number 2 on white T-shirt. Right woman is brown hair with the number 3 on red T-shirt. Wearing shorts

 ' 'Л <*щ: tC Y\ ^ МЦ , ,%f- > / « »®V .}?^■ ' . V » ‘ Y «Л • , г ‘У»7 f\ J¡«V >^|<1Л*П'*01Я^1^^^^Ея1. ájí&jrf * ?&"-Z1QH ¡г а*. "• a^2|^B|Uг> * * ¿jp v .уФ*ы г*Ьп|^НРЦН^&. . "J ль*,нейронные сети,Stable diffusion,длиннопост

Тут пришлось сначала описать лес на фоне, потому что иначе он выглядел как будто прифотошопленным. В остальном модель четко соблюдает номера, цвет футболок и волос. Раньше, без танцев с бубном, четко прописать нескольких разных типажей на одной картинке было почти не реально - детали сливались и получались клоны. А в новой версии достаточно просто описания. 

А что по надписям на картинке? Попробуем:

Neon sign with the text "Ты пидор"

нейронные сети,Stable diffusion,длиннопост

Видимо, русскую кодировку не завезли, но видно что модель старается, попробуем иначе:

Neon sign with the text "You are awesome!"

нейронные сети,Stable diffusion,длиннопост

Попробуем сгенерить котика:

A black cat walking along a street paved with stone.Close-up of a cat's face.

нейронные сети,Stable diffusion,длиннопост

Опять неплохо, хотя пришлось реролить несколько раз, что бы получить более-менее нормальный результат. Модель знает основы анатомии кота, но иногда больше похоже на детский рисунок.

Как на счет аниме?

Illustration anime, cartoon. 1woman, blue eyes, brown hair, dynamic angle, centered, full body photo. Street in the background

нейронные сети,Stable diffusion,длиннопост

Опять пришлось реролить несколько раз. Заметил, что если указывать больше деталей, картинка получается лучше.

Попробуем городской пейзаж:

Urban photography: houses, trees, cars, and peoples. the road goes from the bottom left to the right

PM л «с* l4^:v:v^ >.:;->r^ t^jgr jP, jBgf ж ■ W5p дОДЙ'^с^ «. ЩМч к VT'^Г ‘ 1 т :’•кйк№т1^^и » \ 1 «!* *. j|, ЛД ^ ; >,нейронные сети,Stable diffusion,длиннопост

Осторожно: если долго рассматривать картинку, можно подумать что у тебя инсульт...

Что мы имеем на данный момент? Пока реализм хромает... Не всегда с первого раза выходит что нужно. Лично я ожидал большего. Все те же проблемы с руками и склонностью к "плоскости" перспективы и объектов. 

Но есть ощущение, что модель действительно лучше понимает что от нее хотят. Будем надеется, что дообучение будет по силам сообществу, и мы увидим NSFW версию от авторов Juggernaut или Pony Diffusion.

ЗЫ: надеюсь теги эротики и аниме не нужны.

Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep01.08.202320:32ссылка
+32.6

Stable diffusion нейросиськи Эротика песочница эротики Викторианские девы нейросети 

StableDiffusion,нейросиськи,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,Викторианские девы,Stable diffusion,нейросети,Stable diffusion,neural networks,erotic,ero sandbox
Развернуть

AI StableDiffusion нейронные сети рыжая няша Искусственный Интеллект 

добрался до Stable diffusion. вот такая рыжая няша

AI,StableDiffusion,нейронные сети,рыжая няша,Искусственный Интеллект
Развернуть

нейронные сети Stable diffusion нагенерил сам девушка Эротика 

нейронные сети,Stable diffusion,нагенерил сам,девушка,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,neural networks,Stable diffusion,,erotic
Развернуть

нагенерил сам нейронные сети Stable diffusion Эротика песочница эротики 4K 

нагенерил сам,нейронные сети,Stable diffusion,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,4K,neural networks,Stable diffusion,erotic,ero sandbox,4K

cinematic, sexy girl, naked big breasts, snow, snowfall, snowy forest, sexy face
Развернуть

Overwatch Ero Overwatch Blizzard фэндомы Stable diffusion нейронные сети Ashe (Overwatch) 

Overwatch Ero,эротика овервотч, голые персонажи 18+,Overwatch,Овервотч,Blizzard,Blizzard Entertainment, Близзард,фэндомы,Stable diffusion,нейронные сети,Ashe (Overwatch),Эш ,Overwatch Ero,Overwatch,Blizzard,fandoms,Stable diffusion,neural networks,Ashe (Overwatch)
Развернуть

нейросиськи Эротика Викторианские девы Stable diffusion нейросети 

нейросиськи,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,Викторианские девы,Stable diffusion,нейросети,erotic,Stable diffusion,neural networks

нейросиськи,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,Викторианские девы,Stable diffusion,нейросети,erotic,Stable diffusion,neural networks

нейросиськи,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,Викторианские девы,Stable diffusion,нейросети,erotic,Stable diffusion,neural networks

нейросиськи,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,Викторианские девы,Stable diffusion,нейросети,erotic,Stable diffusion,neural networks

Развернуть

нейронные сети нейроарт Stable diffusion Anything3.0 песочница NSFW 

Google Colab и кошкодевочки для всех.

Не знаю почему этого никто до сих пор не написал... Инструкция посвящается всем киберпидорам на накопившим на крутую видяху, желающим заиметь гарем 2D тяночек. 
Гугл раздает доступ к своим ML мощностям для всех желающих. На https://colab.research.google.com/ можно генерить свои картиночки, запускать свои модели и.т.п. (ограничение - 12 часов в день на работу, потом все сгенереное стирается.) 
Даю сразу ссылку:

Модель anything3.0: https://colab.research.google.com/github/camenduru/stable-diffusion-webui-colab/blob/main/anything_3_webui_colab.ipynb
(на мой взгляд самая подходящая под генерацию 2D эротики)

Запуск модели полностью автоматизирован, просто запускаешь коллаб кнопкой ▶️ исполнение кода
И ждешь пока тебе выдадут линк на вебинтерфейс (типа такого https://0f0a82ef41323d42.gradio.app/).

Открываешь линк - поздравляю, твой коллаб с тяночками готов. Генерирует в любом разрешении (у гугловских тензорных ядер памяти до черта).



P.s.
Тем кто хочет старую stable diffusion без хентая https://colab.research.google.com/drive/1jY9KAqR_SQUp76ayRuqyk4MTId-7STOy?hl=ru_RU#scrollTo=NPtEBB6r18yU
Вообще в коллабе много уже подготовленных моделей - просто гуглите)

Развернуть

нейронные сети Stable diffusion нагенерил сам девушка Эротика песочница эротики 

нейронные сети,Stable diffusion,нагенерил сам,девушка,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,песочница эротики,neural networks,Stable diffusion,,erotic,ero sandbox
Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Stable diffusion nude (+1000 картинок)