Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion / StableDiffusion :: гайд :: туториал :: нейронные сети

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for

0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...


Подробнее


ControlNet Unit 0 ControlNet Unit 1 ControlNet Unit 2 ControlNet Unit3 Single Image Set the preprocessor to (invert] If your image has white background and black lines. D s * -* Q Enable Low VRAM Pixel Perfect CD Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile О Inpaint IP2P Reference T2IA Preprocessor Model inpaint_only+lama n controlnetllModelsJnpaint (be8bc0edl ▼ Control Weight 1 Starting Control Step 0 Ending Control Step В 1 Control Mode Balanced О My prompt is more important ControlNet is more important

Sampling method DPM++2M SDE Karras Restore faces Tiling Width Sampling steps Hires, fix 640 Batch count n 640 Batch size
6 I I PATREON.COM/CUTESEXYROBUTTS PATREON.COM/CUTESEXYROBUTTS
0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P О Reference T2IA Preprocessor reference_only И Control Weight i Starting Control о Ending Control 1 Style Fidelity (only for "Balanced" mode) 0,5 Control Mode Balanced My prompt is more important Q ControlNet is more important
0 Enable Low VRAM Pixel Perfect Allow Preview Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Inpaint IP2P Reference Preprocessor t2ia_style_clipvision Control Weight i Starting Control Seg Shuffle Tile None controlnetT2IAdapter_t2iAdapterColor [c58d: / controlnetT2IAdapter_t2iAdapterStyle [892c£ - ▼ l. . 0,5 Ending Control i Step Preprocessor Resolution 512 Control Mode Balanced My prompt is more important Q ControlNet is more important
0 Image
PATREON.COM/CUTESEXYROBUTTS

How to Install Stable Diffusion - automatic1111
Stable Diffusion for Beginners
NEW ControlNet 1.1! ControlNet Tutorial.
нейронные сети,гайд,туториал,StableDiffusion,песочница
Еще на тему
Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep01.08.202320:32ссылка
+32.6
А этот ваш стэйбл дифьюжен ведь не работает на ведре?
Есть вроде бы форк под мобильные устройства. А на компьютере хватит и 8-летней видеокарты - успели уже оптимизировать за все эти месяцы. ComfyUI особенно легковесный.
У меня встроенная интел графикс
you GBT usai? то IT
Я замену щачла в видео на CPU запускал
Так вот чего ты злой такой)
На амд и радеоне работает? Или надо гтх ртх?
Можно запустить через гугль коллаб. Напямую не получится, т.к. гугль банит прямй код нейросеток, но есть сборки которые маскируют. Я вот этой пользуюсь:
https://colab.research.google.com/github/etherealxx/volatile-concentration-localux-colab/blob/main/volatile_concentration_localux_colab.ipynb#scrollTo=HRLSD-HXLRNk

Минус что коллаба хватет только на 3-5 часов работы в сутки в зависимости от интенсивности.
а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
Та просто чтобы поставить дифьюжен - ужё многие пошлют это дело.
А у "простых" нейронок по типу миджорни хватает ограничений.

Так что вопрос о замене мешков не будет стоять ещё довольно долго
есть Easy Diffusion, там вообще ничего не нужно вроде, ток браузер
Простые установщики есть, но по умолчанию там выдаётся говно полное. Чтобы получать достойные результаты, погрузиться в настройки и эксперименты с разными моделями нужно глубоко.
Да год два наверно и в один клик будет делаться..
я давно говорил что ничего не поменяется, просто дополниться и будет ещё один инструмент, я сам 3 дэшник,кенты у меня прогеры и верстальщики, так вот чем нас только не пугали и просто тьму раз, мол вах пизда вам парни, пойдёте лопатой махать да мешки ворочать- НИ ХУ Я , и не будет такого никогда , по крайней мере не на нашем веку точно
поверх, это хорошо.
Ну готовитесь нарисованные тянки, ща я вам всем буду дорисовывать чулочки....
Та кого ты обманываешь, сам своим же фото сейчас будешь чулки пририсовывать.
зачем подрисовывать, одеть проще
Дорого.
Все девок раздевают, а этот, наоборот, одевает.
Жду когда всё вот это вот свернут до состояния файлика-приложения, нажал на кнопочку в Стиме и оно как то магически установилось, а потом доп модели захотел, и ещё пара кнопочек в воркшопе

Давно бы дрочил своих собственных голых тней, но времени и желания сидеть разбираться чё там как от куда качать, где какие ссылки -нет никакого, да и нахуй оно мне нужно
Там качать дольше, чем устанавливать. В сумме на 5-7 гигов, самой проги, питон, гит хаб и CUDA драйвера (если карта Нвидиа), и модель на 1-10 гигов (зависит от выбора). Плюс примерно 20-30 минут установки и подгрузки разных исходников (автоматический процесс), и всё, есть готовый рабочий Stable Diffusion.
Ты забыл про то, что ты еще будешь весь день сидеть на civitai, ища нужные Lora/модельку, которые тебе вкатят. А это как бы часть установки.
В голом варианте моделька многие вещи не умеет.
Ну извините, скачать LoRA на 170 мб и закинуть в папку это минута дела. Гараздо дольше это научиться пользоваться промптом и настройками генерации.
Оформи подписку на Novel AI и будет тебе счастье.
Этож мы сами себе начнем рисовать фап контент? Пиздец нам, братюни Т_Т
Это заговор консольщиков против нас Пкбояр.
1. идешь на https://pixai.art/
2. регаешься
3. открываешь меню справа сверху -> Settings -> включаешь NSFW Content
3. ищешь подходящую под свой вкус модель (например, вот эта https://pixai.art/model/1612432289413152712 прикольные результаты делает, в том числе NSFW)
4. жмешь Use this model
5. Если хочешь на основе изображения делать, то жмёшь Upload image, выбираешь фотку/картинку
5.1. Strength для начала выставляешь 50, а там дальше подберешь что больше нравится. Чем меньше - тем ближе к оригиналу. Обычно для фоток 45-50 ок, с картинок 50-60
6. В текстовое поле пишешь какое-нибудь описание что хочешь увидить.
7. CFG Scale - обычно юзаю 7-9. Это магическое число, если ставишь больше, то картинки ярче. Но после 12 часто начинается всякая наркомания.

Если поставить галочку High priority, то справится за минуту-две. Но во внутренней валюте стоит дороже.
Валюту эту купить нельзя, выдают раз в сутки - надо приходить забирать.

А тут время хитрожопости:
Как можно невозбранно генерить дофига.
На каком-нибудь dropmail.me или какой-нибудь другой одноразовой почте регаешь кучу акков и на них регаешься на pixai. Только не забудь подтвердить почту (для этого стоит на странице самого дропмейла дождатья пока придёт письмо с подтверждением. А чтобы оно пришло надо на pixai зайти в настройки и там жмакнуть send verification email).

Если ты на этом месте ещё не отвалился, то закономерно возникает вопрос, мол "это теперь каждый раз переключать акки после пары сгенеренных картинок?".
Для этого можно поставить плагин на огнелиса https://addons.mozilla.org/en-US/firefox/addon/multi-account-containers/
С ним можно в каждой табе с разных акков зайти
уже полгода как все рисуют
С момента как появилось искусство как таковое, люди рисовали себе порно.
А как пользоваться стабильной дифузией не имея денег на подписки? А никак наверное
Подписки на что? Она с открытыми сорцами лежит. Просто с установкой помудохаться придётся.
Это миджорни исключительно по подписке можно
Можно и не мудохаться с установкой, т.к. есть сборки для колаба.
Для установки в один клик тоже сборки есть
скинь тогда жопу
Новая эра revenge и celebrity порно
Которая очень быстро сменится всеобщим похуизмом на такое порно, когда вся эта тема дойдет до широких народных масс.
Да какраз наоборот, теперь настоящее порно легко можно будет обозвать подделкой ИИ и все поверят.
Арт MyPersonalAmi на обложку поставили, чтобы самим не мудохаться с инструкцией для того, чтобы картинку раздеть?)
добавлю от себя что контролнеты заметно увеличивают время генерации. а если попробовать заапскейлить картинку с включённой одной только reference то можно ждать результат минут 30 (поэтому апскейлить лучше уже после всех генераций).
Слышал ли автор что нибудь про inpaint модели?
Слишком много заморочек с этим вашим контролнетом.. когда можно сделать все намного проще в пару кликов
Инпеинт может позу проебать, а контролнет, если правильно сделать -- нет
Никаких поз не проебывается если ты закрашиваешь то - что нужно оголить... возможно вы путаете с img to img
inpaint не осилит сохранить стиль
При раздевании особо стиля не остается, но инпеинт модель в целом смотрит на окружение и старается все пропорционально сохранить.. дайте мне картинку которую нужно раздеть в качестве примера и укажите что там за стиль и в каком месте надо сохранить - я попробую это сделать без контролнета
но на кой хер если можно сделать с контролнетом в разы качественней? в самом посте хороший пример стилистики
PATREON.COM/CUTESEXYROBUTTS
соглы, а если ещё правильно вытянуть промты из исходника, вообще будет пестня
Для тех, кому достаточно просто раздеть рандомную подругу одной кнопкой
Undress.app s.® Undress anybody with our FREE service.
Поток мысли и сознания. Походу автор поста писал текст в один заход не заморачиваясь тем что и как он пишет.
Я как не новичёк в этих ваших SD и КонтролНетах но половину содержимого вообще не понял, в смысле зачем?.
Например, зачем там контролнет, когда всё просто перерисовывается инпаинтом и подбором промтов и параметров.
В начале поста имено что объявлена задача раздеть тянку, а потом почему-то скатился до повторения стиля и прочих мутных заморочек.
Хочется стиль автора? Может попробовать для начала его ник в промт включить? Уж ПерсоналАми модели знают и на ключ by PersonalAmi реагируют хорошо.
Да и не будет никогда совпадение со стилем, только степень приближения к нему, а это уже совсем другая тема, не про раздевание тянок.
И как вишенка на торте - мой интерфейс СД-шки не совпадает с твоими скринами, и да у меня последняя версия, и сд и контролнета и остальных расширений (спецом обновился прежде чем это написать)
Может хотя бы список своих расшрений привести? Или пилить пост на чистой СД с минимумум наворотов?
В итоге, моё нахер не нужное автору мнение : сама идея поста неплохая, исполнение - гавно, переделывай.
А нужен ControlNet в данном случае? Фичи конечно звучат хорошо, но есть же возможность намазать маску, выбрать crop and resize (чтобы он взял только примерную область вокруг маски), и промптом описать саму область, а не весь рисунок. Достаточно хорошо переделывается, и контекст в целом учитывает. А если не полениться и нарисовать цветную маску, с примерным тем что ты хочешь там видеть, так вообще хорошо работает.
я чуть выше писал про Inpaint модели.. там вообще можно не заморачиваться, указать области которые надо раздеть и в промтп запихать NAKED и всё.. работает отлично, в зависимости от исходника конечно..
как художник художнику пара коментов:
1. sampling steps 48 часто оверкил. После 25-30 обычно лучше уже не стоановится. (справедливости ради я не пользовался DPM++ SDE 2M Karras, а только просто DPM++ 2M Karras, но даже если для него 48 норм - время генерации в два раза дольше того не стоит).
2. EasyNegative, badhandv5 - это textual inversion (он же embedding). Его надо отдельно скачивать а не просто в промпт вставлять (даже если ты сам вкурсе, в туторах такое лучше разъяснять).

3. ну и маленький трик для редактирования в фотошопе контролнетов - "отсутствие информации не есть информация об отсутствии". Т.е. даже ничего не дорисовывая можно убрать в фотошопе лишнее (просто замазав чёрным), и оно закрасит на свой вкус. Правда для этого canny имхо лучше подходит чем soft edge.
Вот в наше время...
Хочу спросить насчет вот этого:
> тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов
А где реально найти модели, натренированные именно на скринах из мультмильфов? А то на цивитАИ глядел - сплошь аниме и фэнтэзи-реализм вроде вот такого. Подскажи пожалуйста.
Например, модели Mistoon_Anime или ToonYou-JP
Нет же! Mistoon_Anime - это очередное аниме, даже по названию видно, сейчас таких моделей сотни.
ToonYou я уже видел ранее, и это тоже по стилю практически аниме (я видел на ЦивитАИ примеры мужиков, вот они да, не аниме).

Короче. Вот эти две модели и похожие на них - аниме процентов на 60-70, а где-то и 80+. Таких очень много...

А есть модели, которые реально НА СКРИНШОТАХ и ИЗ МУЛЬТФИЛЬМОВ? И без аниме? Хоть обученная на футуруме и симпсонах, хоть на Шире и Химене из 90-х, хоть на Аватаре-воздухосгибателе, хоть на ЛуниТюнсах и Пинки-и-Брейне - но такая, чтоб действительно генерила именно таких персонажей? Стилистически. Чтоб так просто было и не отличить.
Мне кажется, что специально отдельно чекпоинт редко кто-то делает для таких целей. Думаю, лучше глянуть разные варианты LORA. Вот их обычно тренируют как раз под конкретные мультики, а то и, что даже чаще, конкретного персонажа. Вот примеры - лоры по конкретным персонажам от одного автора - https://civitai.com/user/Rokos_basilisk/models
Или по Том-и-Джерри - https://civitai.com/models/85675/tomandjerry

Просто есть файнтюны базовых моделей, которые вполне неплохо могут передавать стилистику тех или иных художников мультипликаторов.
Кстати по поводу ЛОР. Есть вот такая подборочка. И стили, и персонажи
https://docs.google.com/spreadsheets/d/1C5a1KHZz6exP1SUakPLRdURmv0cP1P-3sny01uyUb50/edit#gid=41418288
Как в этом контролнете добавить юниты?
Во вкладке Settings есть настройки ControlNet'a
Нашел, спасибо.
Как-то оно странно работает, там изначально три штуки стояло, но дополнительные две появились только после того, как перезагрузил UI из настроек.
Подскажите, пожалуйста: как скачать модели для СД? Они много весят и через браузер не грузятся (загрузка прерывается через какое-то время).
Просто тыкаешь в браузере "возобновить загрузку", чтобы оно продолжило скачивание. При необходимости повторить. Было у самого такое, при скачивании именно с ЦивитАИ моделей в несколько гигов.

(а когда-то в 90-х - 00-х, приходилось пользоваться программой DownloadMaster для продолжения оборвавшейся загрузки, интернет эксплорер так не умел и мог повторно скачать файл лишь с полного нуля)
Видимо, в тот день, когда я пытался скачать (несколько раз пытался) были работы на самом сервере. Ибо сейчас загрузка поперла 7 Мб/с, тогда - было 7 кб/с.
Не пойму: все модели *.safetensors, что мы качаем, автоматически применяются? Потому что я не понял, где выбирать, какой из датасетов использовать для генерации картинки.
Качаем, кладём в /models/Stable-diffusion, если это базовые (чекпоинты)
И тогда в левом верхнем углу интерфейса web-gui новая модель появится в списке Stable Diffusion checkpoint. После нажатия кнопки "Обновить" (маленькая синяя), естественно.
Попробовал по инструкциям сделать, при запуске вылезает ошибка, как с ней бороться? питон переставил, PyTorch и xFormers стоят, CUDA тоже обновил, как и все С++
python.exe - Точка входа не найдена X Точка входа в процедуру ?get_trace®GPUTrace®impl@c10@@SAPE6UPylnterpreter®2 3@XZ не найдена в библиотеке DLL D:\std1\stable-diffusion-webui\venv\Lib\site-packages\xforme rs\_C.pyd.
Никогда с подобным не сталкивался. Боюсь, придётся идти на специализированные форумы (реддит).
Так и не смог одну фотографию переделать. Оно вообще не понимает, где человек, а где фон - поэтому просто лепит кашу.
Как дорисовать уши в хвост на фотографии?
Для фото я бы перегнал изображение в карту глубин (depth mask), потом её бы отредактировал в фотошопе, после чего отправил бы её обратно в контролнет и указал бы уже в controlNet inpaint те области, где нужно новый объект нарисовать.

делаю все по гайду, но в который раз нейросеть делает что то наподобие темного ореола в том месте где была маска. Как это исправить?

Немного поздно. Но если там был параметр fill то вес нужно на максимум ставить, то бишь 1.

Можешь показать где искать этот параметр?

rcebize moue • Just resize Crop and resize Resize and fill Just resize (latent upscale) Mask blur Mask mode • Inpaint masked Inpaint not masked Masked content • fin original latent noise latent nothing Inpaint area Only masked padding, pixels Whole picture • Only masked Sampling method

Напиздел, силу деноизинга нужно в 1 поставить.

у меня вообще таких настроек нет

 Set the preprocessor to [invert] If your image has white background and black lines. Q rä Q Enable 0 Low VRAM Control Type Pixel Perfect Allow Preview All Canny Depth NormalMap OpenPose MLSD Lineart SoftEdge Scribble/Sketch Segmentation Shuffle Tile/Blur O Inpaint lnstructP2P Reference
Эти настройки в вкладке inpaint, в основной вкладке их нет. Но в таком случае, по идее не должно быть разводов таких. Попробуй выбрать разные препроцессоры чекнуть как с ними.
Жаль, на AMD не работает ControlNet
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions Installed Available Install from URL — URL for extension's git repository https://github.com/Mikubill/sd-webui-controlnetl Local directory name Leave empty for auto Install
подробнее»

Stable diffusion нейронные сети нейромазня ControlNet гайд длиннопост

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions Installed Available Install from URL — URL for extension's git repository https://github.com/Mikubill/sd-webui-controlnetl Local directory name Leave empty for auto Install
Presented Reconstructed Image Semantic Vector Presented Images Reconstructed Images
подробнее»

Stable diffusion нейронные сети

Presented Reconstructed Image Semantic Vector Presented Images Reconstructed Images
stable-diffusion-webui X + <- ^ G Щ @ Создать ' LO ГО ® Й 0 I'l' Сортировать v = П| i f > 4 6 I A Имя Дата изменения Тип •git 29.03.2024 22:37 Папка с файлами .github 29.03.2024 22:37 Папка с файлами _pycache_ 29.03.2024 22:56 Папка с файлами config_states 29.03.2024 22:56 Папка с файл
подробнее»

Stable diffusion нейронные сети гайд ControlNet automatic1111

stable-diffusion-webui X + <- ^ G Щ @ Создать ' LO ГО ® Й 0 I'l' Сортировать v = П| i f > 4 6 I A Имя Дата изменения Тип •git 29.03.2024 22:37 Папка с файлами .github 29.03.2024 22:37 Папка с файлами _pycache_ 29.03.2024 22:56 Папка с файлами config_states 29.03.2024 22:56 Папка с файл