sfw
nsfw

Результаты поиска по запросу "porn stable diffusion"

Новая модель хорошо обучена.

Несмотря на то, что мы уже тонем в потоке красивейших артов, сгенерированных за считанные секунды, я не мог удержаться, чтобы не похвастаться тратой ресурсов своей старой видеокарты.
Есть и чутка более "откровенные" генерации, но их я уж постить не буду. 
Здесь только мисс Уотсон, хотя больше картинок я генерировал с фотками знакомых со мной девушек. С этой была знакома модель, и, думаю, многие пользователи Джоя хотели бы видеть знакомое лицо, а не рандомные лица.
Теги генерации прикладывать не буду: менял их, смешивал; что вышло, то вышло.
Steps: 25, Sampler: DPM++ 2S a Karras, CFG scale: 12, Model: berry_mix, Denoising strength: 0.7
Ах да, и еще. Под катом много картинок. Листайте дальше, если не хотите тратить время.
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще
,art,арт,art барышня,Stable diffusion,нейронные сети,нейромазня,NSFW,Актеры и Актрисы,Знаменитости,Emma Watson,длиннопост,под катом еще

Победитель конкурса со сгенерированной ИИ картиной теперь жалуется, что «люди воруют его работу»

В 2022 году Джейсон М. Аллен одержал победу на ежегодном конкурсе цифрового искусства на Государственной выставке Колорадо (США). Он создал свою работу «Théâtre d’Opéra Spatial» с помощью ИИ-инструмента MidJourney. 
С конца 2022 года Аллен пытается зарегистрировать авторское право на свое изображение. Однако это оказалось сложной задачей, поскольку судьи постановили, что искусство, созданное с помощью генеративного ИИ, нельзя защитить авторским правом из-за отсутствия человеческого авторства.
На прошлой неделе Аллен подал апелляцию в федеральный суд Колорадо. Он аргументирует свою позицию тем, что не получает достаточной прибыли от своей работы из-за снижения ее ценности на рынке. Аллен также заявляет о многочисленных случаях кражи его произведения без компенсации или указания авторства.
Аллен утверждает, что его творческий вклад заключался во введении серии запросов (промптов) для создания изображения, корректировке сцены и определении тона картины. По его мнению, эти действия можно сравнить с творческими усилиями других художников и они заслуживают защиты авторским правом.
Ситуация с Алленом привлекла внимание к проблемам авторского права в эру ИИ. Многие художники критикуют использование их работ для обучения ИИ-моделей без согласия. В 2023 году группа художников подала коллективный иск против компаний, которые разрабатывают ИИ для генерации изображений.
Юристы Аллена отмечают необходимость адаптации законодательства для защиты прав тех, кто использует ИИ для творческого самовыражения. В то же время возникает вопрос о защите прав художников, чьи работы используют для обучения ИИ-моделей.

Отличный комментарий!

"его творческий вклад заключался во введении серии запросов"
Спизженные для генерации обучающей выборки арты стоили явно побольше, чем 20 минут на промты.
Надо с него денег что ли взять, возместить всем тем, кто "предоставил" свои арты для нейросетки и недополучил прибыль из-за этого.
Должны ли все художники которые дольше в деле требовать денег с тех художников что меньше времени рисуют? Наверняка же видели работы "старичков" и чему нить на этом научились
Идея брать деньги за обучение на свободной информации, принуждает всех платить за мой комент. Ведь чтение его изменило нейронку в вашей голове. А значит теперь все ваши будущие действия должны содержать комиссию в мою пользу.

На реддите разгорелся срач из за нейронок и ЦП

Изначально новость вышла arstechnica.com, аналитическое интернет-издание на английском языке, посвящённое информационным технологиям. В которой утверждалось следующие: 
«Как генеральные прокуроры наших штатов и территорий, мы глубоко и серьёзно обеспокоены безопасностью детей, находящихся под нашей юрисдикцией», — говорится в письме. «И хотя интернет-преступления против детей уже активно расследуются, мы обеспокоены тем, что ИИ создает новые границы для злоупотреблений, что затрудняет такое преследование».
В частности, технологии синтеза изображений с открытым исходным кодом, такие как Stable Diffusion, позволяют с легкостью создавать порнографию, генерируемую искусственным интеллектом, а вокруг инструментов и дополнений, расширяющих эту возможность, сформировалось большое сообщество . Поскольку эти модели ИИ общедоступны и часто используются локально, иногда нет никаких препятствий, мешающих кому-либо создавать сексуализированные изображения детей, и это вызвало тревогу у ведущих прокуроров страны. (Следует отметить, что Midjourney, DALL-E и Adobe Firefly имеют встроенные фильтры, запрещающие создание порнографического контента.)
«Создавать эти изображения стало проще, чем когда-либо, — говорится в письме, — поскольку каждый может загрузить инструменты ИИ на свой компьютер и создавать изображения, просто введя краткое описание того, что пользователь хочет видеть. И поскольку многие из этих инструментов ИИ имеют «открытый исходный код», инструменты можно запускать неограниченно и без контроля».
 На самом же реддите пользователи типично разделились на два лагеря. Первые утверждали что нейросети это зло, и их нужно запретить или ограничить доступ к ним. Другие же утверждали что нейросети это не более чем инструмент, и виновата не техногия, а кто и как eё использует. Примерно после 5 часов прибывания стати модераторы закрыли комменты и начали тереть комментарии.На момент написания этой стати у стати на реддите было 11к up. 

Отличный комментарий!

Ого, мыслепреступления подъехали откуда не ждали...

Руководство по быстрому началу общения с нейровайфу

Всем доброго времени суток!
Это мой первый нормальный пост, так что заранее извиняюсь, если будут косяки с оформлением. Большинства тегов не нашёл, но они явно нужны по смыслу.
Недавно узнал что есть множество людей далеких от общения текстовыми нейросетями. Специально для них решил написать простое руководство по вкатыванию в тему буквально в несколько(десятков) кликов.
Пролог (можно пропустить)
Сокращённо текстовые нейронки принято называть LLM - Large Language Model (Большая Языковая Модель)

Все конечно в курсе что есть такая вещь как ChatGPT, которую условно можно сравнить с нейросетью для генерации картинок Midjourney.

Но не все в курсе, что как для Midjourney свободный аналог - Stable Diffusion, так и для Чата GPT, есть точно такие же аналоги, которые можно запускать как локально у себя на компе, так и в облаке, а именно Локальные LLM.
Однако в данном руководстве я пока не планирую давать подробную информацию по данной теме (иначе словом длиннопост результат будет не описать). Но если появится интерес, запилю ещё постов как про нейронки, так и про более сложные и интересные способы общения с нейротянами.
В данном руководстве описывается способ запуска https://github.com/oobabooga/text-generation-webui при помощи Google Colab. При желании вы легко можете установить его самостоятельно, все инструкции (как и изначальный колаб) есть на странице в гитхабе.
Ботов для общения можно брать здесь: https://chub.ai/
А сами модели: https://huggingface.co/models
Руководство.
От оригинального колаба text-generation-webui он отличается более удобным способом загрузки моделей, заранее выставленными настройками и русским языком в некоторых местах. 
2. Настройка.
Перед запуском нужно выбрать необходимые настройки. В колабе много опций, но для чата ключевых всего две:
Автоперевод чата на русский через гуглтранслейт:
ft Дополнения
superbooga: 0
Based on superbig от Кайокендева. Расширение, которое
google_translate: Q
Перевод чата, по умолчанию стоит русский.
long_rcplics: О,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Озвучка чата голосом:
Расширение преобразования текста в речь с использованием [Silero] С «Расширения» интерфейса. Вы можете найти образцы здесь: [образць,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
По умолчанию обе этих галочки отключены. Если хотите общаться на английском и озвучка не нужна - можите их не трогать.
Для первого знакомства выбор модели не так важен. По умолчанию стоит Emerhyst-20B - одна из топовых моделей для кума. В дальнейшем можно попробовать и другие, в том числе собственные, инструкция как это сделать есть в тексте колаба.
3. Запуск.
Жмём
> Установка и загрузка модели
©	первом запуске этот блок установит угабогу и загрузит выбранную модель. Н
Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI:
Список актуальных моделей можно найти в этом рейтинге
Есть 2 варианта загрузки модели в зависимости от формата:
• ВАРИАНТ
Чтобы запустить блок установки загрузки.
Затем сразу же жмём:
> £? Выбор настроек и старт
----------------------------
© Опции запуска
зе±-Ып§э_-Ра.1е:
Загрузите настройки интерфейса по умолчанию из необработанного текстовог
регр1ехз.±у_со1огз:	□,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Ничего не меняя в настройках. 
Блоки запустятся по очереди. Займёт это от 5 до 15 минут в зависимости от скорости работы колаба.
В результате блок старта должен выдать вам следующую запись:
* Downloading cloudflared for Linux x86_64... Running on local URL: http://127.0.0.1:7860 08:14:55-341880 INFO	OpenAI-compatible API URL:
mips : //Knit - hereb^piaiilcal • Fini ■ tryclpudf lare, со«*
Running on public URL: https ://c03e4698bdf676e5fa.gradio.1ive j
This share link expires in 72
Жмём на ссылку после "Running on public URL:" и в новой вкладке откроется GUI интерфейс чата.
4. Чат.
После этого вы в принципе уже сможете начать общение с нейросетью, задавая ей интересные вопросы и рассказывая охранительные истории. Но по умолчанию чат будет отвечать как Assistent, то есть от лица нейросети, а что с отыгрываеием персонажей?
Всё в порядке! Данный интерфейс, как и сама модель написан практически только для этого!
Скроллим вниз и видим:
В чате помимо Ассистента есть ещё и дефолтный персонаж Chiharu Yamada, здесь почему-то названный как Example.
После нажатия на её портрет чат переключится на общение с ней:
Для начала общения хватит и её. 
Действия прописываются курсивом *между звёздочками*, слова - обычным текстом.
Но если вы хотите пообщаться с собственной вайфу, тогда переходим к следующему пункту!
5. Импорт персонажей.
На данный момент самая большая база персонажей находится на https://chub.ai/
После того как нашли нужного, заходим на его страничку:
И скачиваем к себе PNG в формате SillyTavern. Этот формат самый универсальный, поэтому рекомендую хранить персонажей в нём.
Затем снова открываем чат и переходим во вкладку
Кидаем персонажа в данное поле и возвращаемся в чат. Также иконка персонажа появится в галерее. Собственно всё.
5.1. Сохранение логов.
Ели вы хотите чтобы ваша вайфу и переписка с ней сохранялись от сеанса к сеансу, перед запуском в настройке колаба "save_to_google_drive" нужно выбрать "chatlogs and characters"
Синхронизировать с гуглдиском персонажей и логи?. save_to_googie_drive: chatlogs and characters,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Но тогда все ваши логи и персонажи будут лежать на гуглдиске в папке "oobabooga-data". И само собой колаб запросит к нему доступ.
Вот теперь точно всё.

Требуется помощь со Stable Diffusion

Проблема такая: имеется видеокарта amd rx6750, а нейросетки больше любят Nvidea, искал аналоги на амд, пока использую SD WebUI DML Neuro, но у неё нет возможности использования LoRa.
Во время поисков нашёл вот такой вариант на DirectML https://github.com/lshqqytiger/stable-diffusion-webui-directml
Не запускается, так же просит нвидеа карту
Однако никакие настройки и внесение в аргументы мне не помогли. А использовать через процессор мне не хочется, слишком долго создает картинку.
Питон 3.10 и гит установлены. Брал информацию так же отсюда https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs 
Я плохо в таких делах разбираюсь, так что решение проблемы найти не смог. Взываю к тем кто более умён в данном вопросе
ИСПОЛЬЗОВАТЬ ТОЛЬКО В СЛУЧАЕ КРАЙНЕЙ НЕОБХОДИМОСТИ,пидоры помогите,реактор помоги,нейронные сети,Stable diffusion

Правильная установка ControlNet в SD webui

Хочу поделиться с вами моим постом с github и reddit.
Я потратил много времени на поиск и решение проблемы с ошибками при установке ControlNet, десятки раз переустанавливал webui и перечитал море информации на github. Пока что данный способ самый рабочий из всех и позволяет обойти ошибки установки mediapipe, OSError и permissions при установке ControlNet.
Сперва я рекомендую сделать чистую установку SD webui, но если такой возможности нет, то удалите расширение controlnet в папке extensions и удалите папку venv, после чего запустите webui-user.bat, дождитесь пока webui восстановит удалённые папки и загрузит все файлы, затем закройте webui.
Перейдите в папку с SD webui, щелкните на строку с директориями и введите "cmd", нажмите enter.
stable-diffusion-webui	X +
<-	^ G Щ
@ Создать '	LO ГО ® Й 0 I'l' Сортировать v = П|
i
f
> 4
6
I
A
Имя	Дата изменения	Тип
•git	29.03.2024 22:37	Папка с файлами
.github	29.03.2024 22:37	Папка с файлами
_pycache_	29.03.2024 22:56	Папка с файлами
config_states	29.03.2024 22:56	Папка с
Откроется командная строка и вы увидите путь к вашей папке с webui.
Теперь вам нужно поочередно вводить эти команды, терпеливо дожидаясь завершения всех операций (я выделил команды жирным текстом):
F:\stable-diffusion-webui>venv\scripts\activate.bat
(venv) F:\stable-diffusion-webui>pip install mediapipe
(venv) F:\stable-diffusion-webui>pip install svglib
(venv) F:\stable-diffusion-webui>pip install fvcore
(venv) F:\stable-diffusion-webui>pip install "opencv-python>=4.8.0"
(venv) F:\stable-diffusion-webui>deactivate
Готово. Теперь запустите файл webui-user.bat и установите/переустановите расширение controlnet. Сообщения об ошибках больше не должны появляться и расширение будет работать нормально. Если и появятся какие-то ошибки, то можете их игнорировать либо написать в комментариях, я попробую разобраться.

Stable Diffusion 3 теперь доступна для скачивания и запуска локально

Генерация по промту: Epic anime artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "Stable Diffusion 3" made out of colorful energy
Теперь модель можно скачать и запустить локально (пока только Medium-версию). Разработчики пишут, что новая модель лучше понимает текст промта, более реалистичная в плане рук и лиц. А так же лучше запоминает детали на даже на небольших дата сетах. Одна из интересных фитч - генерация надписей.
Еще пишут что она "идеально подходит для работы на стандартных потребительских графических процессорах без снижения производительности". Но тут бы я поспорил, легко переварить 10Gb не каждая видеокарта сможет. На моей машине работает медленнее по сравнению с SDXL.
Скачать саму модель можно с civitai или huggingface. Запустить на данный момент только в comfyui.
Немного погонял локально, промты действительно понимает хорошо. Но модель "недообучена" - качество оставляет желать лучшего. Предыдущие версии тоже от этого страдали, но люди из комьюнити допиливали до вполне не плохих результатов.
Несколько примеров на модели SD3 Medium Incl Clips T5XXLFP8
Сложный промт с положением объектов на картинке указанием цветов (у прошлых моделей возникали проблемы):
Three bottles on a table in a kitchen. Bottles that look like cola. Left bottle is full of blue liquid with the number 1 on it. Middle bottle is full of white liquid with the number 2 on it. Right bottle is full of red liquid with the number 3 on it.
Видно, что модель четко следует промту. Круто!
Попробуем с людьми: 
Forest in the background. Dark theme, sunset, look at at viewer, captured in the late afternoon sunlight. Photo of three 21 year old woman. Left woman is blonde with the number 1 on blue T-shirt. Middle woman is redhead with the number 2 on white T-shirt. Right woman is brown hair with the number 3 on red T-shirt. Wearing shorts
Тут пришлось сначала описать лес на фоне, потому что иначе он выглядел как будто прифотошопленным. В остальном модель четко соблюдает номера, цвет футболок и волос. Раньше, без танцев с бубном, четко прописать нескольких разных типажей на одной картинке было почти не реально - детали сливались и получались клоны. А в новой версии достаточно просто описания. 
А что по надписям на картинке? Попробуем:
Neon sign with the text "Ты пидор"
Видимо, русскую кодировку не завезли, но видно что модель старается, попробуем иначе:
Neon sign with the text "You are awesome!"
Попробуем сгенерить котика:
A black cat walking along a street paved with stone.Close-up of a cat's face.
Опять неплохо, хотя пришлось реролить несколько раз, что бы получить более-менее нормальный результат. Модель знает основы анатомии кота, но иногда больше похоже на детский рисунок.
Как на счет аниме?
Illustration anime, cartoon. 1woman, blue eyes, brown hair, dynamic angle, centered, full body photo. Street in the background
Опять пришлось реролить несколько раз. Заметил, что если указывать больше деталей, картинка получается лучше.
Попробуем городской пейзаж:
Urban photography: houses, trees, cars, and peoples. the road goes from the bottom left to the right
Осторожно: если долго рассматривать картинку, можно подумать что у тебя инсульт...
Что мы имеем на данный момент? Пока реализм хромает... Не всегда с первого раза выходит что нужно. Лично я ожидал большего. Все те же проблемы с руками и склонностью к "плоскости" перспективы и объектов. 
Но есть ощущение, что модель действительно лучше понимает что от нее хотят. Будем надеется, что дообучение будет по силам сообществу, и мы увидим NSFW версию от авторов Juggernaut или Pony Diffusion.
ЗЫ: надеюсь теги эротики и аниме не нужны.

Как отредактировать любой рисунок с помощью нейросети Stable Diffusion. Подробный гайд

Будем считать, что вы уже установили и настроили Automatic1111's Stable Diffusion web-gui, а также скачали расширение для ControlNet'a и модели для него. Нам нужно будет лишь controlNet Inpaint и controlNet Lineart.
В интернете уже есть гайд по установке. И не один. Да хоть на том же YouTube.
Будем учиться редактировать на примере вот этой картинки:
Автор - Chaesu
Первым делом открываем фотошоп. Да, прежде чем загружать изображение в SD, его нужно подготовить. Проблема тут такая: SD 1.5 модели не могут нормально работать с изображениями больше 800 пикселей. Поэтому, выделяем в фотошопе вот такую область размером 600x900:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Не снимайте выделение сразу, оно ещё пригодится
Выделение есть, теперь Ctrl+C и вставляем скопированный кусок во вкладку txt2img в окошко ControlNet'а (в первые три, то есть вставляем три раза):
Вы ведь не забыли увеличить количество юнитов контролнета в настройках?
Теперь настраиваем сами юниты контролнета:
Unit 0:
Первый юнит будет отвечать за перенос стиля
Unit 1:
Второй отвечает за редактирование с сохранением контекста
Unit 2:
Ну и третий юнит для контроля генерации
После этого нажимайте на кнопку предпросмотра:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
И скачивайте получившийся "негатив"
Можно поиграться с другими препроцессорами, но lineart_realistic обычно выдаёт лучший результат
Смело открываем его в фотошопе (в новой вкладке, старую пока не трогаем) и начинаем редактировать. Надо лишь убрать всё лишнее и обозначить контур того, что хотим получить. Вот как-то так:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Контролирующий лайн готов. Теперь очищаем ControlNet Lineart и вставляем наш "линейный рисунок". Так как на вход теперь на вход контролнету сам лайн, то нам не нужен препроцессор - ставим его на none.
Это всё ещё Unit 2
Осталось только нарисовать маску inpaint'а. Переходим в ControlNet Inpaint (Unit 1) и прямо тут в веб-интерфейсе закрашиваем те части, которые хотим перерисовать:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Про тень от одежды не забудьте
Осталось лишь написать промпт (и негативный промпт), выбрать параметры генерации (размер 600x900 не забывайте) и нажимать Generate до тех пор, пока не увидите приемлемый результат.
Например:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Главное что стиль далеко не уехал
Это изображение неплохо бы отправить в img2img inpaint, чтобы поправить мелкие недоработки, но сейчас просто копируем его в буфер, возвращаемся в фотошоп и вставляем в нужное место (выделение пригодилось).
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Сидит как влитая
Исправляется тем же образом:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Приемлемо
По тому же принципу делаем остальных
Видите недоработки? Исправить их - это ваше домашнее задание
А вот параметры генерации:
Модель для генерации логично выбирать близкую по стилю. Для не слишком реалистичных рисунков Kizuki Alternative почти идеальна.
Несколько советов:
- Уменьшайте исходное изображение заранее, облегчайте нейросети работу.
- Можно обойтись из без Lineart'а, и тогда сетка додумает форму самостоятельно.
- Если какие-то части получились хорошо, а какие-то нет, то просто перенесите результат во вкладки Reference и Inpaint и работайте уже с ним.
- Если исходное изображение слишком тёмное либо светлое, то модель сама по себе может не справиться и имеет смысл подключать затемняющую или осветляющую мини-модель (лору).

Stable Diffusion 3.5

Пощупать онлайн и без регистрации, но с ограничением по процессорному времени, а так же скачать:
"Сегодня мы выпускаем Stable Diffusion 3.5, наши самые мощные модели.
Stable Diffusion 3.5 Large: Эта базовая модель с 8 миллиардами параметров, превосходным качеством и оперативным соблюдением требований является самой мощной в семействе Stable Diffusion.
Stable Diffusion 3.5 Large Turbo: Усовершенствованная версия Stable Diffusion 3.5 Large генерирует высококачественные изображения с исключительной оперативностью всего за 4 шага, что значительно быстрее, чем Stable Diffusion 3.5 Large.
Stable Diffusion 3.5 Medium (будет выпущен 29 октября): Эта модель с 2,5 миллиардами параметров, улучшенной архитектурой MMDiT-X и методами обучения предназначена для работы «из коробки» на потребительском оборудовании, обеспечивая баланс между качеством и простотой настройки. Она способна генерировать изображения с разрешением от 0,25 до 2 мегапикселей."
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме porn stable diffusion (+1000 постов - porn stable diffusion)