sfw
nsfw

Результаты поиска по запросу "нейросеть настройка"

Нейросеть Midjourney обновилась до пятой версии

Что нового:
► Более широкий стилистический диапазон, повышена отзывчивость на промты;
►Разрешение увеличено в 2 раза, улучшен динамический диапазон и детализация;
►Лучше генерирует зубы и руки.
Все пикчи в посте были сгенерированы с использованием Midjourney v5.

Отличный комментарий!

Всё. Художники что рисуют случайные красивые картинки официально идут нахуй. Останутся только те, кто делают комиксы и те кто рисуют очень годный прон.
Ожидание:
Отдать роботам рутину, чтобы заниматься только творчеством

Реальность:
Роботы отбирают у тебя творчество, чтобы ты занимался только рутиной

Сайт MidJourney теперь доступен для всех

Пользователям без подписки временно разрешили около 25 запросов в зависимости от сложности генерации. Попробовать можно тут.

Пара моих запросов.

Аугусто Пиночет как Император Рима
Военная техника в виде монстров

Отличный комментарий!

Сильно не вдавался в детали запросов, но до сих пор вакханалия с пальцами и какой-то неестественный цвет кожи у рук у всего сгенерированного. Наверное, надо как-то тюнить.

Плюс постоянно путает назначение предметов, например, как держать трость или сигару: то трость дымится, то сигара держится, как трость.
Конь на паровой тяге тоже странный

Как отредактировать любой рисунок с помощью нейросети Stable Diffusion. Подробный гайд

Будем считать, что вы уже установили и настроили Automatic1111's Stable Diffusion web-gui, а также скачали расширение для ControlNet'a и модели для него. Нам нужно будет лишь controlNet Inpaint и controlNet Lineart.
В интернете уже есть гайд по установке. И не один. Да хоть на том же YouTube.
Будем учиться редактировать на примере вот этой картинки:
Автор - Chaesu
Первым делом открываем фотошоп. Да, прежде чем загружать изображение в SD, его нужно подготовить. Проблема тут такая: SD 1.5 модели не могут нормально работать с изображениями больше 800 пикселей. Поэтому, выделяем в фотошопе вот такую область размером 600x900:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Не снимайте выделение сразу, оно ещё пригодится
Выделение есть, теперь Ctrl+C и вставляем скопированный кусок во вкладку txt2img в окошко ControlNet'а (в первые три, то есть вставляем три раза):
Вы ведь не забыли увеличить количество юнитов контролнета в настройках?
Теперь настраиваем сами юниты контролнета:
Unit 0:
Первый юнит будет отвечать за перенос стиля
Unit 1:
Второй отвечает за редактирование с сохранением контекста
Unit 2:
Ну и третий юнит для контроля генерации
После этого нажимайте на кнопку предпросмотра:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
И скачивайте получившийся "негатив"
Можно поиграться с другими препроцессорами, но lineart_realistic обычно выдаёт лучший результат
Смело открываем его в фотошопе (в новой вкладке, старую пока не трогаем) и начинаем редактировать. Надо лишь убрать всё лишнее и обозначить контур того, что хотим получить. Вот как-то так:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Контролирующий лайн готов. Теперь очищаем ControlNet Lineart и вставляем наш "линейный рисунок". Так как на вход теперь на вход контролнету сам лайн, то нам не нужен препроцессор - ставим его на none.
Это всё ещё Unit 2
Осталось только нарисовать маску inpaint'а. Переходим в ControlNet Inpaint (Unit 1) и прямо тут в веб-интерфейсе закрашиваем те части, которые хотим перерисовать:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Про тень от одежды не забудьте
Осталось лишь написать промпт (и негативный промпт), выбрать параметры генерации (размер 600x900 не забывайте) и нажимать Generate до тех пор, пока не увидите приемлемый результат.
Например:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Главное что стиль далеко не уехал
Это изображение неплохо бы отправить в img2img inpaint, чтобы поправить мелкие недоработки, но сейчас просто копируем его в буфер, возвращаемся в фотошоп и вставляем в нужное место (выделение пригодилось).
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Сидит как влитая
Исправляется тем же образом:
,нейронные сети,гайд,Stable diffusion,раздетые нейросеткой
Приемлемо
По тому же принципу делаем остальных
Видите недоработки? Исправить их - это ваше домашнее задание
А вот параметры генерации:
Модель для генерации логично выбирать близкую по стилю. Для не слишком реалистичных рисунков Kizuki Alternative почти идеальна.
Несколько советов:
- Уменьшайте исходное изображение заранее, облегчайте нейросети работу.
- Можно обойтись из без Lineart'а, и тогда сетка додумает форму самостоятельно.
- Если какие-то части получились хорошо, а какие-то нет, то просто перенесите результат во вкладки Reference и Inpaint и работайте уже с ним.
- Если исходное изображение слишком тёмное либо светлое, то модель сама по себе может не справиться и имеет смысл подключать затемняющую или осветляющую мини-модель (лору).
,Мемы,Мемосы, мемасы, мемосики, мемесы,нейронные сети
Нейронка генерирует продолжение картинки, работает не всегда удачно, зато бесплатно:
https://huggingface.co/spaces/fffiloni/diffusers-image-outpaint

Отличный комментарий!

Осознающая себя нейросеть Midjourney научилась объединять картинки. Результаты шокируют!

Скоммунизженно отсюда:
Там же инструкция как пользоваться. 

Отличный комментарий!

,MidJourney,нейросети,нейроарт,art,арт,нейромемы

Прошу помочь с установкой и настройкой NovelAI

Добрый день. Решился тоже поставит себе нейросеть и выбрал naifu с визуальным интерфейсом из этого поста: https://joyreactor.cc/post/5352923. Сделал все по инструкции: поставил самый свежий питон 3.11.1, добавил его в PATH, устанавливал от имени администратора. Потом извлек как показано в этом видосе: https://imgur.com/a/gvUCiCy. Запустил батник установщика и видел, как мелькнуло красное сообщение во время установки, но прочесть не успел. Установка вроде нормально закончилась, со стандартной просьбой обновить pip (не обновлял). При попытке запустить, появляется следующее: 
При запуске от имени администратора ошибка другая: 
Знаю, что у питона беда с русской раскладкой, так что устанавливал на учетку винды с английским названием. Можно ли это все как-то починить?
ИСПОЛЬЗОВАТЬ ТОЛЬКО В СЛУЧАЕ КРАЙНЕЙ НЕОБХОДИМОСТИ,нейросети,NovelAI,пидоры помогите,реактор помоги

Артикли

Личные наблюдения - Нейросети очень требовательны к артиклям 
И если вы хлебушек, прям как я, и не видите разницы между (MAN), (A MAN) и (THE MAN) - вас ждёт много мороки, чтобы добиться нужного результата
Да, я мог бы эти знания почерпнуть в каких нибудь мануалах и обучающих видео, но камон! ) Кто лезет в инструкции, пока всё и так понятно? ) 
Разбираться в процессе куда веселее ) 
Примеры генерации с артиклем и без него

Обучение нейросети Pt.2

Штош, прошла неделя как я пытаюсь родить что то более менее нормальное через нейросеть, конечно результаты далеки от идеала, но я каждый день пробую новые варианты и уверен что рано или поздно смогу побороть её. Основные проблемы: 
1) Нейросеть очень плохо понимает что такое оружие, это должно произойти чудо что бы она нарисовала нормальный ствол, но т.к. я видел у амеров и азиатов что у них оно иногда выдаёт четкие стволы я выдвинул приедположение что необходимо копнуть глубже и в ширину, видимо необходим другой алгоритм обучения в другой проге ¯\_( ͡❛ ͜ʖ ͡❛)_/¯ штош, буду щупать. Вот такая вот она, пацифистка эта нейросеть.
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
2) Очень мало фотографий в разных позах. да, я могу зайти в тот же редактор или в конце концов в саму игру и наделать там скриншотов НО, давайте будем реалистами,  в сталкере настолько всратые анимации что даже нейросетка их пердолит и в итоге Лора и 1.5 часа обучения идут в топку, я попытался выкрутиться и закинуть просто позы для референсов и скриншоты из Dayz Stalker, ииии.....оно начала читать исключительно скриншоты из Dayz.....я не знаю почему, вся прога просто сама настроилась читать исключительно скриншоты из дейза......пришлось сносить все настройки и перенастраивать, но справедливости ради Экза начала очень неплохо выходить благодаря дейзу
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
3)Проблемы с Чекпойнтами. Я по большей части использую Photon, Deliberate и Reliberate, ибо это самые гибкие и удобные в использовании модели, но в них по большей части заложены фотографии и настройки на Гипер реализм, чёткость и т.д. в том числе такие таргетовые слова как pants, sweater, outfit, из-за этого при обучении желательно избегать таких слов потому что нейросеть начинает дуреть и смешивать свои картинки с картинками лоры, но иногда просто нереально их избегать, в итоге получаются истинные мутанты зоны. ¯\_( ͡ಥ ͜ʖ ͡ಥ)_/¯
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост
Самый проработанный конечно получился комбинезон "Заря", это отдельная благодарность 
Марии "Заноза" Компаниец и творческой мастерской "Артель Путник" за косплеи одиночки, фотографии которой легли в основу обучения ИИ (фотографии использовались из открытых источников и авторские права не нарушались). Благодаря высокому качеству фотографий ИИ смог нормально их считать и иногда даже чётко повторять текстуру ткани или жилета. На данный момент я смог обучить на комбинезон Заря (Одиночки), Ветер Свободы (Свобода), Комбинезон Наёмников, Плащ бандитов, Экзоскелет (Свободы), ПС3-9д (ДОЛГ). В дальнейшем планирую доделать все костюмы и окружение. Брал за основу персонажа девушку потому что обучалась она на мужских персах, и интересно было насколько она гибкая в плане другого пола, так же стараюсь их делать гибкие под разные стили рисовки. Работы много, но лёд тронулся и пока что я частично доволен результатами, работаем дальше. 

,s.t.a.l.k.e.r,фэндомы,нейроарт,нейронные сети,нагенерил сам,StableDiffusion,песочница,длинный пост

Нашел на просторах интернета Easy Diffusion, по гайдам установил, запустил, модели скачивал и прочее. Все работало нормально пока я не начал скачивать другие модели и запихивать их вместо стандартной "sd-v1-4". Пишет что:
"Error: Could not load the stable-diffusion model! Reason: The model file doesn't contain a model's checkpoint. Instead, it seems to be a LORA file."

То есть я закинул ЛОРа файл в папку к моделям и выбрал его там же, но так как это ЛОРа файл - выбор неправильный.
Затем я перенес этот файл в папку ЛОР и при запуске проги я так и не понял где мне выбрать настройку что бы модель была sd-v1-4, а файл с ЛОРом - тот который я скачал.

Короче вопрос состоит так: как взаимодействовать с файлами ЛОР?

Easy Diffusion v2.5.48
ii**Jf**>b *1 IfHt
КУПОН
НЯ ОДНУ БЕСПЛАТНУЮ
ПОМОШЬ ПИДОРОВ,AI,Easy Diffusion,пидоры помогите,реактор помоги,нейросети
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме нейросеть настройка (+1000 постов - нейросеть настройка)