sfw
nsfw

Результаты поиска по запросу "нейросеть Реалистичный порно"

Я долго думал, стоит ли делать пост по сабжу на Реакторе, ибо здесь отлично прижился нейроарт и общее настроение, явно, не в пользу художников, но прошу выслушайте меня:
Разработчики AI (Midjourney, Stable Diffusion и другие) используют работы художников для тренировки нейросетей без согласия самих художников.
Во-первых - AI софт создаёт коммерческий продукт (изображения). Во-вторых, часть AI софта работает на основе платной подписки (типа, Lensa AI). Из этого следует, что разработчики AI украли интеллектуальную собственность художников и делают на этом деньги.
Я не против AI и технологий - технологии, это круто и они двигают прогресс, но я против этого акта мошенничества невероятных размеров. Художники, чьи работы используются в тренировке нейросетей, должны получать за это компенсацию.

Отечественная нейросеть дописывающая тексты.

https://text.skynet.center/
На ]оугеас1:ог сцдят тролли, лжецы, девствен ники. И каждый из них чувствует себя там, где ему хочется, но лишь до той минуты, пока не выходит прочь из этой скульптурной группы.
Порфирьевич написано с помощью нейронной сети
1шр5:/Лех15купеиеМег,нейросеть,порфирьевич

Отличный комментарий!

Пидоры помогите, - прошептала я. И уставилась в пространство. Было почти темно, и дальше от меня никого не было.
написано с помощью нейронной сети
https:// text.skynet.center,нейросеть,порфирьевич

"Очень плохая музыка" в очень хорошем качестве. Спасибо нейросетям.


Ректорчане, спасибо за поддержку, мы рады вашим просмотрам и активности.
И хотим узнать, какое видео стоит улучшить.
,мем,нейросети
,мем,нейросети

Отличный комментарий!

Качество мне запили!

На самом деле очень интересно или нейронка справится с настолько паршивым качеством.
,мем,нейросети
,мем,нейросети

OpenAI - DALL·E 2

Новая система искусственного интеллекта, которая может создавать реалистичные изображения и рисунки из описания на естественном языке Он может сочетать концепции, атрибуты и стили.
DALL·E 2 может вносить реалистичные изменения в существующие изображения с подписями на естественном языке. Он может добавлять и удалять элементы, принимая во внимание тени, отражения и текстуры.
DALL·E 2 может делать снимки и создавать различные
его вариации, вдохновленные оригиналом.

Отличный комментарий!

,OpenAI,Искусственный Интеллект,будущее наступило,технологии,нейронные сети,нейромазня

Stable Diffusion начала синтезировать музыку

 
В рамках проекта Riffusion разработчики развивают вариант системы машинного обучения Stable Diffusion для генерации музыки вместо изображений. Мелодии можно создавать как на основе предложенного шаблона, так и с помощью текстового описания на естественном языке.
 
,наука,наука и техника,технологии,нейронные сети,Stable diffusion,Stable riffusion,StableRiffusion,Riffusion
 
Компоненты для синтеза музыки написали на языке Python с использованием фреймворка PyTorch. Связь с интерфейсом реализовали на языке TypeScript. Компоненты доступны под лицензией MIT.
Сама модель открыта под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.
Обновлённая модель использует для генерации музыки модели «из текста в изображение» и «из изображения в изображение», но в качестве изображений выступают спектрограммы. Они отражают изменение частоты и амплитуды звуковой волны во времени. Система на выходе формирует новую спектрограмму, которая затем преобразуется в звуковое представление.
Проект Riffusion также может использовать для изменения имеющихся композиций и синтеза музыки по образцу. Этот процесс работает по аналогии с модификацией изображений в Stable Diffusion. Так, при генерации могут задаваться образцы спектрограмм с эталонным стилем, комбинироваться разные стили, выполняться плавный переход от одного стиля к другому или вноситься изменения в существующий звук для увеличения громкости отдельных инструментов, изменение ритма и т.д.
Образцы можно использовать для генерации длительно играющих композиций, создаваемых из серии близких друг к другу отрывков, немного меняющихся во времени. Они объединяются в непрерывный поток при помощи интерполяции внутренних параметров модели.
Для создания спектрограммы используется оконное преобразование Фурье. Чтобы решить проблему с определением фазы, задействован алгоритм аппроксимации Гриффина-Лима.
В ноябре Stability AI сообщила о выпуске новой версии модели Stable Diffusion 2.0. В ней улучшили качество и повысили вариативность получаемых изображений.

Отличный комментарий!

Музыканты через 3, 2, 1...
,наука,наука и техника,технологии,нейронные сети,Stable diffusion,Stable riffusion,StableRiffusion,Riffusion

На реддите разгорелся срач из за нейронок и ЦП

Изначально новость вышла arstechnica.com, аналитическое интернет-издание на английском языке, посвящённое информационным технологиям. В которой утверждалось следующие: 
«Как генеральные прокуроры наших штатов и территорий, мы глубоко и серьёзно обеспокоены безопасностью детей, находящихся под нашей юрисдикцией», — говорится в письме. «И хотя интернет-преступления против детей уже активно расследуются, мы обеспокоены тем, что ИИ создает новые границы для злоупотреблений, что затрудняет такое преследование».
В частности, технологии синтеза изображений с открытым исходным кодом, такие как Stable Diffusion, позволяют с легкостью создавать порнографию, генерируемую искусственным интеллектом, а вокруг инструментов и дополнений, расширяющих эту возможность, сформировалось большое сообщество . Поскольку эти модели ИИ общедоступны и часто используются локально, иногда нет никаких препятствий, мешающих кому-либо создавать сексуализированные изображения детей, и это вызвало тревогу у ведущих прокуроров страны. (Следует отметить, что Midjourney, DALL-E и Adobe Firefly имеют встроенные фильтры, запрещающие создание порнографического контента.)
«Создавать эти изображения стало проще, чем когда-либо, — говорится в письме, — поскольку каждый может загрузить инструменты ИИ на свой компьютер и создавать изображения, просто введя краткое описание того, что пользователь хочет видеть. И поскольку многие из этих инструментов ИИ имеют «открытый исходный код», инструменты можно запускать неограниченно и без контроля».
 На самом же реддите пользователи типично разделились на два лагеря. Первые утверждали что нейросети это зло, и их нужно запретить или ограничить доступ к ним. Другие же утверждали что нейросети это не более чем инструмент, и виновата не техногия, а кто и как eё использует. Примерно после 5 часов прибывания стати модераторы закрыли комменты и начали тереть комментарии.На момент написания этой стати у стати на реддите было 11к up. 

Отличный комментарий!

Ого, мыслепреступления подъехали откуда не ждали...

Гречневый корпоратив

Отличный комментарий!

У меня на такую куклу тоже бы не встал, оно не просто несексуальное, оно уёбищное.

OpenAI - DALL·E 2 - подборка

,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
«Чувак из четвёртого века с каменным лицом, застрявший в пробке»
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
«Статуя, поскользнувшаяся на льду»
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
Ht		г rT',Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети

«Городские пейзажи из Half-Life»
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети

«Женщина звонит по телефону в стиле Китагавы Утамаро» (Художник, жил в 1753-1806 годах)
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети

Нейросеть даже может выдавать философско осмысленный контент
«Мыслитель в стиле Каспара Давида Фридриха»
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети
,Искусственный Интеллект,будущее наступило,OpenAI,технологии,нейронные сети

Отличный комментарий!

Поразительные результаты.
Верить им я, конечно, не буду.
В смысле, даже если изначально не сказки, то это скорее всего отбор единиц из сотен шлака, плюс ручная доводка отобранного.

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):
Установили? Тогда начинаем.
Часть 1. ControlNet Inpaint
Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.
Итак, возьмём изображение, которое мы хотим отредактировать.
И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.
Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):
Теперь замазываем места, которые хотим перерисовать:
,нейронные сети,гайд,туториал,StableDiffusion,песочница
В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:
1girl, naked, completely nude, (best quality, masterpiece:1.2)
Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)
Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.
Параметры генерации:
Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.
Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.
Простой случай разобрали, переходим к чему-то посложнее:
Часть 2. Style transfer
Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:
Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.
Нам нужно решить 2 задачи:
Повторить существующий стиль рисункаСохранить силуэт
Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.
Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:
0 Enable
Low VRAM
Pixel Perfect
Allow Preview
Control Type
All	Canny	Depth	Normal	OpenPose	MLSD
Lineart	SoftEdge	Scribble
Inpaint	IP2P	Reference
Preprocessor
t2ia_style_clipvision
Control Weight i	Starting Control
Seg	Shuffle	Tile
None
controlnetT2IAdapter_t2iAdapterColor [c58d: /
(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.
0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница
(Вот тут softedge)
Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.
Ладно, всё 4 юнита активны. Нажимаем Generate и:
Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!
Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.
Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.
В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.
После нескольких попыток (и усиление промпта) получаем вот такую задницу:
,нейронные сети,гайд,туториал,StableDiffusion,песочница
Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.
Часть 3. img2img
Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.
Некоторые пункты в виде итога:
Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!
P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.
Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
Пожалуйста, цените работу человеческих художников
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники

Отличный комментарий!

ITишники, освоившие очередной фреймворк/либу/яп:
,Salamandra San,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,нейронные сети,художники
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме нейросеть Реалистичный порно (+1000 постов - нейросеть Реалистичный порно)