Ставим локально / нейроарт :: Stable diffusion :: нейронные сети :: NSFW :: art (арт)

Stable diffusion NSFW нейроарт art нейронные сети 

Ставим локально

Stable Diffusion Text-to-lmage К
Generate images from text with Stable Diffusion (using K-LMS)
Prompt
fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps
Height
Width
50
Sampling method
DDIM	PLMS • k-diffusion
Create prompt matrix (separate multiple prompts

Итак, тут будет гайд как поставить себе на пк, с веб интерфейсом.

Системные требования: винда, линукс, видеокарта от nvidia с минимум 6 гигами видеопамяти.
Требования рук: умение писать в командную строку

1. Качаем модель отсюда https://drive.yerf.org/wl/?id=EBfTrmcCCUAGaQBXVIj5lJmEhjoP1tgl Магнит на торрент: https://rentry.org/sdiffusionmagnet

2. Клонируем или качаем репозиторий https://github.com/harubaru/waifu-diffusion/ в удобное вам место, если качали вручную, то разархивируем.

3. Идем по пути waifu-diffusion-main/models/ldm.
Создаем там папку "stable-diffusion-v1". Переименуйте ранее скачанную модель .ckpt в "model.ckpt", и положите в папку которую только что создали.

4. Качаем https://pastebin.com/K6nkw326 переименовываем в kdiff.py и кидаем по пути waifu-diffusion-main/models/scripts

5. Качаем новый environment.yaml  заменяем в waifu-diffusion-main/

6. Качаем миниконду отсюда: https://docs.conda.io/en/latest/miniconda.html. Download Miniconda 3

7. Устанавливаем миниконду: Install for all users. Убрать галочку "Register Miniconda as the system Python 3.9" если оно вам не нужно

8. Открываем Anaconda Prompt (miniconda3).
Переходим в папку waifu-diffusion-main используя "cd" для прыжков по папкам.
(Или просто введите cd и перекиньте нужную папку на окно консоли)

9. Введите команду: "conda env create -f environment.yaml" и ждите
(Убедитесь, что вы находитесь в папке waifu-diffusion-main)

10. Удалите папки "clip" и "taming-transformers" из /src

11. Введите команду: "conda activate ldw"
(Вам нужно будет это делать каждый раз когда после перезапуска миниконды)

Использование когда активирован ldw, убедитесь, что находитесь в папке waifu-diffusion-main и введите python scripts\kdiff.py
Ждем когда загрузится модель, после полной загрузки скрипта мы должны увидеть сообщение о запущенном сервере на адресе 127.0.0.1:7860 

II OLI I OL Y Cl Ы OI 14 I aiCM J->r\6_VCI Ы OI I/ / OLI I OL
Running on local URL: hitp://127.0.0.1:7860/,Stable diffusion,NSFW,нейроарт,art,арт,нейронные сети

Пользуемся.

ВАЖНО, СКРИПТ У МЕНЯ ВЫДАВАЛ ОШИБКУ В ИМПОРТЕ autocast from torch, ошибку я исправил, правда не знаю правильно ли, но у меня все работает. Если у вас будет такая же проблема, то исправленный скрипт тут https://cdn.discordapp.com/attachments/128912752604348416/1011611445391282226/kdiff.py

Вы великолепны.

Вольный пересказ с английского гайда --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org)


Подробнее
Stable Diffusion Text-to-lmage К Generate images from text with Stable Diffusion (using K-LMS) Prompt fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Sampling Steps Height Width 50 Sampling method DDIM PLMS • k-diffusion Create prompt matrix (separate multiple prompts using |, and get all combinations of them) Batch count (how many batches of images to generate) Batch size (how many images are in a batch; memory-hungry) Classifier Free Guidance Scale (how strongly the image should follow the prompt) Seed 512 512 Очистить Исполнить Seed 3967602715 Copy-paste generation parameters fantasy nude metallic bodypaint woman gold, metallic hair, sony a7r Steps: 50, Sampler: к-diffusion, CFG scale: 7, Seed: 3967602715 Пометить
II OLI I OL Y Cl Ы OI 14 I aiCM J->r\6_VCI Ы OI I/ / OLI I OL Running on local URL: hitp://127.0.0.1:7860/
Stable diffusion,NSFW,нейроарт,art,арт,нейронные сети
Еще на тему
Развернуть
и в ней можно генерить NSFW "из коробки"?
Да, тут же никто никакие фильтры не ставит, ты сам всё настраиваешь.
нааааааааайс
30 числа приедет новая видяха - надо будет поиграться.
а как оно вообще локально работает, долго генерит, на какой карте?
спасибо за инструкцию
Карточка 1080 обычная не Ti, Уходит где-то 40 секунд на 1 изображение с Sampling Steps 50
если у тебя будет время\желание, и, собственно, если есть эти знания, то было бы интересно еще узнать обо всех этих настройках и на что они по итогу влияют
я ни в нейронках ни в генерации изображений не очень. ну а всякие батч сайз\каунт это понятно, да
Я на самом деле сам пока не знаю, потихоньку экспериментирую и въезжаю.
У меня на обычной 1080, при стандартных настройках по запросу "bottle of white wine", генерировало одно изображение где-то за 25 сек, при нагрузке видеокарты 20-25%.
Да 50 секунд при samoling 100, ошибся
1) карта от АМД не подходит совсем?
2) Если у карты будет меньше памяти - работать будет?
1) Есть гайд для АМД карт, но у меня не АМД поэтому не ебу. Плюс никакого интерфейса, только консоль. https://rentry.org/tqizb
2) Нет
А если у меня 1060 с 3 ГБ, то оно работать очень долго, не будет работать вообще или я себе карту угроблю?
Не будет работать вообще, просто не запустится из-за нехватки памяти. Можно в теории это все на процессоре завести, но тогда на обработку одного изображения будет уходить минут 10 в зависимости от процессора. В то время как на моей 1080 уходит секунд 30
Эх, ну, хотя бы пораздаю.
Как хорошо, что у меня 1060 с 6 гб
Я не пойму, это мне мой комп пиздит или у меня карта какая-то особая?
С*} Видеоадаптеры Щ NVIDIA GeForce GTX 1060 3GB
Их две версии было. Одна 3х гиговая, другая 6 гиговая.
Три - еще была кхетайская на пять гигов.
Не будет работать вообще.
Открыл гайд, там ROCM - Radeon Open Compute. Так что, скорее всего, сразу нахуй. Нормально оно работает только на прошках и, внезапно, на Polaris (RX 4xx, 5xx). У меня 5700XT, скорее не запустится. Потом отпишусь.
На вики пишут, что должна быть поддержка обычных RDNA тоже - https://en.wikipedia.org/wiki/ROCm#Hardware_support
Черт его знает, что пишут на вики. Официально (https://docs.amd.com/bundle/Hardware_and_Software_Reference_Guide/page/Hardware_and_Software_Support.html) поддерживается Radeon Pro V620, Radeon 6800 Workstation (как я понимаю, это RDNA2).

Алсо, тут чел собрал под RDNA aka GFX10 aka 5xxx: https://github.com/xuhuisheng/rocm-build/tree/master/navi10

Я у себя под арчем поставил opencl-amd и opencl-amd-dev, и получил работающий в Blender3d HIP (местный аналог CUDA). Но pytorch упал, кажется, надо пересобрать.
Если на последнем этапе бьет ошибку вида "Traceback (most recent call last):
File "scripts\kdiff.py", line 17, in
import k_diffusion as K
File "c:\distrib\waifu-diffusion-main\src\k-diffusion\k_diffusion\__init__.py", line 1, in
from . import augmentation, config, evaluation, external, gns, layers, models, sampling, utils
File "c:\distrib\waifu-diffusion-main\src\k-diffusion\k_diffusion\evaluation.py", line 6, in
import clip
ModuleNotFoundError: No module named 'clip'"

то куды бечь?
По идее попробовать ввести pip install clip, но это не точно, я на самом деле делал по немного старому гайду. Там не было манипуляций с environment.yaml кроме того, чтобы добавить строку - git в dependencies.
Ну и пункта 10 не было. Возможно в новом гайде что-то поломали, надо было проверить. В любом случае если говно случается, то можно удалить поломанный env conda env remove -n ldw.
И проделать все заного но на 5 пункте просто добавляем одну строку в environment.yaml,
А 10 пропускаем.
А и без перезаписи новым environment.yaml созданный env будет называться ldm вместо ldw
Соответственно на 11 пункте писать conda activate ldm вместо ldw.
dependencies : - git - python=3.8.5 - pip=2Q.3 - cudatoolkit=ll.3
Глянул гайд с реддита, в русском 9 и 10 шаги перепутаны, после "conda env create -f environment.yaml" удалять ничего вроде уже не нужно. Щас попробую, расскажу. А, уже увидели, ок.
Это не в русском они перепутаны, я утром делал по одному гайду. Писал инструкцию уже по другому гайду, в котором шаги 9 и 10 перепутаны, а сейчас они уже это исправили, а я нихуя исправить не могу, хренов джой со своим лимитом времени редактирования постов.
Спасибо. Помогло pip install clip и пропустить шаг 10.
Так же трабла pip install clip не помогло
Окей. В гайде была ошибка, пункты 9 и 10 надо местами поменять, тогда все будет работать.
Бля, уже не могу пост отредактировать.
Окей. В гайде была ошибка, пункты 9 и 10 надо местами поменять, тогда все будет работать.
Я тут просто постою покурю, пока жду отзывы. Сам заниматься этим счастьем не буду, но посмотреть, до чего техника дошла, весьма интересно.
Кто-нибудь упакует в докер?
пардон, ахуел немного
Зачем докер?
Просто постите на реактор с тегом "AI эротика"
я тогда смогу его развернуть у себя на сервере и сделать форму через которую будем его дрочить
Оно разворачивается за 5 минут, совсем контейнероводы обленились, всё готовое им подавай.
Кста, докер на винде работает? Чтобы без всяких эмуляций.
Системные требования: видеокарта за сотни нефти
понятно, пойду дальше учиться рисовать
Ой да брось ты, 6 гигов видеопамяти даже 1060 есть.
мимопидор с 1050 с 4гб иду нахуй, хоть картиночки от других посмотрю
Ну, эм...
С*} Видеоадаптеры Щ NVIDIA GeForce GTX 1060 3GB
Их 2 штуки было, с 3 и 6 гб
Ребят, я всех наебал, в гайде ошибка. Пункт 10 это пункт 9, а пункт 9 это пункт 10.
Ты и в пункте 4 наебал. Кидаем не по пути waifu-diffusion-main/models/scripts, а waifu-diffusion-main/scripts.
Сука, пиздец я дурачок в глаза долблюсь, впрочем народ вроде бы запускал нормально. В любом случае оставил ссылку на оригинал.
За ссылку на оригинал спасибо, по ней делал, всё завелось с первого раза.
У меня нет ни папки models, ни папки scripts. Я что-то не то скачал?
■ DDDDD ш.. Папка с файлами W 1 IV«I 1 dataset 21 819 6 800 Папка с файлами 16.02.2023 21:02 trainer 48 703 12 725 Папка с файлами 16.02.2023 21:02 0 -gitignore 95 70 Файл маТ1СМ(ЖЕм 16.02.2023 21:02 Q .gitmodules 110 84 Файл "аТМСЮШЕ... 16.02.2023 21:02 Q Dockerfile 111 94 Файл 16.02.2023
Гайд скажем так слегка(сильно) устарел. Сейчас все проще. https://github.com/AUTOMATIC1111/stable-diffusion-webui в разделе как устанавливать.
Спасибо тебе, добрый человек
Выглядит прикольно, я даже примерно могу прикинуть как её использовать на практике - творить арты для HTML дрочилен или для TFG или для RPG мэйкера...

Эта прога может на одной условной девушке, отрисовывать грудь A, B, C, D вплоть до enourmos?..

До чего дошёл прогресс...
ЗБЦ ))) еще бы качество улучшить) генерилось секунд 5
Гигер снимает шляпу
Вот еще пара вариантов по теме
Еще на нему нечто
Вот этого можно к берсерку отправить сразу
Там все очень сильно зависит от того чего туда впишешь. Заставить нейросеть делать то что тебе нужно та еще задача.
А как вы генерите такие изображение? У меня любой нсфв контент сразу блюрит, даже если я его не запрашивал, а случайно сгенерировало.
Так весь пост о том как нейронку у себя запустить на компе. Тут никаких фильтров нет.
А. Вы так быстро справились... я думал изображения из веб-версии. Жаль.
Поставил по гайду в инструкции и в запросе naked написал. Правда со спайдерменом это почему то не работает а вот по запросу naked big tits milf вот что выдало
Еба как чётко, даже шрам от кесарева сгенерил.
Горловая ваджайна, найс.
Омагад. Что бы такое написал?)
Big tits naked Xenomorph
нормальное качество, в самый раз
Вот это збс. А там формат 16 на 9 нельзя сделать?
Можно вроде любое разрешение выставить)
Только вот все что выше 512х512 потянет только 3080 и 3090
Нет не тянет. крашится по памяти
Ну даже у меня на 1080 потянуло 512х640
Я попробовал около 1920 на 1080 сгенерить на 3090ти
Оно максимум может только 1024х1024, больше хуй.
3060Ti, больше 512х704 не хочет.
Не страшно. Можно просто прогнать через гигапиксель.
Не.. крашится при выставлении больших разрешений
А это специально было сделано чтобы на фигурку было похоже? Что за теги ставил?
Да нет он сам что то слепил. писал Nekro Xenomorph Spider Man
Перестаньте выпендриваться и объясните тупым что это, пожалуйста
Инструкция для поднятия нейросетки для генерации картинок с выключенным nsfw фильтром как я понял
Истинно так, там еще аноны с форча всякое пилят, надо будет через пару деньков заглянуть. Там уже добавили более реалистичные лица, но я читаю гайд и понимаю, что мне лень этот пиздец повторять. Плюс опять всё заново настраивать. Еще челы свою модель тренят только на порнухе. В общем всякое веселое в течении пары месяцев надо ждать.
Светлое будущее еще на шаг ближе.
Откуда удалять файлы в пункте 10? В waifu-diffusion-main папки \src нет
Пункты 9 и 10 перепутаны. И возможно репозиторий уже обновили и удалили папку src оттуда. У меня она есть.
В общем папку сурс нужно удалять только если она есть до выполнения conda env create -f environment.yaml, если нет, то пропускаем.
А, понял. Пасиба!
она появится после выполнения команды conda env create -f environment.yaml
Господи... как же всё заморочено. Я понял, это тест на интеллект, достоин ли ты пользоваться программой.
Готовых сборок нет?
В теории наверное можно сделать, но я этим заниматься не буду.
Это тест на обладание видеокартой. Сеть вчера вышла в открытый доступ, думаю в течение недели появятся более простые решения.
Всё не так сложно как кажется, для меня гит и пип это тоже непонятные смешные звуки, тем не менее поставил сегодня за пару часов.
кто-нибудь из высокоинтеллектуальных пидоров сталкивался с такой проблемой? Прога просто говорит "кто этот ваш торч, нахуй?"
Traceback (most recent call last):
File "D:\Документы\GitHub\waifu-diffusion\scripts\kdiff.py", line 3, in
import torch
ModuleNotFoundError: No module named 'torch'
Это странно, оно при создании окружения должно было скачать и установить торч, а если бы это не сделало выплюнуло бы ошибку. Похоже ты что-то сделал не так.
>с минимум 6 гигами
Ой ну и пожалуйста, не очень то и хотелось.
Так, у меня генерит чисто зеленое полотно. Что я мог сделать не так?
Попробуй 160 строку в kdiff.py заменить на model = model.to(device)
Теперь вот так

RuntimeError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 6.00 GiB total capacity; 5.16 GiB already allocated; 0 bytes free; 5.30 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Хм, тогда попробуй мой скрипт заюзать. Который в конце поста.
С ним опять зеленый экран
Ну что я могу сказать. Не повезло. Последнее попробуй этот https://pastebin.com/0cFdFC5V kdiff
Не помогает. На память ругается. По гайду фикса зеленого экрана из оригинала тоже.
Походу видюха не тянет.
а чего за видяха?
Как вариант еще можно драйвера на видяху обновить, вдруг поможет.
GTX 1660 Ti

Позже на днях попробую сборку от них посвежее, с самого нуля все скачаю.
Ткни плз если найдешь как решить
Попробуй перезапустить через релоад странички и уменьшить разрешение, поставь какое-то ну очень маленькое, типа 64х64.
А, я даж запустить не могу, он падает до запуска веб сервера XD
Но, что подозрительно, во время падения он говорит, что в карте не 6.0 гигов, а 5.8
Но не думаю, что Хуанг настолько решил экономить, что бы зажать 256 метров на 1660s
Не помогло. Даже на 64х64 либо зеленый экран, либо нехватка памяти.
Часом не ноуте запускаешь? У меня тоже 1660ti, но ноутовская и такая же фигня, ничего не помогает =\
Ну на форчане у челиков точно на 1060 обычных запускается 6 гиговых. Может зеленые чего в 16 серии нахуевертили?
Да, нашел фикс. В конце запроса надо добавить --precision full, тогда на 16** серии заводится.
С вебмордой выдает ошибку, но через командную строку все ок.
Попробуй эту вебморду https://github.com/hlky/stable-diffusion-webui
Там вроде все последние фиксы, в том числе исправления которые на производительность влиляли
Не а, такая же ерунда на 1660ti, или зеленый экран или если с --precision full, то ошибка expected scalar type Half but found Float.

Пофиг, через командную строку тоже можно пользоваться.
Там мой следующий по теме пост для карточек с 4 гигами видеопамяти и webgui.
Крч нашел фикс, что бы и вебморда работала, у меня запускается этой командой

python scripts/webgui.py --precision full --no-half

Но не выше разрешения 320х320
слух, не совсем по теме вопрос, нет ли сеток плана синтеза речи в сети? сайты с нормальным, относительно, синтезом уже есть, а вот на локаль ничего найти не могу. или это другое?
На локаль можно свои натренировать. 1 репозиторий точно был, но на память не скажу. Возможно и модели там можно понапиздить. Есть же в телеграме бот который говорит голосами из озвучки варкрафта третьего.
Тоже 1660Ti, решил заменив 160 строку в kdiff.py на model = model.to(device), и в 47 строке заменив default="autocast" на default="full", как уже советовали. Правда работает только не выше 384х384.
У меня такая фигня вылазит, когда ставлю сильно большое разрешение (больше 512х700 не тянет моя 3060Ti), и потом надо сбросить это всё то ли через кнопку clear, то ли перезагрузить страницу.
Попробуй уменьшить разрешение
ругается на первую же строчку в кдифф - ModuleNotFoundError: No module named 'PIL'
conda activate ldw делал?
канеш
X Administrator: Anaconda Prompt (Miniconda3) - conda deactivate Idw - conda deactivate - conda deactivate — □ ts.zoneinfo-0.2.1 bcrypt-3.2.2 blinker-1.5 cachetools-5.2.0 chardet-4.0.0 clean-fid-0.1.28 clip commonmark-0.9.1 docker- a pycreds-0.4.0 einops-0.3.0 fastapi-0.80.0 ffmpy-0.3.0
Это странно. Попробуй удалить все conda env remove -n ldw и заново пройтись.
понял свою ошибку - отсутствие python
что-то пашет :)
Gradio X -f* <- -> G © 127.0.0.1:7860 M Gmail ► * B f FB P Twitch 4) Feedly ® all -,'n" KS Life pay @ P24 Q Aval Dem U taU A Vj Waldo EH Dream Image Translation Stable Diffusion Text-to-lmage K Generate images from text with Stable Diffusion (using K-LMS) prompt naked big tits milf Sampling
Хоспаде, сколько народа с бубном пляшет!
Будто вновь 2003й на дворе и я в IRC анимешников зашёл.
делись промтом )))
Хмм, то есть оно и лолей сможет?
Лолей не пробовал, но в теории наверное да.
Нейросети это прекрасно! Таким макаром ведь люди, что зарабатывают на происзводстве и продаже цп, будут зарабатывать всё меньше денег, коль нейро-фотки станут общедоступны. Меньше сломанного детства у детей.
ранний прототип SCP-1004
щас у меня сломанное детство будет! лоли гуро копро цп нарисовал с первого раза, а горшка из киша уже полчаса пытаюсь
Да, проверено. Надеюсь в РФ завтра не запретят нейросети.
а распиши за что отвечает какой параметр, если можешь?
Вручную через pip пришлось установить clip и taming-transformers
pip install clip
pip install taming-transformers
в результати такая ошибка. Пока что гугл непомог:
from ldm.models.autoencoder import VQModelInterface, IdentityFirstStage, AutoencoderKL
File "e:\neuroart\waifu-diffusion\ldm\models\autoencoder.py", line 6, in
from taming.modules.vqvae.quantize import VectorQuantizer2 as VectorQuantizer
ImportError: cannot import name 'VectorQuantizer2' from 'taming.modules.vqvae.quantize' (C:\Users\SaFaiR\.conda\envs\ldw\lib\site-packages\taming\modules\vqvae\quantize.py)
Их не надо вручную устанавливать. В гайде ошибка, пункты 9 и 10 перепутаны. А отредактировать пост я не могу.
понял спасибо!
Просто отпишусь здесь, чтобы, когда обменяю свою анальную девственность на видеокарту, генерировать себе Гитлера ебущего лососей.
Hitler fucks salmon realistic hi-res
увьі...
Этой штуке интернет же нужен?
Нет.
Ок. Просто хочу понять откуда оно знает как выглядит Гитлер или лоля чтоб самой что то генерить?))
Так ты качаешь модель для нейронки, всё в ней записано.
Блин, как охрененно быстро генерит. И без всяких nsfw фильтров. Спасибо огромное!
да! хрен бы с фильтрами, но они банят за слова "бутылка" "kill la kill" и ещё дохуще рандомных слов, которых тебе как раз не хватит что-бы сделать то, что ты хочешь
О, оно ещё и философское иногда. Вот такое выдало по запросу "Огурец в стиле Вальехо"
На кой теперь r34 художники?
они нужны для того, что-бы добавлять их никнеймы в промт. вот разница, если дополнительно накидать пару рандомных имён
О заебись, хотел было сам накидать пост, а тут уже всё готово.

Единственное я не понимаю, почему в гайде сейчас conda activate ldw, хотя точно было conda activate ldm

На самом деле самое крутое в этой сборке это img2img
Это просто тот мем с совой, только не мем, а взаправду. Эта херота просто возмутительно мощна.
Они там 2 раза за сегодня уже меняли гайд. Причем один раз с ошибкой которая попала в этот гайд.
А можешь сказать, какой там запрос и настройки. Я даю ему свою картинку он какую то дичь рисует.
portrait of black haired girl, smile,cinematic, stunning, highly detailed, digital painting, artstation, soft focus, ominous lighting, evil colors, illustration, art by artgerm and greg rutkowski and alphonse mucha

А вот настройки не записал, скорее всего DS .8
нихуясе у тебя набор тегов
Ну я довольно долго просидел в дискорде на закрытой бете, понахватался.
Обычно листаешь канал с топовыми генерациями (или просто случайно видишь), находишь чем они сгенерированы и копируешь себе для дальнейшего пользования.
ебать
Введите команду
Введите команду
Введите команду...
А что, нормальный гуи никто еще не придумал?
Так это чтобы нормальное гуи заработало.
Держи спешл фор ю https://grisk.itch.io/stable-diffusion-gui
Не понял немного - это все-в-одном или только гуй?
По идее всё в одном, но сам я не пользовался этим.
russia imperator castle robot
Hitler pedobear
Девушка енот
Шеф, а ты ставил?
GFPGAN
Я ваще не шарю за ваши погромистские шутчки и минут 15 тупил на тему комманды CD и почему она не хочет переходить на второй хард, хотя хочет переходить на 3 хард, но не хочет обратно на С.
Чтобы в командной строке переходить на другие диски нужно просто в начало написать букву диска и нажать энтер. Типа на D - D:\
А GFPGAN не ставил, но там вроде опять гайд обновили с его автоматической установкой, но веса все равно придется самому качать.
В том то и дело, что с ключом я разобрался и на один хард он почему-то не заходит. Ошибки синтаксиса или чего-либо ещё не выдает, хотя на раздел с другой меткой заходит без проблем.
У анаконды странные претензии при переходе между дисками - если ты на условном C:\ и планируешь перейти на D:\ - команда будет с ключом >cd /d D:\
можно запускать павершелл и там не надо так извращаться
А чтобы исправить положение, после того как исполнял неправильные 9 и 10 пункты, что можно сделать? Работа в командной строке меня всегда только расстраивала
Снести .conda в каталоге своего юзера в Users, повторно выполнить conda env create -f environment.yaml
Господа ретрограды (если таковые есть), свежая миниконда не поддерживает винду 7. Но, на самом деле свежий дистрибутив и не нужен, достаточно любой с версией питона как минимум 3.8.5, и к счастью у миниконды есть файлопомоечка со старыми версиями, вот последняя совместимая:
https://repo.anaconda.com/miniconda/Miniconda3-py38_4.10.3-Windows-x86_64.exe
Проверено, всё поднимается и отлично работает.
Нельзя вместо видеопамяти обычную оперативку ей подсунуть? У меня вообще только 2 гига
Нет.
оперативной? -_-
У меня 2070Super с 8GB памяти, так вот генерация от 10 до 60 секунд в зависимости от ввода при 50 итерациях. Памяти в притык хватает 512x512 любые другие разрешения генерировать не хочет( В общем +что бесплатно -что все же на dreamstudio и разрешение побольше и быстрее работает. Но что очень порадовало, что при одинаковом сиде и настройках получаются одинаковые с dreamstudio результаты. Т.е можно подобрать у себя, то что хочется и отрендерить на сайте в большом разрешений.

Ну и мои попытки сделать крипового лешего:
Ну так там оно и работает на проф видяхах с дохуищем видеопамяти. Впрочем даже у меня на 1080 можно выставить разрешение чуть больше 512х512, портреты например генерю в 768х512
На процессоре работает терпимо, у меня уходит минут 15-20 на 512x512. Конечно, массово печатать не выйдет, но если карты нормальной нет - сойдет

https://old.reddit.com/r/StableDiffusion/comments/wt023b/tweet_from_emostaque_we_have_got_it_down_to_21_gb/il1vfa2/
Бля, жесть. На карточке уходит секунд 30.
Еще надо упомянуть что гигов 14 на диске С сжирает.
Ну, у меня даже вышло что-то ничего так
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471
подробнее»

Stable diffusion нейросети нейроарт art,арт

txt2img img2img Extras PNG Info Settings 0 Output Send to inpaint Interrupt warhammer 40000 Steps: 20, Sampler: Euler a, CFG scale: 13.5, Seed: 3707967471