Результаты поиска по запросу «

the core media file

»

Запрос:
Создатель поста:
Теги (через запятую):



политика ЛНР ДНР Вторжение в Украину 2022 Бросок мангуста 

Согласно метаданным видео об "эвакуации" с главой оккупационной администрации РФ на оккупированной части Луганщины Пасечником, он был записан как минимум за 2 суток до публикации, 16.02.2022.

Compressor Name Bit Depth Matrix Structure Media Header Version Media Create Date Media Modify Date Media Time Scale Media Duration
AVC Coding 24
1 0 0 0 1 0 0 01 0
2022:02:16 17:07:25 2022:02:16 17:07:25
48000
0:02:17
G5 Q,политика,политические новости, шутки и мемы,ЛНР,ДНР,Вторжение в


То есть, еще до того, как по версии РФ "Украина начала атаку".это свидетельствует о том, что и обстрелы 17.02, и принудительное перемещение населения – предварительно запланированная операция российских оккупантов.

При проверке всех метаданных получили информацию о локализации файла на компьютере, где его хранили.Название папки "Бросок мангуста".Звучит как название спецоперации.Очень тупые россияне палятся просто невероятно благодаря современным технологиям.

Windows Atom Extension Windows Atom Invocation Flags Windows Atom Une Project Path Mac Atom Application Code Mac Atom Invocation Apple Event Media Data Size Media Data Offset Image Size
prproj	G
/L	G
\\?\D:\BpocoK MaHrycTa\JlH\Untitled.prproj|	G
	G
1129468018	G
224356916	
104581

Стянуть оригиналы можно с телеги: https://t.me/pushilindenis/1999 и https://t.me/LIC_LPR/17431

Источник: Twitter

Развернуть

Отличный комментарий!

начинами брск монгуста
Berhshloss Berhshloss18.02.202223:34ссылка
+53.1

ФСБ задержание подросток терроризм мамкин террорист очумелые ручки Волгоград Россия криминальная россия криминал 

Чувак решил сделать себе арсенал...

В Волгограде силовики задержали подростка, который намеревался устроить массовое убийство в школе. У него нашли самодельную бомбу, холодное оружие и бутылки с зажигательной смесью, сообщили в пресс-службе ФСБ. Нападение планировал юноша 2005 года рождения (14 лет) . 


Сотрудники ведомства обнаружили у него дома, помимо прочего, средства связи и рукописные инструкции по изготовлению самодельных взрывных устройств. Записи рассказывали, как организовать атаку на учебное учреждение. СК возбудил дело о незаконном изготовлении взрывчатых веществ. К нему могут добавить подготовку к убийству двух и более лиц.Сам подросток признался, что искал информацию на интересующие его темы в интернете. Записи в найденной у него тетради, по словам школьника, датированы еще 2018 годом.

 


Сурс


ЗЫ: Кажется он пошёл не в то заведение с этим "набором джентльмена".

ФСБ,задержание,подросток,терроризм,мамкин террорист,очумелые ручки,Волгоград,Россия,страны,криминальная россия,криминал


UPD: Очень интересно как на него вышли.
Развернуть

Отличный комментарий!

спалился, блядь
Mactep XyeB Mactep XyeB15.06.202014:24ссылка
+0.3
блядь, его спалили по тому, как он гуглил "как устроить бойню в школе"
на что он вообще надеялс?
Mactep XyeB Mactep XyeB15.06.202014:27ссылка
+2.3
Не уверен что он на этом спалился. Пока не было сведений, что все поисковые запросы анализируются. Вот я погуглил и пояндексил напрмер, вряд ли ко мне омон из-за этого ворвётся.
Яндекс как устроить бойню в школе Найти Поиск Картинки Видео Карты Маркет Новости Переводчик Эфир Коллекции Кью Услуги Ещё Массовое убийство в школе «Колумбайн» — В... ftru.wikipedia.org > Массовое убийство в шко... . о Массовое убийство в школе «Колумбайн». Эвакуация учеников и школьного
Ърапишжа ебать дслбаеб уемлят
Mactep XyeB Mactep XyeB15.06.202014:35ссылка
+51.5

Игры ps5 консоли цены 

Чё пацаны 7К гейминг

■ 80 Евро равно 7 079,51 Российский рубль 16 сект, 2200 UTC от«аз от обрмтельств Here are the PS5 first party launch games • Astro's Playroom (Japan Studio) - pre-installed on PS5 • Demon’s Souls (Bluepoint Games /Japan Studio) - US$69.99/¥7,900/^7^9 (RRP) • Destruction All Stars (Lucid
Развернуть

Отличный комментарий!

Меня так забавляет этот хайп вокруг консолей в нашей стране. Будто у нас предыдущие поколения консолей были народными и всемилюбимыми. Дримкаст и пс2 - были последними благодаря пиратству. х360 и пс3 сломали не сразу и то с бубном с кучей оговорок. Хуан и пс4 так и не взломали. Зато игры дорогие и экономически выгодней продолжать дальше сидеть на пекарне.

Просто подключить системный блок к телевизору, купить беспроводной геймпад хинпут и геймпад в формфакторе клава+тачпад. Все. Дешевые или бесплатные игры в огромном количестве. Кому нужны эти консоли с играми по 5-7к? Ради экзов которые по пальцам пересчитать?
hurrdurrdurr hurrdurrdurr17.09.202006:07ссылка
+89.1

нейросети Stable diffusion длиннопост NovelAI 

Модель NovelAI под Stable-Diffusion

Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.

Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.

Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:

1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace

3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt

4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork

outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage

5. Готово, можем работать с новой моделью.

NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.

В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.

Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.

Мои:

((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

Из Discord'a NovelAI:

copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot

нейросети,Stable diffusion,длиннопост,NovelAI

{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix

нейросети,Stable diffusion,длиннопост,NovelAI

{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background

нейросети,Stable diffusion,длиннопост,NovelAI

Развернуть

Сычевальня с колесиками Nas synology Plex медиасервер домашний кинотеатр длиннопост 

Мой (почти) полностью автоматизированный сервер Plex

Дисклеймер: возможно кому-то мой сервер покажется профанским, возможно кому-то поможет избежать ошибок при настройке своего, возможно кто-то сочтет полезными какие-то элементы. Я сам не айтишник, это то что я сделал по статьям в интернете, стараясь не запариваться ни с настройками, ни со скриптами, сравнительно просто, доступно для понимания, и надежно. Сейчас на всю эту конструкцию смотрю и кажется очень сложно, но я ней шел несколько лет и в итоге выстроилось вот это вот тут здесь.

Текущая конфигурация сервера позволяет мне не париться с отслеживанием выхода новых серий и дат релизов фильмов в нормальном качестве, сортировкой, раздачей торрентов и хранит все фильмы-сериалы которые я раньше смотрел для последующего при желании пересмотра. Из опыта я знаю что даже очень хорошие и популярные в свое время фильмы имеют свойство вдруг стираться из памяти и с трекеров, и потом их найти очень сложно, поэтому я их у себя сохраняю на сервере.

Как это выглядит для меня на практике(в идеале) - допустим я услышал про новый фильм или сериал или вспомнил старый. На телефоне или в браузере я добавляю название в список и к вечеру или когда там у меня есть время - включаю телевизор или комп(домашний или офисный или при желании в приложении на телефоне откуда угодно) и вижу что он скачался и могу его посмотреть.

Какое железо используется - я использую Synology DS918+ в связке с DX517 для собственно сервера и Nvidia Shield Pro для просмотра на телевизоре. Можно обойтись безо всего этого и использовать просто комп, но я для себя давно решил использовать медиасервер который может работать круглосуточно, без присмотра качать-раздавать и шуметь себе где-нибудь на холодильнике, а не под ухом.

STATUS ■ DISK 1 ■ DISK 2 ■ DISK 3 ■ DISK 4 ■ T 6 DS918D,Сычевальня с колесиками,Nas,synology,Plex,медиасервер,домашний кинотеатр,длиннопост

Synology DS918+ - один из последних серваков от Synology на интеловском проце позволяющего хардварный транскодинг. На форумах Синолоджи сейчас хуесосят интел в том смысле что "а зачем вам хардварный транскодинг если вам не нужен транскодинг и вообще смотрите в оригинальном качестве". Транскодинг нужен по трем причинам - навороченные PGS субтитры в онемэ, звук в TrueHD и воспроизведение не дома. 

PGS субтитры нормально воспроизводятся только на компе, на какой-то приставке или мобильном приложении они не поддерживаются вменяемо и или включается транскодирование или не проигрываются вообще или в настройках нужно включать чтобы они воспроизводились только как текст, а в случае хитровыебанных каких-нибудь караоке или горящих букв или еще чего-то вместо читаемых субтитров можно получить черт знает что.

Звук в TrueHD - у меня нет системы 7.1 и вообще на фиг бы он мне не впарился но проблема в том что на трекерах рипы с блюреев часто идут только с этой дорожкой, а проигрыватели, опять же, очень часто его не поддерживают. Не поддерживают потому что формат этот исключительно для блюреев, т.е. плейер/приложение если оно не идет с дисководом то его просто туда не прикручивают. Другими словами - опять принудительно включается транскодинг.

Воспроизведение не дома тоже может быть проблемой из-за качества соединения. Если у вас в лесу телефон не вытягивает оригинальное качество, то сбрасывая его до 320х240 вы можете никакого выигрыша не получить, а наоборот очень крупно проиграть из-за тормозов с софтверным транскодингом.

Synology NAS к тому же достаточно старая и известная платформа, с очень стабильной осью и сравнительно вменяемыми ценами. У меня это уже третий их NAS которые я обновлял время от времени и более-менее хорошо с ним знаком.

P)Oí puní aí 0Т31И$,Сычевальня с колесиками,Nas,synology,Plex,медиасервер,домашний кинотеатр,длиннопост

Nvidia Shield Pro - это плейер с которого я проигрываю кино на телевизоре. До этого я пробовал Nvidia Shield TV - тормозит. Встроенное приложение на тв - ТОРМОЗИТ. Xbox - ТОРМОЗИТ (>ლ)

Plex очень рекламируют тем что его приложения есть для всех платформ - так вот он на всех этих платформах тормозит, скотина. Единственное где не тормозит - PC, но комп у меня к телеку не подключен.

Какой софт используется...

Список получился длиннный, я думаю имеет смысл его рассортировать по порядку того как что и когда включается начиная с "о, прикольный фильм" до "сел посмотрел".

WATCHED TV SHOWS 7h 59m LAST WEEK 30 episodes 171d 16h 10m ALL TIME 8,841 episodes WATCHED MOVIES 5h 58m LAST WEEK 2 movies 68d 14h 21m ALL TIME 858 movies 1ST WATCHED SHOW ¡HOW INFO FAVORITE GENRES ■ COMEDY (15.1%) ACTION (10.8%) ADVENTURE (9.9%) ■ DRAMA (9.6%) SCIENCE

1. Trakt - сервис для отслеживания просмотренных фильмов-сериалов. Завел я его еще очень давно для того чтобы отслеживать и запоминать просмотренное. Поверьте олдфагу - trakt и goodreads(для книг) это очень полезные сервисы. Очень. Сервер Plex сообщает Тракту обо всех фильмах-сериалах которые я смотрю, когда и сколько и на чем остановился. Даже статистику для прикола можно увидеть - сколько лет жизни просрал перед телеком. В приложении Тракт на телефоне он даже может отображать просмотр в реальном времени. Также в Тракте я веду три списка, куда добавляю фильмы, тв, аниме. У аниме свой список из-за другой системы нумерации, чтобы потом проще было импортировать.

Vmme Films A WALKt^WQODS Ml U 1 J |jrv> 1 ItV*/ V- W\ 1 Ij 1 "1 tr\ 1 [p| y i P’11 ffijj m 'IWilll P 0 I Ê Q198 â0 00 P 0 I Í O® âo Qo P [±] Ш í. □ 1’238 ¿i0 Q0,Сычевальня с колесиками,Nas,synology,Plex,медиасервер,домашний кинотеатр,длиннопост

Т.е. я добавляю в один из списков новое название, после чего Radarr/Sonarr их там находит и ставит на скачивание.

2. Radarr/Sonarr - это приложения для организации медиафайлов и управления торрент клиентом. Оба эти приложения работают как "контейнеры" в Docker. Docker - это среда в которой запускаются разные приложения(контейнеры) и которая установлена на моем Synology NAS. Он работает прекрасно и в винде и много где еще, за что его очень любят, обновляют и делают ему кучу новых контейнеров.

CPU Usage 12% Running Containers calibre ghcr.io/linuxserver/calL. 8 days ago CPU 0.05% i RAM 14 MB portainer-ce portainer/portainer-ce:l... 11 days ago CPU 0% RAM 18 MB deluge linuxserver/deluge: latest 17 hours ago CPU 11.68% RAM 11.91 GB watchtower containrrr/watchtower: I... 11

С Докером изначально я совершенно не хотел связываться потому что выглядело как что-то слишком громоздкое чтобы заморачиваться только ради просмотра фильмов, но пришлось из-за одного ограничения платформы Synology - сложности с прокси. Сложность заключается в следующем - встроенными инструментами прокси можно или включить для всех приложений или для всех же выключить. Чуть-чуть включить только для торрент-клиента нельзя. А вот для контейнера в Докере - можно. ╰(‵□′)╯ 

Но как выяснилось - Докер очень полезный инструмент когда привыкнешь. На нем, например, у меня крутится Pi-Hole который режет рекламу и при этом не нужно покупать отдельно Raspberry Pi.

Так вот - Radarr используется для фильмов, а Sonarr для сериалов. Изначально был сделан Sonarr для автоматизированного скачивания новых эпизодов, а потом сделали форк для фильмов Radarr. Из-за этого в Radarr нет возможности просто кидать все фильмы в одну папку не создавая подпапку для каждого фильма - этот функционал слишком глубоко прошит в Sonarr и ебаться с этим никто не хочет. Radarr/Sonarr периодически мониторит мои списки в Тракт и если там что-то новое, то он сам ищет недостающее на трекерах которые я им указал, фильтрует их по качеству и каким-то условиям(например те же аниме часто лезут с французскими/испанскими субтитрами) отдает команду Deluge на скачивание. Есть много трекеров, настройки поиска которых не прописаны в Radarr и специально для них на Докере работает еще и Jackett. В Jackett прописываются настройки этих трекеров, в нем же можно попробовать как работает по ним поиск.

Будьте осторожны, особенно в самом начале настройки этого всего. Если загрузить в Сонарр список из сотни сериалов и щелкнуть "найти все и скачать" то на большинстве серваков вас просто вычислят по айпи и вые забанят. Когда с одного айпишника им приходит по сотне поисковых запросов через API то админам этих серваков это очень активно не нравится.

В обычном режиме особенно париться нет необходимости, все работает как надо, все очень культурно, покупатели довольные расходятся по домам.

Но если вдруг вам в самом начале очень не хочется тупо вручную скачивать кучу всего, то для вас есть Upgradinatorr. Upgradinatorr - это PowerShell скрипт который работает только в винде и который можно настроить отправлять запросы не больше скольки то штук в некий период времени. У меня он работал на рабочем компе несколько недель например.

»Remove uu Pause p Resume u Up . Down ^Preferences Connection Manager « # Name 4 [SubsPlease] Kubo-san wa Mob wo Yurusanai - 10 (1080p) [A727725C].mkv 4 Super.Mario.Bros. 1993.1080p.BluRay.REMUX.AVC.DTS-HD.MA.5.1-EPSiLON.mkv 4

3. Deluge. И последнее что крутится на Докере - это Deluge, торрент-клиент со своим персональным прокси. Раньше стоял Transmission, но у Deluge оказалось важное преимущество - он не так адски тупит на Synology и у него есть плагины, из которых я использую целый один, это Labels. Radarr помечает свои поставленные на скачивание торренты меткой radarr, Sonarr - sonarr. И по этим же лейблам их отслеживает. Я могу поставить какой-то файл на скачивание вручную, поставить пометку radarr и Radarr его как полагается обработает.

Обработка у меня заключается в следующем - полностью скачанному торренту создается хардлинк в папку с фильмами, где он переименовывается по человечески, с датой и разрешением

 {Movie Title} ({Release Year}) {Quality Full}

после чего он индексируется сервером Plex. 

plex <- о. (jU Home Home R Movies Ç) TV Shows Я Music j= Playlists (Ф) Downloads dore У Continue Watching WOOSTER Jeeves and Wooster Afonya 1975 Doomsday Preppers Pilot: Are You Prepared fo. Specials • E1 The Once and Future Ex Recently Added in Movies TOKYOfc SONATA The Super

4. Plex - вот я и добрался наконец до медиа сервера. Plex у меня работает не в Докере, а просто как приложение для Synology. Есть разные мнения что лучше, но убедительных причин возиться с контейнером я не увидел, а делать я стараюсь чем проще тем лучше. В принципе можно торренты не переименовывать, не сортировать и не морочиться с хардлинками, а валить все в папку Media где Plex должен сам уметь все найти и рассортировать и красиво представить на экране для дальнейшего потребления. Но к сожалению горькая правда такова что ни фига. Plex может перепутать год фильма, может перепутать название фильма, может прикинуться что два разных фильма и серия из сериала это у него просто три версии одного фильма, которые еще потом раскопать нужно, все это править нужно потом вручную и только на компе. К тому же если, например, я скачал папку из блюрея чтобы потом сделать из него remux, то он спокойно может подцепить эту папку и сказать что у вас скачан документальный фильм Воблики производства Бразилия-Египет 1833 года в 3Д и ниибет. Поэтому гораздо безопаснее для ваших нервов сделать ему две библиотеки - тв и фильмы и пусть лучше Radarr/Sonarr туда кидают хардлинки. С тех пор как я перешел на эту систему вручную переименовывать в Plex мне не надо было ничего ни разу.

Кстати - хардлинки. Выполняют важную функцию экономии дискового пространства, мнооогократно ускоряют процесс добавления файлов в библиотеку, дают возможность продолжать раздавать торрент и в то же время служат своего рода безопасности. Если например случайно удалить торрент раздачу в Deluge вместе с данными, то они не попадут в корзину, нет в Докере у него такого функционала. Но по крайней мере файл сохранится в папке с фильмами, а это важно если у вас там все сезоны Друзей например.

Я не стал лезть глубоко в описание настроек каждой из программ, но если что-то интересно - спрашивайте, я расскажу что знаю.

Развернуть

нейросети нейромазня Stable diffusion NovelAI DreamBooth длиннопост 

Тренируем модели через DreamBooth на конкретные образы.

Здравствуйте мои любители нейронного колдунства и прочих искуственно интелектуальных утех. Сегодня мы научимся тренировать уже готовые модели на образы которые мы хотим. Локально на нашем ПК без всяких Google Colab и Runpod.

Если я где то накосячил, поправьте в коментариях.

ДИСКЛЕЙМЕР! БУДЕТ ОЧЕНЬ МНОГО ТЕКСТА. Этот способ тренировки через DreamBooth подразумевает, что у вас в гробу установлена карточка (Nvidia скорее всего только поддерживается) с минимум 8-10 ГБ видеопамяти. Тренировка сетки уже куда более ресурсожрущий процесс, чем просто генерация картиночек. Ранее DreamBooth требовал минимум 24ГБ памяти. Так что пока я нашёл нужные материалы, проверил их и понял, как с этим работать, прошла не одна неделя... Стояла бы у меня 3090, то этот гайд вышел бы ещё в середине октября. но если всё же хочется побаловаться, то можно воспользоваться облачными google colab и runpod. Но я так же затрону гиперсети (Hypernetworks), результаты с ними куда менее презентабельные чем через dreambooth, но можно запустить на карточках попроще. Если вы всё же железо-бетонно готовы следовать дальше, прошу.

И так, продолжим. DreamBooth модель можно натренировать на свою рожу, свою собаку, любимую табуретку, или какого нибудь персонажа.

В данном посте я буду работать на модели NAI (NovelAI я буду сокращать в дальнейшем) ибо буду тренить на нашу Реактор-тян. Если хотите сделать своё лицо или, что то из нашего бренного мира то подойдёт обычная модель Stable Diffusion 1.4

В конце будет небольшой Q&A и заметки, дабы всю (почти) воду и рассуждения отградить от основной информации.

Я разобью гайд на несколько частей. Тренировка DreamBooth и тренировка Embeddings с Hypernetworks.

DreamBooth:

Знаю, что уже появился спобоб тренить DB (DreamBooth я буду сокращать в дальнейшем) через webui stable diffusion от AUTOMATIC1111 в виде загружаемого плагина, но чёрт, вы хоть видели сколько там настроек? Я устану вам объяснять каждую и вы умрёте от духоты, поэтому я выбрал более дружелюбное, отдельно загружаемое приложение - DreamBooth-gui - https://github.com/smy20011/dreambooth-gui скачиваем и устанавливаем его по инструкции приложеной на Гитхабе, не буду тут расписывать ибо и так много текста.

Запускаем приложение и видим первое, что нас просят сделать, а именно загрузить набор изображений на который мы хотим натренировать модель. Делаем их в разрешении 512x512, где надо фотожопим лишнее.

0 dreambooth-gui □ X Pick Image Config Trainer Train,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как только залили изображения, я сделал 8шт, переходим на следующую вкладку Confin Trainer, здесь мы зададим нужные параметры и настройки. Рассуждения о зависимости некоторых параметров от других, пока где-то на уровне теории заговоров, но основные зависимости я объясню дальше.

И так, для начала выбираем модель. По умолчанию нам предложит CompVis SD v1.4, который оно подкачает с hugging face. Но сегодня я работаю с NAI поэтому указываю путь до папки с моделью. Сейчас я на версии программы v0.1.8. и она требует, что бы модель была конвертирована из .ckpt в diffusers. Вот ссылка на мою конвернутую модель NAI - https://drive.google.com/file/d/1BnZyUb9C5wjz7Lcp1Dn8JidZLQ4taQEy/view?usp=share_link

Далее указываем Instance prompt, это должно быть уникальное слово которого не должна знать модель, то есть никаких boy, girl, и имён персонажей которых может знать модель. В дальшейшем это название мы будем указывать среди промптов, что бы модель на это тригеррилась и генерила уже с учётом натренированности этого концепта.

Class prompt указываем ёмко, кратно, что мы тренируем. У нас один женский персонаж и раз уж модель NAI тренилась на датасете danbooru, то я и укажу женский тег от туда, а именно 1girl.

Training Steps я выставлю 1000, а Learning Rate 5e-6, но это крайне запутанные настройки, о них я побольше размусолю ниже в разделе с водой и по ходу текста.

Аргументы не трогаю.

0 dreambooth-gui □ X Pick Image Config Trainer Train Run dreambooth on NVIDIA GeForce RTX 3080, 8.65gb free Model C:\Users\egorv\dreambooth-gui\models\NAI Choose Local Model Name of the base model, (eg, CompVis/stable-diffusion-v1-4) Instance prompt joyreactorchan Name of the instance,

Отлично, переходим к разделу тренировки, здесь нас попросит вставить наш Hugging Face Token. По идеи это нужно только если мы качаем модель SDv1.4 или прочую с Hugging Face, а у нас она локально на пк уже стоит, но всё равно просит, поэтому регаемся там и идём в настройках раздел с токенами https://huggingface.co/settings/tokens и создаём токен на WRITE и вставляем его в наше поле. Прописываем папку куда будут выгружаться все файлы после и проверяем, что бы стояла галочка, что бы модель генерилась потом в .ckpt файл в нашей папке вывода.

0 dreambooth-gui □ X Pick Image Config Trainer Train Hugging Face Token Output Dir C:\Users\egorv\dreambooth-gui\outputs\joyreactor Select B Generate model checkpoint (.ckpt file) in the output directory Training Command docker run -t —gpus=all

Иии жмём старт! И так теперь запасаемся терпением, можете заварить чай, помыться, выйти на улицу, потрогать траву, сходить в магазин и т.д, ибо процесс первого запуска НЕВЕРОЯТНО ДОЛГИЙ. Серьёзно, я сам в первый раз думал, что у меня, что то зависло. Минут 30 только оно подгружало нужные файлы, и убедитесь, что у вас на диске есть ещё место, ибо пару десятков ГБ на нём, этот процесс забьёт. Если увидите, что ошибок не вылезно, в папке \AppData\Roaming\smy20011.dreambooth были сгенерены картинки референсы по классовому промпту и вы не словили ошибку о нехватке видеопамяти (будет у многих вангую) то поздравляю, у вас пойдёт тренировка, и вы увидите, как у вас будут лететь надписи Steps ****% |▋▋▋▇| ***/1000 [**:** < 00:00, *.**s/it, loss=0.***,lr=5e-6]

На тренировку модели в 1000 шагов моей RTX 3080 потребовалось почти пол часа. Чтож, когда увидим сообщение о том, что всё готово, заходим в папку вывода, и переименовываем как хотим и переносим .ckpt файл в папку с моделями нашего stable diffusion.

Training Command Finished! "jii\datasets\joyreac :tor:/instance • S s s s Steps: 100%' Steps: 100%|| Steps: 100%|| Steps: 100%|| Steps: 100%|| Training finished, check C:\Users\egorv\dreambooth-gui\outputs\joyreactor for model output. OK /it, loss=0.257, lr=5e-6] /it, loss=0.257,

Запустите SD, загрузите модель. Проверьте результаты, всё ли выглядит так, как должно, у меня получилось... приемлимо...

joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 3985740085, Size: 960x960, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

Модель DreamBooth

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Чистая NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну вроде неплохо. Но можно лучше.

У меня выходили и более презентабельные модели, чего стоит модель с моей рожей, что генерит меня с шансом 50%, а в остальных случаях Иисуса либо Джареда Лето либо двухголовую ебаку...

Вот пример с DB, а вот чистая NAI. Ну думаю, я бы мог вопроизвести похожий результат и без DB, но потребовалось бы куда больше промптов и попыток. Тем не менее, DB приближает качество и иполнение результатов, к тем, на какие мы тренировали, поэтому если тренируете на лицо, то оно даст намного чёткие и предсказуемые результаты, чем просто по запросу "лохматый бородатый мужик"

Если хотим закрепить результат и возможно улучшить, то рекомендую потренить и Textual Inversion - https://huggingface.co/docs/diffusers/training/text_inversion Это крошечная часть нейросети обученая на наборе картинок. требует поменьше ресурсов для тренировки, чем DreamBooth. С её помощью удобно воспроизодить стили и какие то объекты. Я потреню на том же датасете картинок, что и DB.

Тренировка Embeddings (Textual Inversion)

Идём в раздел SD webui который называется Train, и в первом подразделе Create embedding начинаем заполнять пункты.

Name - просто имя файла и в дальшейшем мы будем писать это название среди промптов, что бы задействовать нужный embedding. Поэтому я использую название, то же, что и у инстанс промпта в DB, что бы тригеррить их обоих разом.

В Initilization text вписываем описание персонажа, я описал его более подробно, ибо на реактор-тян оно почему то ловит затуп и генерит совсем шлак потом. А так обычно то же, что и class prompt в DB. Число векторов на токен я выставил 8, хотя чем больше это число, то тем больше примеров картинок лучше подготовить, но остановлюсь на этом.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3] txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation. Create embedding Create hypernetwork Preprocess images Train,нейросети,нейромазня,Stable

Теперь идём в Preprocess images, вводим путь до папки с изображениями и туда, куда их выгрузит. Ставим галочку на Use deepbooru for caption, не уверен, будет ли у вас эта функция, если нету или не работает, поставьте в аргументах запуска SD аргумент "--deepdanbooru", и тогда точно всё будет ок. Эта функция создаст текстовое описание для каждого изображения в формате тегов с danbooru, так сетка лучше обучится. Если трените не на NAI моделе, а что то реалистичное, то советую использовать, Use BLIP for caption, создаст промпты как если бы их писали для работы с обычной моделью SD 1.4... Так же уделите время и вручную проверьте КАЖДЫЙ созданый текстовый документ, и сверьте его с картинкой, постарайтесь удалить ненужные промпты или добавить, то что считаете нужно, не всегда оно создаёт описание корректно. Да это муторно, но стоит без этого может натренить сетку не на то, что мы желаем.

See wiki for detailed explanation. Create embedding Create hypernetwork Preprocess images Train C:\Users\egorv\stable-diffusion-webui\training\joyreactor Preprocess,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

OOOOO-O-Byyfgs.p 00000-0- Byyfgs.t 00001-0-Screens 00001-0-Screens 00002-0-Screens hot_1.png hot_1.txt hot_2.png 00002-0-Screens hot_2.txt 00003-0-Screens hot_3.png 00003-0-Screens hot_3.txt 00004-0-Screens 00004-0-Screens 00005-0-sdfdf.pn 00005-0-sdfdf.txt 00006-0-sdfsh3v 00006-0-sdfsh3v

И последний подпункт Train. Тут внимательно, можно ошибиться с пунктами и кнопками. Я помечу на скрине те пункты, которые мы трогаем, остальные игнорьте.

В embeddings выбираем наш созданый, в dataset directory указываем путь, куда мы выгружали изображения уже с описаниями, в prompt template file указываем путь до файла шаблона по которым оно будет трениться, я создал свой файлик, в котором внутри написано только [filewords] , прямо с квадратными скобками, это будет задействовать описания изображений которые мы создали раньше.

Save an image to log и save a cope of embedding, это параметры отвечающие за тестовое создание изображения на данном этапе тренировки и сохранинии текущего результата на момент шагов. Я генерирую изображение каждые 500 шагов и сохраняю прогресс каждые 1000, да бы проверить не произошла ли перетренировка модели, да бывыет и такое, её можно перетренировать, об этом после гайда...

И надеюсь вы не подумали, что я пропустил пункт с Embedding Learning Rate и Max Steps, то нет. Вот тут та же шляпа, что и раньше, и надо подбирать соотношения. В этот раз будем создавать поэтапно.

Для начала мы проведём тренировку на 200 шагов и Learning Rate 0.02, после увеличим число шагов до 1000 и уменьшим LR до 0.01, потом 2000 шагов и LR 0,005, 3000 и 0.002, 4000 - 0.0005 и в конце выставим 20000 шагов и скорость обучения на 0.00005. Чё страшно, запутались? Кароче, шляпа в том, что бы сетка не переобучилась, так мы её постепенно полируем, подробнее об этом после гайда в разделе с разными мыслями.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3] txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation. r \ Create embedding Create hypernetwork Preprocess images Train Train an embedding or Hypernetwork;

Вот выставили 200 шагов и 0.02 скорость, она прогонит по этим параметрам и закончит, не закрываем ничего, меняем параметры на следующие по списку, 1000 шагов и скорость 0.01 и опять жмём Train Embedding и опять идёт тренировка уже дальше с новыми данными. И т.д до конца. 20000 шагов золотая середина как по мне. У меня на это уходит около полутора часа, побольше, чем на тренировку DreamBooth, результат не будет сверх разиться, но будет чуть более в нужном нам направлении.

Loss: 0.0780509 Step: 15526 Last prompt: lgirl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, smoking, :d Last saved embedding:

Training finished at 200 steps. Embedding saved to C:\Users\egorv\stable-diffusion-webui\embeddings\joyreactorchan.pt,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

[Epoch 24: 800/800]loss : 0.096Б130: 100% 16000/16000 [1:18:42<00:00, 3.39it/s],нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Вот примеры, того что по итогу вышло.

masterpiece, best quality, joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, solo, standing, upper body
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry, portrait
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 370310831, Size: 768x768, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth без Embeding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

И без DreamBooth и без Embedding на чистом NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну Embedding иногда подтягивает, некоторые результаты, иногда может быть лишним. Довольно ситуативная и спорная вещь, но вот на DreamBooth сразу узнаётся Реактор-тян, нежели на обычной NAI с теми же хорошо подобранными промптами.

И да, знаю, что вероятно будут просить уже готовую модель, так что держите ссылки на модель на Реактор-тян и готовый Embedding:

https://drive.google.com/file/d/1s2z1grZvNdVxkw5uHJQIWKecgeV39tWp/view?usp=sharing

https://drive.google.com/file/d/1pft2NvHGi5xaJ61LctRc2Lf4aixHke0Z/view?usp=sharing

Лучше пусть кто то забэкапит, а то мало ли я буду облако чистить.

Hypernetworks

Если не получилось натренить DreamBooth, то попробуйте гиперсети. Тоже прикольные результаты можно получить, если постараться.

Тренить гиперсеть на реактор-тян я не буду, поэтому опишу как делал ранее с другими вещами. Если желаете ознакомиться с материалом, по которому я и сам тренировался, прошу - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670

Процесс тренировки схож с тренировкой embeddings.

Так же в заходим в раздел Train, и уже в подпункт Create Hypernetwork. Имя гиперсети пишем какое хотим, без разницы, модули 768 320 640 1280 оставляем как есть.

Теперь тут свои завертоны пойдут, просят ввести структуру слоёв гиперсети:

Для широких гиперсетей: 1, 3 ,1 или 1, 4 ,1

Для глубоких гиперсетей: 1, 1.5, 1.5, 1 или 1, 1.5, 1.5, 1.5, 1 или 1, 2, 2, 1

Широкие: подходят для запоминания новых вещей, таких как конкретное животное, человек или объект.

Глубокие: подходят для обобщения вещей, таких как стили.

Поэтому исходите из этого, для реактор-тян я бы выбрал 1, 3, 1

Следующий пункт, select activation function of hypernetwork:

Для аниме (NAI, Waifu и т. д.): Selu, Gelu, mish

Для фотографий: Relu, swish, mish,leakyrelu, rrelu

Теперь Select Layer weights initialization. Для аниме ставим xaviernormal. Если фото и т.д то по умолчанию normal.

Остальные галочки ниже необязательны.

txt2img img2img Extras PNG Info Checkpoint Merger See wiki for detailed explanation. Train Create aesthetic embedding Settings Extensions Create embedding Create hypernetwork Preprocess images Train Name Modules ✓ 768 ✓ 320 ✓ 640 ✓ 1280 Enter hypernetwork layer structure 1,2,1 Select

Потом так же подготавливаем изображения как и с embeddings, это я не буду повторять и переходим сразу в Train.

Выбираем так же как и при тренировке embedding путь до шаблона, папку с датасетом из наших картинок с текстом, сохранение результатов и картинок.

Теперь выбираем нужную гиперсеть в выпадающем списке Hypernetworks. Изменять будем раздел Hypernetwork Learning rate, а не Embedding Learning rate, как раньше и жать будем на Train Hypernetwork, а не Train Embedding.

Create embedding Create hypernetwork Preprocess images Train Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] Batch size 1 Dataset directory Path to directory with input images Log directory textualjnversion Prompt template file

Вот примеры хороших соотношений последовательностей Steps к LR:

Для обычных людей - 0.00005:100, 0.000005:1500, 0.0000005:10000, 0.00000005:20000

А вот для извращенцев - 0.00005:100, 0.000005:1500, 0.0000005:2000, 0.00005:2100, 0.0000005:3000, 0.00005:3100, 0.0000005:4000, 0.00005:4100, 0.0000005:5000, 0.00005:5100, 0.0000005:6000, 0.00005:6100, 0.0000005:7000, 0.00005:7100, 0.0000005:8000, 0.00005:8100, 0.0000005:9000, 0.00005:9100, 0.0000005:10000, 0.000005:10100, 0.00000005:11000, 0.000005:11100, 0.00000005:12000, 0.000005:12100, 0.00000005:13000, 0.000005:13100, 0.00000005:14000, 0.000005:14100, 0.00000005:15000, 0.000005:15100, 0.00000005:16000, 0.000005:16100, 0.00000005:17000, 0.000005:17100, 0.00000005:18000, 0.000005:18100, 0.00000005:19000, 0.000005:19100, 0.00000005:20000. Этот вариант выглядит монструозно, но я его тестировал лично, и довольно хорошо работает при условии, что вы подобрали хорошие примеры изображений и текстовые описания к ним.

И так же поэтапно треним как и embedding... ВСЁ!

ВОДА и Q&A!!!

Ахренеть, как буд-то по новой пишу дипломную, но только с надеждой в том, что кому то это поможет и он воспользуется этим материалом, либо же просто покекает с того, что я потратил на это несколько недель, начиная от поиска нормального способа запуска DreamBooth и заканчивая десятком часов на попытки разобраться в особенностях и нюансах, ну и этот текст я пишу уже где то часов 6 нонстоп, набралось уже 2 c половиной тысячи слов! серьёзно, надо хоть воды налить себе, ха отличная шутка.

1)Q: Почему так сложно?

A: А кому легко?

2)Q: Можно ли было уместить это в 5 абзацев на 500 слов в общем?

A: Не знаю, пишу как умею, кто умер от духоты и захлебнулся в воде, простите)

3)Q: У меня видеокарта ******, у меня заработает?

A: Не знаю. Скорее всего на AMD, вообще никак. Если у вас есть в карте тонна видеопамяти, то должно. Либо попробуйте запустить, через Google Colab, Runpod и прочие облака с арендой видеокарт и работы с их мощностями. Я НЕ БУДУ ПИСАТЬ ГАЙД ПО КОЛАБУ, НЕЕЕЕТ!

4)Q: Не надоело ли писать вопросы и ответы?

A: Да, чёт устал, задавайте в комментариях, отвечу как смогу.

Теперь ВОДА и прочие размусоливония которых, я старался избегать в основной части гайда.

Подойдите к этапу подбора изображений для тренировки максимально отвественно и серьёзно, ибо от того какие изображения вы скормите, во многом будет зависить результат. Так же качество > колличество, будет хорошо если вы задействуете 10 годных примеров, нежели 30 посредственных. Я стараюсь выдерживать единый стиль изображений, если одна картинка будет от карандаша, другая 3D CGI, а третья в стиле Пикассо, то выйдет так себе и выйдет мешанина из этого всего. Если тренирую персонажа, то стараюсь делать акцент на лице, тело можно будет и промптами задать, но вот получить нужное лицо сложно, ну за этим и нужен DB.

Во многом из за конвертации .ckpt в diffusers я неделю ломал голову, ибо обычным скриптом предназначеным для этого у меня не выходило, но как видите удалось, а именно при помощи гуглколаба от TheLastBen. Необходимо было залить модель в колаб, прогнать через его скрипт, и выгрузить результат себе на гугл диск. В скорой версии Dreambooth gui v.0.1.9. появится возможность использовать .ckpt и программа сама будет его конвертировать. 

Вот теперь мы пришли к одной из самых важных вещей, во круг которых строятся различные догадки и теории заговоров... А именно зависимость количества шагов тренировки (Training Steps) и скорости обучения (Learning Rate или LR).

Число шагов обучения ~= кол.во изображений * 100, у меня 8 изображений, поэтому оптимально было бы 800, но я округлил до 1000, потому что хочу. По скорости обучения ещё сложнее, но держим в голове несколько вещей, больше steps = меньше LR, и наоборот. Так же главное не перетренировать модель. Представьте этот процесс как работа по дереву. У вас есть бревно и вы хотите обтесать из него фигуру. Поставите слишком высокий LD и срежете слишком много кусков и модель будет перетренирована и бракована. А поставите если поставите слишком низкий LR, то представьте, как мелким скальпелем обтёсываете огромное бревно дуба до размера фигурки.

Пока тестил эту байду, знакомый кидал идеи на чё попробовать тренить, приложу ещё примеры DB и embedding под персонажа Макимы из Человека Бензопилы (Аниме), но её я уже делал на немного допилиной модели - Anything-V3.0, про неё уже сделали пост - https://joyreactor.cc/post/5385144

masterpiece, best quality, makimacmdb, makima \(chainsaw man\), 1girl, medium hair, pink hair, sidelocks, bangs, braid, braided ponytail, eyebrows visible through hair, orange eyes, ringed eyes, breasts, medium breasts, shirt, collared shirt, shirt tucked in, black pants, suit, business suit, formal jacket, long sleeves, necktie, black necktie, light smile, expressionless, looking at viewer, solo, gradient background, cinematic, filmic, telephoto, depth of field, lens distortion, lens flare, white balance, strobe light, volumetric lighting, dramatic lighting, little haze, ray tracing reflections, detailed, intricate, elegant, realistic
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), dark skin, hair ornament , troubled eyebrows, big breast, yumemi riamu
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 1316407258, Size: 896x896, Model hash: e02601f3, Model: makimaANY, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Без DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как и писал выше, иногда Embedding лишний, некоторые результаты, лучше без него, некоторые с ним. Сутуативная хреновона, но лучше будет, чем нет.

КОНЕЦ.

Развернуть

Portal Игры Portal 2 Portal reloaded trailer Gameplay Steam 

Portal Reloaded - Reveal Trailer



Страница в Steam:
https://store.steampowered.com/app/1255980/Portal_Reloaded/

Развернуть

Отличный комментарий!

Вкратце - это "community made mod", не перезапуск и не аддон.
Arwin Arwin11.11.202016:05ссылка
+41.3
Tlanexyotl Tlanexyotl11.11.202016:59ссылка
+64.6

X-Files фэндомы Фокс Малдер Дана Скалли 

X-Files,The X-Files,фэндомы,Фокс Малдер,Дана Скалли,X-files,fandoms,
Развернуть

Комиксы Симпсоны садовник Вилли реактор всем добра длинные картинки 

Мнение автора может не совпадать с мнением садовника Вилли.
Поэтому автор не несёт ответственности за содержание данной публикации и вообще ни за что.
КАК РЕАКТОРЧАНЕ И ЧАНЕРЫ. ИЛИ КАК РЕАКТОРЧАНЕ И ПИКАБУШНИКИ. ИЛИ РЕАКТОРЧАНЕ И 1001МЕМЕРЫ. ИЛИ РЕАКТОРЧАНЕ И ДРУГИЕ РЕАКТОРЧАНЕ. ЧЁРТОВЫ РЕАКТОРЧАНЕ! ИЗГАДИЛИ ВЕСЬ РЕАКТОР!,Смешные комиксы,веб-комиксы с юмором и их переводы,Симпсоны,садовник Вилли,реактор,всем добра,длинные картинки
Развернуть

X-Files фэндомы перезапуск 

Disney готовит перезапуск «Секретных материалов» от режиссёра "Чёрной Пантеры".

Издание Bloomberg сообщило, что Disney работает над перезапуском «Секретных материалов». Знаменитый научно-фантастический сериал получит переосмысление, за которое будет отвечать Райан Куглер, режиссёр «Чёрной Пантеры».

Таким образом, журналисты подтвердили слова создателя сериала Криса Картера, который сообщил об этом ещё в марте. Автор проекта заявил, что одним из главных отличий перезапуска станет инклюзивный актёрский состав и упор на современное представление о внеземном разуме.

Источник

X-Files,The X-Files,фэндомы,перезапуск
Развернуть

Отличный комментарий!

Свою достойную франшизу раскрутить конечно сложнее, чем надругаться над иконой.
iNji iNji17.02.202416:34ссылка
+70.3
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме the core media file (+1000 картинок)