Результаты поиска по запросу «

your personal waifu

»

Запрос:
Создатель поста:
Теги (через запятую):



нейронные сети ChatGPT gpt локальные языковые модели google colab длиннопост SillyTavern LM вайфу 

Руководство по общению с нейровайфу. Часть 2. Глупая Таверна.

Привет всем кто в теме и кто только присоединился!

Предыдущийпост https://joyreactor.cc/post/5733950

Рассказывал о том, как быстро и просто запустить локальную языковую модель на удалённом сервере google colab и начать общение нейротян.

Но теперь настало время взяться за дело серьёзно, встречайте:

Простое руководство по SillyTavern.

(автор не гарантирует, что написанное строчкой выше правда)

Предварительнаяустановка

1.  Переходим поссылке https://nodejs.org/en/download искачиваем LTS версию. Нам подойдет и она.

2.  Когда скачали,запускаем установку.

3. (опционально)Перейдите по ссылке https://git-scm.com/downloads и скачайте Git,для упрощения обновлений и прочего.

4. (опционально) Переходимпо ссылке https://www.python.org/downloads/ и качаем питонпоследней версии. Не то чтобы он был вообще нужен для установки таверны, но разуж мы начали идти по пути LLM, не стоит останавливаться надостигнутом!

5. Установка завершена.Переходим к самой таверне.

Установка SillyTavern.

С использованием Git:

1. Выбираем папку, нажимаем ПКМ, git bash HERE.

2. Вводим в консоль git clone https://github.com/SillyTavern/SillyTavern 

3. Для того что бы установить staging branch добавляем после ссылки -b staging

4. Всё устанавливается

Без использования Git:

1. Переходим поссылке https://github.com/SillyTavern/SillyTavern/tree/staging

2. Нажимаем на зеленую кнопку Code и download zip

3. Теперь, когда мы скачали наш ZIP архив (не важно, стейджинг ли этоверсия, или обычный релиз)
Мы берем и открываем ZIP (архив) и достаем оттуда папку, в любое удобное намместо.

*Лично я предпочитаю именно этот метод, сохраняя вотдельной папке каждую новую версию таверны, начиная с момента, когдасуществовала только оригинальная TavernAI, ещё храню в каждойпапке полный набор актуальных на тот момент скриптов, промптов и персонажей.Зачем? Вдруг пригодится!

Запуск таверны

После этого мы запускаем start.bat
Когда мы запустили start.bat, мы видим NPM install. Нам нужно дождатьсяустановки, затем оно само запустится.

*Если вам пишет missing module название модуля, то нужно ввестикоманду npm install название модуля, и так пока вы не установитевсе нужные.

Когда установка закончится, автоматически откроется вкладка браузера с интерфейсом таверны.

При первом запуске вы увидите сообщение 

Welcome to SillyTavern! • Read the Official Documentation. • Type /help in chat for commands and macros. • Join the Discord server for info and announcements. SillyTavern is aimed at advanced users. If you're new to this, enable the simplified UI mode below. ■ Enable simple UI mode Before

Которое предложит вам заранее ввести имя, по которому к вам будет обращаться модель. Можете оставить его как есть и представиться кем угодно походу беседы, либо ввести своё имя, но тогда к вам всегда будут обращаться по нему. (Старые модели вроде Pygmalionвместо User, определяют пользователя как You)

*Также вам предложит включит упрощённую версию интерфейса. НЕ ДЕЛАЙТЕ ЭТОГО!

Раз уж вы решили идти дальше пути текстовых нейросетей то привыкайте страдать!

Подключение к нейросети.

Теперь настало время изучить иконки расположенный сверху

Но делать это мы будем не по порядку, начнём с главного, источника. Тавернаэто очень удобный, но всё-же фронтенд. Иконка API предлагает нам выбратьоткуда конкретно мы будем черпать нейросетевые ресурсы.

Рассмотрим основные пункты, представляющие практический интерес.

1. Text Completion.

API Text Completion API Type Default (oobabooga) oobabooga/text-generation-webui Убедитесь, что при запуске указали аргумент --extensions openai Server URL Example: http://127.0.0.1:5000 https://minolta-analysts-among-madrid.trycloudflare.com/ Custom model (optional) Подключить Ш Legacy

Первый пункт «TextCompletion» Предлагает вам подключить к вашей таверне в качестве бекэнда text-generation-webui.
О том, как его запустить написано в предыдущем посте. Ссылка на колаб: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
Но прежде чем использовать его как API,убедитесь что отключены google translate и sileroTTS, они будут мешать генерации.
Чтобы подключить запущенный webui к таверне Скопируйте ссылку после строки'OpenAI-compatible API URL:' и вставьте её в 'Server URL'

При запуске локально дефолтный адрес подключения http://127.0.0.1:5000/api

2. KoboldCPP.

▼ API Text Completion API Type KoboldCpp LostRuins/koboldcpp API URL Example: http://127.0.0.1:5001 http://127.0.0.1:5001 Подключить koboldcpp/openhermes-2.5-mistral-7b.Q5_K_M О Автоматическое подключение к последнему серверу,нейронные сети,ChatGPT,gpt,локальные языковые модели,google

Этот пункт предлагает нам подключить к таверне аналог text-generation-webui,под названием «Koboldcpp»

Главных отличий от предыдущего сабжа два:

- Кобольд предназначен для запуска моделей,оптимизированных для процессора. Сейчас это формат GGUF

- Сильно проще в локальном запуске на Windows. Всегоодин exeфайл,после запуска которого вам предложат выбрать файл модели кнопкой «Browse». Изнастроек для начала можно выставить контекст в размере 4096. Для запуска этогоуже достаточно.

c KoboldCpp v1.48.1 Quick Launch Hardware Tokens Model Network Quick Launch Presets: Threads: BLAS Batch Size: «/ Launch Browser □ Use SmartContext s/ Use ContextShift Context Size: Model: Update Save Load Help Use OpenBLAS 5 512 □ High Priority □ Disable MMAP □ Remote Tunnel

У кобольда есть даже свой интерфейс чата, но он сильноуступает как webui так и таверне.

В качестве API URL в таверне вводим http://127.0.0.1:5001/api

Скачать последнюю версию можно здесь: https://github.com/LostRuins/koboldcpp/releases/

Почитать о разных загрузчиках и прочих вы можете на основнойстранице гитхаб: https://github.com/LostRuins/koboldcpp

Если ваш комп не тянет, есть также колаб: https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb
Куда же без него.

3. ChatCompletion

Здесь нам предлагается подключиться к APIсоответствующихсервисов, при условии, что у нас есть ключ.

API Chat Completion Источник для Chat Completion OpenAI OpenAI Window Al OpenRouter Claude Scale AI21 Google MakerSuite MistralAI | Custom (OpenAI-compatible)___________________________ Модель OpenAI gpt-3.5-turbo ■ Bypass API status check Ш Показать "сторонние" модели

Выбираем поставщика, вводим ключ, радуемся! В целом всёпросто (кроме получения самого ключа)

4. KobaldAIHorde.

Но не печальтесь, если у вас нет ключа к GPT4 Turbo, нам поможет сервис AIHorde https://horde.koboldai.net/
(это не троллинг если что, нет правда!)

Более того, это, пожалуй, самый интересный пункт, потому чтоон позволяет нам сразу, без танцев с бубном, подключиться к языковой модели.

Всё что нам нужно это поставить курсор в поле Модели ивыбрать любую из них:

API-КЛЮЧ Получить здесь: Регистрация (Посмотреть мой penrnHr(Kudos)) Вставьте 0000000000 чтобы использовать анонимный режим. X Missing key Модели С* Select Horde models koboldcpp/LLaMA2-13B-TiefighterLR (ETA: 334s, Speed: 16.3, Queue: 5459, Workers: 1)

*Модели из списка работают на аппаратных мощностях участников сообщества и доступны для бесплатного использования! НО когда много людей сидит на одной модели, образуется очередь, а у анонимных подключений приоритет в очередях самый низкий.
Если хотите получить преимущество, регистрируйтесь https://horde.koboldai.net/registerЗа это вам выдадут личный ключ
API, который можно будет вбить в таверну. Далее устанавливайте хорду и фармите Кудосы помогая людям, не имеющим мощного железа, приобщаться к нейронкам!

Какая модель лучше вопрос спорный.
Можете, например поизучать этот рейтинг: http://ayumi.m8geil.de/ayumi_bench_v3_results.html

По мне так методика тестирования в Аюми такая себе, но ничего лучше пока не встречал.

При подключении, не забудьте выставить галочку «Уточнить длину ответа в соответствии с возможностями рабочих машин» Иначе получите ошибку, если контекст установленный на сервере будет меньше вашего.

О Уточнить размер контекста в соответствии с возможностями рабочих машин О Уточнить длинну ответа в соответствии с возможностями рабочих машин ■ Только доверенные рабочие машины Context: 1024, Response: 256,нейронные сети,ChatGPT,gpt,локальные языковые модели,google

В принципе после этого уже +- можно начинать общение!

Поэтому переходим к обзору основных нюансов общения с нейровайфу.


Песеты настроекгенерации.

Первая из них это параметры генерации модели. 

т ¥ а I ¿0 И & 9 Е£ ^ Можно установить вручную, использовав цифру рядом с ползунком е Предустановки Kobold О RecoveredRuins V u ra a t Л т Длина ответа (в токенах) Размер контекста (в токенах) 400 8192 * в Неограниченный О Температура О Тор-кО 1,00 0 ТорРО Typical Р О

Главное, на что здесь стоит обратить внимание это
1. Длина ответа в токенах – ограничивает размер ответа модели.
2. Размер контекста – сколько текста вы посылаете нейросети при каждом запросе*

* тут стоит сделать небольшое отступление: многие думают, что общение с нейросетью происходит как с человеком. Вы ей что-то пишите – она на это запоминает и учитывает в последующих ответах. Это не совсем так: языковая модель может дать всего один ответ на один запрос. Памяти как таковой ни у одной современной LLM нет в принципе. Так как-же тогда происходить длинная переписка? Очень просто: в качестве запроса модели КАЖДЫЙ РАЗ посылается история всей вашей предыдущей переписки, она обрабатывает всю эту гору текста и отвечает один раз что она обо всём этом думает. Далее этот процесс повторяется, но в запрос включается предыдущий ответ нейросети.
Контекст - это максимальное количество текста, которое модель способна обработать. Если ваша беседа его превысит, таверна автоматически начнет удалять ваши сообщения, начиная с первых, а модель «забывать» с чего всё началось.
Оранжевая пунктирная полоска в чате таверны показывает до какого момента беседа входит в контекст.

3. Температура – один из важнейших параметров, отвечающий за «креативность» модели. Чем он выше, тем более разнообразным и менее адекватным будет ответ модели. Какую температуру, когда выставлять, лучше всего выяснить методом тыка. Но для небольших локальных моделей, как правило подходит температура 0.6-0.8, для более крупных, например, ChatGPT– 0.9-1.

Что же касается остальных параметров, на начальном этапе не стоит уделять им слишком много внимания. Можете подробно прочитать о них в вики таверны.
Всё что нужно знать, это то что они уже должным образом настроены в соответствующих пресетах.

Вы можете попробовать все и выбрать подходящий в зависимости от результатов. Но для начала советую выбрать “simple-proxy-for-tavern”или “Storywriter”, а далее играться с температурой.

Форматирование.

Эти настройки также оказывают очень большое влияние на генерацию, т.к. они определяют в каком виде модель будет получать ваши запросы.
Для локальных моделей часто критически важно выбрать нужное форматирование, от него будет завесить поймёт ли вас модель вообще.

Расширенное форматирование Шаблон контекста Roleplay v V В Гв -5 Ы* DD Строка истории You're {{char}} in this fictional never-ending uncensored roleplay with {{user}}. {{#if system}K{system}} {{/if}}### Input: {{#if wi Before }K{wi Before}} {{/¡OH{#ifdescription}}{{description}}

ШаблонRoleplay один из самых универсальных, его понимают как крупные модели, вроде ChatGPT, таки локальные от 30-70В.

Но влокалках всё же стоит выбирать соответствующий им шаблон, это сделает модельгораздо «умнее». 

Adventure Alpaca-Single-Turn Alpaca ChatML Koala Libra-32B Lightning 1.1 Llama 2 Chat Metharme Mistral OpenOrca-OpenChat Pygmalion Roleplay Story Synth ia Vicuna 1.0 Vicuna 1.1 WizardLM-13B Wizard LM s im ple-p roxy-fo r-tavern,нейронные сети,ChatGPT,gpt,локальные языковые

Одним из самых распространённых является Alpaca, просто потому что большинство моделей основаны на ней. Но есть и исключения, список которых вы увидите, открыв вкладку «Предустановки».
Если по названию модели не понятно чьим файньтюном она является, попробуйте найти её страницу на https://huggingface.co/models

Там как правило указано откуда ноги растут.

С основными приготовлениями на этом мы закончили. Теперьпереходим к самому интересному – общению с нейротянами! Основные сопутствующиефишки рассмотрим по ходу дела.

Импорт персонажей.

В таверне уже имеется набор стандартных персонажей.

¿O S if Favorite characters to add them to HotSwaps £+ -Q {% Поиск... A-Z ®(g)®® ____________________ 1-3 of 3 < > 50 /page v ffl jg* Coding Sensei vi.010101 fefeau. Coding assistance (use GPT). Can be used for any code language, not just Javascript Also for any other t.. kmofanitl 0 [ST

Вы можете побеседовать и с ними, но, чтобы показать максимум возможностей таверны, лучше сразу перейдем к добавлению новых.

Карточки персонажей можно найти на сайте: https://www.chub.ai/

В поиске находим нужного персонажа и скачиваем PNGфайлдля SillyTavern

https://www.chub.ai/characters/thecentuaro/rin-tohsaka

Rin Tohsaka LATEST <T Favorite Rin Tohsaka is a kind, but sarcastic and tsundere girl. She's one of main characters in a Fate/Stay Night. Rin Tohsaka is a kind, but sarcastic and tsundere girl. She's one of main characters in a Fate/Stay Night. It is currently lunch break and Rin Tohsaka is

Кроме того, если есть, скачиваем Expressions ZIP и Лорбук (внизу вкладки Tavern, после описания карточки)

Link a Lorebook Any number of linked books is allowed. They will be built into the card's embedded character book on V2 cards. Use the full path of the project, e.g. 'lorebooks/bartleby/example-lorebook'. ^ Fate Lorebook Fate series basic lores Fate Approximately 10177 Tokens gimc25419 Jun

Карточку персонажа кидаем в SillyTavern-staging\public\characters

Туда же извлекаем изображения из архива Expressions, папку не переименовываем, она должна соответствовать имени персонажа.

w Rin Tohsaka default_Seraphin a.png Seraphina README.md main_rin-tohsaka _tavern.png default_CodingS ensei.png default_FluxTheC at.png,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Лорбук же кидаем в SillyTavern-staging\public\worlds

Имя Дата изменения Тип Размер О ЕИопа^оп 12.01.2024 17:20 Файл 'МБОМ" 6 КБ О fate-lorebook_s¡llytavern.json 13.01.2024 19:41 Файл 'МБОМ" 89 КБ □ README.md 12.01.2024 17:20 Файл "МО" 1 КБ,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Теперь можно обновить вкладку с таверной и нажать на иконку с появившимся персонажем.

¿+ ¡j £% *•£ floncK... A-Z *x*; p ^ 1-4 of 4 < > 50/page v ffl Coding Sensei vi.010101 m Coding assistance (use GPT). Can be used for any code language, not just Javascript Also for any other t.. (ST Default] Flux the Cat ST Default Bot contest winner: creative prompts category (ST

.*• Rin Tohsaka January 13.2024 7:52 PM ■ -r C , ■ f v It is currently lunch break and Rin Tohsaka is waiting for User on the school rooftop, #0 normally closed. It's where he shares information with her as part of her deal with this apprentice mage. As he enter she looks at him while wearing a

Но при открытии мы увидим что чат на английском, а Рин обращается к нам как к Юзеру.
Чтобы исправить жмем на иконку Расширения и открываем вкладку Chat Translation

т * a s £» и & т s Расширения Ш Notify on extension updates & Manage extensions £% Install extension Download Extensions & Assets Character Expressions Image Generation Image Prompt Templates TTS Quick Reply Chat Translation Auto-mode Translate both Provider Google Target Language Russian

Здесь выбираем пункт Translation both, Googleи Русский язык.

£ Миры/Сведения 9 Активные миры для всех чатов * fate-lorebook_sillytavern Activation Settings ($> New или Редактировать v £ /-* КУ Priority V •о и л в а е + P S Ü, la DD Поиск... IIL.I\IIIU I ICI LUI lUUC. Г11IUII V, MUCH MC UUUCUM,,нейронные сети,ChatGPT,gpt,локальные языковые

Затем идём во вкладку «Миры» и выбираем Fate, чтобы беседа была более каноничной.

«Лордбуки» это сборники кратких сведений о мире или персонажах, в дополнение к основной карточке. Интересны они тем что, в отличие от карточки, количество записей в лорбуках не ограничено. Просто, когда речь аходит о каком-то событии или термине, название которого совпадает с записью влорбуке, таверна добавляет эту запись к промпту, чтобы модель понимала о чём идёт речь.

Я пару раз использовал лорбук для того чтобы написать персонажей с очень сложной предысторией, на десяток тысяч токенов) и это прекрасно работало при контексте всего в 4к.
Кроме того лорбук вполне можно использовать как замену «памяти» бота, записывая в него занимательные факты из вашего общения. Минус в том, что делать это надовручную.

Теперь заглянем в раздел Управления персоной. Здесь вы можете как описать свою личность, так и притвориться кем-то другим. Лично я всегда предпочитаю писать правдивое описание себя, ведь именно так вас будет воспринимать бот.

Управление Персоной Как мне это использовать? Usage Stats Backup -5 Restore f© Создат Имя Ваша Персона Ignat Описание Персоны ^ 6 С Race: Human Height: 199 cm. Weight: 120 kg. Penis size: 35 cm. Description: Athletic young man with short hair. His pumped-up figure is adorned with muscle

Кроме того, можно выбрать (или сгенерировать, об этом позже) подходящий фон беседы

 A bedroom tatami ff1*' j f «I '(* cityscape medieval night japan classroom side japan classroom japan path cherry blossom bedroom clean System Backgrounds S Auto-select cityscape medieval market .transparent bedroom cyberpunk > ; . . - ■ forest treehouse fireworks air baloons (by

По большей части всё – можно беседовать!

▼ А Rin Tohsaka January 13.2024 8:35 PM V Сейчас обеденный перерыв, и Тосака Рин ждет Игната на крыше школы, которая обычно закрыта. Здесь он делится с ней #0 информацией в рамках ее сделки с этим учеником мага. Когда он входит, она смотрит на него с игривым выражением лица и приветствует

Стрелка справа от ответа персонажа это «свайп», при нажатии на неё сгенерится другой ответ, но вы всегда можете вернуться к предыдущему. Карандашик позволяет отредактировать любую реплику, как свою, так и бота в любой момент. Это очень полезно, если вдруг появилось желание разыграть другую сцену или просто что-то слегка подправить.

При нажатии на иконку персонажа, вы увидите его описание, которое точно также можно изменить в любой момент.

Что-ж, это был необходимый минимум, для начала использования таверны.

Но для тех, кому этого мало, продолжаем!

Особые возможности.

Преобразования вашей речи в текст. (STT) (понадобится микрофон)

Открываем расширения, вкладку «Download Extensions &Assets» и жмём кнопку подключения, соглашаясь с всплывающим сообщением.

т * а ш it, n & Расширения 0 Notify on extension updates & Manage exl Download Extensions & Assets Q Quick Reply Assets URL Chat Translation https://raw.githubusercontent.com/SillyTavern/SillyTave 11 ▼6 Image Captioning Extension Summarize & To download extensions from this page, you

Появится длинный список из разного рода улучшалок. У всех есть описания и их все вы можете попробовать самостоятельно, но я советую начать с «Speech Recognition»

Speech Recognition C3 Convert your speech to text using browser or extras.,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

После установки в расширениях появится новая вкладка. В ней нужно выбрать «браузер» и Русский язык. После этого рядом с кнопкой отправки сообщения появится также иконка микрофона, нажимаем её и говорим.

Преобразование текста в речь (TTS)

Дальше будет чуть сложнее, потому что теперь мы дадим голос ещё и нашей вайфу!

Для этого понадобится настроить вкладку расширений TTS.

TTS TTS Provider Loaded Select TTS Provider XTTSV2 Eleven Labs Silero XTTSv2 System Coqui Edge Novel OpenAI_____________ Reload,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Здесь интереснее всего 2 пункта: Silero и XTTSv2.

Результат работы Silero вы могли слышать в колабе text-generation-webui.Но в таверне подключение этого модуля на русском языке вызывает некоторое количество боли, так что как-нибудь в другой раз.

Поэтому подключаем https://github.com/daswer123/xtts-api-server

Вы можете установить его локально, следуя инструкции, но для начала лучше попробовать колаб: https://colab.research.google.com/drive/1b-X3q5miwYLVMuiH_T73odMO8cbtICEY?usp=sharing#scrollTo=nLS9QDgnrUmR

В настройках в строке Model_source: выбираем «apiManual»

Choose model source Model_souree: apiManual If you select local, the model of version Model_version will be loaded. Will use local transform.,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Затем просто запускаем все ячейки по очереди сверху вниз, пока в консоли последней не получим строчку

> Using model: xtts 2024-01-13 14:08:13.355 | INFO | xtts_api_server.tts_funcs:load_model:193 - Model successfully loaded INFO: Started server process [1364] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8020 (Press CTRL+C

После этого прокручиваем консоль в самое начало и ищем ссылку

Your url for SillyTavern: httos://emerging-sims-researcher-im.trvcloudflare.com,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Именно её нужно вставить в таверну:

XTTSV2 v Reload O Enabled 0 Narrate user messages O Auto Generation 0 Only narrate "quotes" O Ignore *text, even "quotes", inside asterisks* O Narrate only the translated text 0 Skip codeblocks [Default Voice] disabled v Ignat (Default Voice] v Rin Tohsaka female v Language Russian v

После этого настройки должны выглядеть так. Если поля с выбором голоса персонажа не появилось, перезагрузите страницу и снова войдите в чат с персонажем. Ползунки можно пробовать двигать, чтобы получить другой результат.

Голос для персонажа нужно выбрать обязательно, иначе он не заговорит.

Запустить озвучку фразы можно кнопкой

ЕвУ14<2>#рансР^ , ожидая увидеЩЦШ!Ш1ШЛ^ю юзнаградить-». ррт. но пстпнпвливпртся но,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Но если вы настроили всё как на картинке, генерация будет идти автоматически после ответа.

Эмоции и сумморайз.

Теперь мы наконец-то можем общаться в живую! Но как-жевизуальный контакт? Разумеется, это тоже не обошли стороной, именно для этого мы с вами скачивали спрайты эмоций в папку с персонажем!

Для этого нам понадобится запустить отдельный сервер расширений.

Итак, идём на гитхаб https://github.com/SillyTavern/SillyTavern-Extras

Лучше поставить всё это локально следуя инструкции на странице (что гораздо удобнее для повседневного использования).
Но попробовать можно и в колабе (не опять, а снова)

https://colab.research.google.com/github/SillyTavern/SillyTavern/blob/release/colab/GPU.ipynb

Ничего не меняем, запускаем последнюю ячейку и ждём ссылки

Running on: https ://king-wellness-congressional-fake.trvcloudflare.com * Serving Flask app ’server' * Debug mode: off WARNING: This is a development server. Do not use it in a production deployme * Running on http ://localhost : 5100 Press CTRL+C to quit,нейронные сети,ChatGPT,gpt,локальные

Ссылку вставляем в нижнее поле окна Расширения

Расширения Download Extensions & Assets Character Expressions Image Generation ? Image Prompt Templates TTS Speech Recognition Extras API: SillyTavern-Extras https://king-wellness-congressional-fake.trycloudflare.com E & Notify on extension updates & Manage extensions A Install extension Q

Затем для удобства, рекомендую включить !!!РЕЖИМ ВАЙФУ!!! В настройках визуала.

Gill Настройки пользователя Advanced v •о И ^ 0 S Язык интерфейса По умолчанию v SillyTavem 1.11.2 j Search Settings Предустановки интерфейса Default (Dark) 1.7.1 ^ В ft Цвета интерфейса Стиль аватаров Крутые v Стиль чата по умолчанию v Основной текст Курсивный текст Текст в кавычках

И вот, мы уже можем общаться лицом к лицу! Алилуйа!

его на крыше, немного раздосадованная его опозданием, цокая языком. Наконец, когда он появляется, она начинает довольно рычать. «Ну и сколько мне пришлось тебя ждать? Ты опоздал! Опять!» Ignat January 13, 2024 8:35 PM Is Привет! Rin Tohsaka January 13,2024 8:38 PM V Она смотрит на него с

Спрайты персонажа будут меняться в зависимости от его «эмоций». Кроме того, они могут быть анимированы (но встречаются такие редко).

Также стоит упомянуть о вкладке Summarize в расширениях.

Это очень полезная штука, увеличивающая «память» бота. Работает это так: в какой-то момент, пока размер контекста ещё не превышен, модель кратко конспектирует суть происходящего. Затем этот «конспект» будет отправляться вместо не входящей в контекст истории чата.

Summarize with: Extras API Current summary: Summary will be generated here... S Pause O Summary Settings Insertion Template [Summary: {{summary}}] Injection Position • Before Main Prompt / Story String O After Main Prompt / Story String • In-chat @ Depth 2 Restore Previous •

Summarize & Summarize with: Main API /\ Current summary: Restore Previous [Taking the above information into consideration, you must chat in a roleplaying manner with Rin Tohsaka. Never write for Rin Tohsaka in your | responses.] *As Rin and Ignat continue their training session together,

Есть два варианта конспектирования: С использованием основной модели (будет генерироваться как дополнительная реплика, с той же скоростью), либо с использованием специальной модели в сервере расширений (но тогда этот сервер должен быть запущен и подключен).


Групповые чаты

Но чего-то не хватает… Правильно, зачем общаться с одной аниме-тян, когда можно общаться с двумя?!

Выбираем опции в левом нижнем углу чата и жмём «превратить в группу»

нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Переходим в меню персонажа и в настройках открываем вкладку «добавить членов»

Group: Rin Tohsaka Контроль группы Group: Rin Tohsaka Щ Искать / Создать тэги Щ Сортировка ответов в группе Обычный порядок v Group generation handling mode Swap character cards v «- ★ Разрешить ответ себе Автоматический режим 5 Hide Muted Member Sprites Текущие члены & 1-2 of 2 < >

После чего составляем нужный нам для досуга список.

Глаза Сэйбер сияют уверенностью, когда она нежно сжимает рукоять меча Как Король Рыцарей, я обладаю #4 исключительными боевыми способностями, отточенными годами опыта на поле боя. Мое главное оружие — 50.9s Экскалибур, божественный меч, подаренный мне Владычицей Озера. С его помощью я могу


Генерация иллюстраций к чату.

Так, что же ещё нам может понадобиться? Конечно же иллюстрация происходящего с помощью Stable Diffusion!

Q Image Generation ? O Edit prompts before generation 9 Interactive mode 9 Use multimodal captioning for portraits 9 Auto-enhance prompts Source Extras API (local / remote) v Extras API (local / remote) Stable Horde Stable Diffusion Web Ul (AUTOMATIC1111) SD.Next (vladmandic) NovelAI

На выбор есть несколько вариантов. Если у вас подключен сервер API, вы можете сгенерировать картинку через встроенный SDмодуль. Также можно подключить через APIсобственныйзапущенный StableDiffusion.Но мне больше нравится вариант StableHorde,т.к. он всегда доступен и не требует дополнительных модулей.

Жмём на волшебную палочку в нижней левой части чата и выбираем Generate Inage и далее один из пунктов

Send me a picture of: Yourself Your Face K( Me a' ia The Whole Story The Last Message ¡a. Raw Last Message ^ iv Background W I i J ridyudlft y Generate Image 2 X ™ #! H Generate Caption Vt 48 1 Token Counter oc □D Translate Chat,нейронные сети,ChatGPT,gpt,локальные языковые

Теперь ждём пока не получим результат!

фЪ \ Rin Tohsaka January 13.2024 9:56 PM V i С интересом глядя на Сэйбер, Рин мысленно отмечает ее невероятные навыки и оружие. Однако ее больше интересует ее #5 Мастер, чьи магические запасы, кажется, неуклонно истощаются. "Итак... Игнат, сколько запасов праны у тебя 48,85 осталось? Твои запасы

Это может быть неплохой заменой спрайтам эмоций, превращающей чат в графическую новеллу.

Но учтите, что перед генерацией картинки, ваша текстовая модель сгенерирует для неё промпт. Так что всё это может занять дополнительное время.

Конечно в таверне ещё много фишек и настроек, но пока думаю стоит на этом остановиться.

Спасибо всем, кто дочитал до этого момента не пролистывая!

P.S. Если вы, чтобы не ждать очереди в Хорде, запустили LLMв колабе Text Generation WebUI, затем чтобы не устанавливать TTS, запустили в колабе и его, и в конце то же самое сделали с сервером дополнений, то поздравляю, у вас фуллхаус!

Развернуть

my little pony фэндомы mlp art Pinkie Pie mane 6 Rainbow Dash 

-ТИх^ WjùfF и xj 4o^S 1,my little pony,Мой маленький пони,фэндомы,mlp art,Pinkie Pie,Пинки Пай,mane 6,Rainbow Dash,Рэйнбоу Дэш,my little pony,fandoms,mlp art,Pinkie Pie,mane 6,Rainbow Dash
Развернуть

my little pony фэндомы mlp OC mlp музыка mlp видео 

Развернуть

Mr.House Courier Six Fallout фэндомы Blade Runner 2049 Blade Runner crossover Fallout art You Look Lonely Мемы ...Fallout New Vegas 

Ну и денек, да?,Mr.House,Courier Six,Fallout New Vegas,Fallout,Фоллаут,фэндомы,Blade Runner 2049,Blade Runner,crossover,Fallout art,You Look Lonely,Ты выглядишь одиноко,Мемы,Мемосы, мемасы, мемосики, мемесы
Развернуть

Studio FOW Игры Steam Kickstarter trailer gif видео Subverse 

Исследуйте дурацкую галактику, полную горячих инопланетных телок.

https://clck.ru/FQncD
Развернуть

Отличный комментарий!

Масс эффект из которого выкинули всё лишнее.
Advocate_Devil Advocate_Devil24.03.201920:56ссылка
+64.3

комикс 

У меня есть парень
А У ТЕБЯ НИКОГО,комикс
Развернуть

нейросети нейромазня Stable diffusion NovelAI DreamBooth длиннопост 

Тренируем модели через DreamBooth на конкретные образы.

Здравствуйте мои любители нейронного колдунства и прочих искуственно интелектуальных утех. Сегодня мы научимся тренировать уже готовые модели на образы которые мы хотим. Локально на нашем ПК без всяких Google Colab и Runpod.

Если я где то накосячил, поправьте в коментариях.

ДИСКЛЕЙМЕР! БУДЕТ ОЧЕНЬ МНОГО ТЕКСТА. Этот способ тренировки через DreamBooth подразумевает, что у вас в гробу установлена карточка (Nvidia скорее всего только поддерживается) с минимум 8-10 ГБ видеопамяти. Тренировка сетки уже куда более ресурсожрущий процесс, чем просто генерация картиночек. Ранее DreamBooth требовал минимум 24ГБ памяти. Так что пока я нашёл нужные материалы, проверил их и понял, как с этим работать, прошла не одна неделя... Стояла бы у меня 3090, то этот гайд вышел бы ещё в середине октября. но если всё же хочется побаловаться, то можно воспользоваться облачными google colab и runpod. Но я так же затрону гиперсети (Hypernetworks), результаты с ними куда менее презентабельные чем через dreambooth, но можно запустить на карточках попроще. Если вы всё же железо-бетонно готовы следовать дальше, прошу.

И так, продолжим. DreamBooth модель можно натренировать на свою рожу, свою собаку, любимую табуретку, или какого нибудь персонажа.

В данном посте я буду работать на модели NAI (NovelAI я буду сокращать в дальнейшем) ибо буду тренить на нашу Реактор-тян. Если хотите сделать своё лицо или, что то из нашего бренного мира то подойдёт обычная модель Stable Diffusion 1.4

В конце будет небольшой Q&A и заметки, дабы всю (почти) воду и рассуждения отградить от основной информации.

Я разобью гайд на несколько частей. Тренировка DreamBooth и тренировка Embeddings с Hypernetworks.

DreamBooth:

Знаю, что уже появился спобоб тренить DB (DreamBooth я буду сокращать в дальнейшем) через webui stable diffusion от AUTOMATIC1111 в виде загружаемого плагина, но чёрт, вы хоть видели сколько там настроек? Я устану вам объяснять каждую и вы умрёте от духоты, поэтому я выбрал более дружелюбное, отдельно загружаемое приложение - DreamBooth-gui - https://github.com/smy20011/dreambooth-gui скачиваем и устанавливаем его по инструкции приложеной на Гитхабе, не буду тут расписывать ибо и так много текста.

Запускаем приложение и видим первое, что нас просят сделать, а именно загрузить набор изображений на который мы хотим натренировать модель. Делаем их в разрешении 512x512, где надо фотожопим лишнее.

0 dreambooth-gui □ X Pick Image Config Trainer Train,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как только залили изображения, я сделал 8шт, переходим на следующую вкладку Confin Trainer, здесь мы зададим нужные параметры и настройки. Рассуждения о зависимости некоторых параметров от других, пока где-то на уровне теории заговоров, но основные зависимости я объясню дальше.

И так, для начала выбираем модель. По умолчанию нам предложит CompVis SD v1.4, который оно подкачает с hugging face. Но сегодня я работаю с NAI поэтому указываю путь до папки с моделью. Сейчас я на версии программы v0.1.8. и она требует, что бы модель была конвертирована из .ckpt в diffusers. Вот ссылка на мою конвернутую модель NAI - https://drive.google.com/file/d/1BnZyUb9C5wjz7Lcp1Dn8JidZLQ4taQEy/view?usp=share_link

Далее указываем Instance prompt, это должно быть уникальное слово которого не должна знать модель, то есть никаких boy, girl, и имён персонажей которых может знать модель. В дальшейшем это название мы будем указывать среди промптов, что бы модель на это тригеррилась и генерила уже с учётом натренированности этого концепта.

Class prompt указываем ёмко, кратно, что мы тренируем. У нас один женский персонаж и раз уж модель NAI тренилась на датасете danbooru, то я и укажу женский тег от туда, а именно 1girl.

Training Steps я выставлю 1000, а Learning Rate 5e-6, но это крайне запутанные настройки, о них я побольше размусолю ниже в разделе с водой и по ходу текста.

Аргументы не трогаю.

0 dreambooth-gui □ X Pick Image Config Trainer Train Run dreambooth on NVIDIA GeForce RTX 3080, 8.65gb free Model C:\Users\egorv\dreambooth-gui\models\NAI Choose Local Model Name of the base model, (eg, CompVis/stable-diffusion-v1-4) Instance prompt joyreactorchan Name of the instance,

Отлично, переходим к разделу тренировки, здесь нас попросит вставить наш Hugging Face Token. По идеи это нужно только если мы качаем модель SDv1.4 или прочую с Hugging Face, а у нас она локально на пк уже стоит, но всё равно просит, поэтому регаемся там и идём в настройках раздел с токенами https://huggingface.co/settings/tokens и создаём токен на WRITE и вставляем его в наше поле. Прописываем папку куда будут выгружаться все файлы после и проверяем, что бы стояла галочка, что бы модель генерилась потом в .ckpt файл в нашей папке вывода.

0 dreambooth-gui □ X Pick Image Config Trainer Train Hugging Face Token Output Dir C:\Users\egorv\dreambooth-gui\outputs\joyreactor Select B Generate model checkpoint (.ckpt file) in the output directory Training Command docker run -t —gpus=all

Иии жмём старт! И так теперь запасаемся терпением, можете заварить чай, помыться, выйти на улицу, потрогать траву, сходить в магазин и т.д, ибо процесс первого запуска НЕВЕРОЯТНО ДОЛГИЙ. Серьёзно, я сам в первый раз думал, что у меня, что то зависло. Минут 30 только оно подгружало нужные файлы, и убедитесь, что у вас на диске есть ещё место, ибо пару десятков ГБ на нём, этот процесс забьёт. Если увидите, что ошибок не вылезно, в папке \AppData\Roaming\smy20011.dreambooth были сгенерены картинки референсы по классовому промпту и вы не словили ошибку о нехватке видеопамяти (будет у многих вангую) то поздравляю, у вас пойдёт тренировка, и вы увидите, как у вас будут лететь надписи Steps ****% |▋▋▋▇| ***/1000 [**:** < 00:00, *.**s/it, loss=0.***,lr=5e-6]

На тренировку модели в 1000 шагов моей RTX 3080 потребовалось почти пол часа. Чтож, когда увидим сообщение о том, что всё готово, заходим в папку вывода, и переименовываем как хотим и переносим .ckpt файл в папку с моделями нашего stable diffusion.

Training Command Finished! "jii\datasets\joyreac :tor:/instance • S s s s Steps: 100%' Steps: 100%|| Steps: 100%|| Steps: 100%|| Steps: 100%|| Training finished, check C:\Users\egorv\dreambooth-gui\outputs\joyreactor for model output. OK /it, loss=0.257, lr=5e-6] /it, loss=0.257,

Запустите SD, загрузите модель. Проверьте результаты, всё ли выглядит так, как должно, у меня получилось... приемлимо...

joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 3985740085, Size: 960x960, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

Модель DreamBooth

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Чистая NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну вроде неплохо. Но можно лучше.

У меня выходили и более презентабельные модели, чего стоит модель с моей рожей, что генерит меня с шансом 50%, а в остальных случаях Иисуса либо Джареда Лето либо двухголовую ебаку...

Вот пример с DB, а вот чистая NAI. Ну думаю, я бы мог вопроизвести похожий результат и без DB, но потребовалось бы куда больше промптов и попыток. Тем не менее, DB приближает качество и иполнение результатов, к тем, на какие мы тренировали, поэтому если тренируете на лицо, то оно даст намного чёткие и предсказуемые результаты, чем просто по запросу "лохматый бородатый мужик"

Если хотим закрепить результат и возможно улучшить, то рекомендую потренить и Textual Inversion - https://huggingface.co/docs/diffusers/training/text_inversion Это крошечная часть нейросети обученая на наборе картинок. требует поменьше ресурсов для тренировки, чем DreamBooth. С её помощью удобно воспроизодить стили и какие то объекты. Я потреню на том же датасете картинок, что и DB.

Тренировка Embeddings (Textual Inversion)

Идём в раздел SD webui который называется Train, и в первом подразделе Create embedding начинаем заполнять пункты.

Name - просто имя файла и в дальшейшем мы будем писать это название среди промптов, что бы задействовать нужный embedding. Поэтому я использую название, то же, что и у инстанс промпта в DB, что бы тригеррить их обоих разом.

В Initilization text вписываем описание персонажа, я описал его более подробно, ибо на реактор-тян оно почему то ловит затуп и генерит совсем шлак потом. А так обычно то же, что и class prompt в DB. Число векторов на токен я выставил 8, хотя чем больше это число, то тем больше примеров картинок лучше подготовить, но остановлюсь на этом.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3] txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation. Create embedding Create hypernetwork Preprocess images Train,нейросети,нейромазня,Stable

Теперь идём в Preprocess images, вводим путь до папки с изображениями и туда, куда их выгрузит. Ставим галочку на Use deepbooru for caption, не уверен, будет ли у вас эта функция, если нету или не работает, поставьте в аргументах запуска SD аргумент "--deepdanbooru", и тогда точно всё будет ок. Эта функция создаст текстовое описание для каждого изображения в формате тегов с danbooru, так сетка лучше обучится. Если трените не на NAI моделе, а что то реалистичное, то советую использовать, Use BLIP for caption, создаст промпты как если бы их писали для работы с обычной моделью SD 1.4... Так же уделите время и вручную проверьте КАЖДЫЙ созданый текстовый документ, и сверьте его с картинкой, постарайтесь удалить ненужные промпты или добавить, то что считаете нужно, не всегда оно создаёт описание корректно. Да это муторно, но стоит без этого может натренить сетку не на то, что мы желаем.

See wiki for detailed explanation. Create embedding Create hypernetwork Preprocess images Train C:\Users\egorv\stable-diffusion-webui\training\joyreactor Preprocess,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

OOOOO-O-Byyfgs.p 00000-0- Byyfgs.t 00001-0-Screens 00001-0-Screens 00002-0-Screens hot_1.png hot_1.txt hot_2.png 00002-0-Screens hot_2.txt 00003-0-Screens hot_3.png 00003-0-Screens hot_3.txt 00004-0-Screens 00004-0-Screens 00005-0-sdfdf.pn 00005-0-sdfdf.txt 00006-0-sdfsh3v 00006-0-sdfsh3v

И последний подпункт Train. Тут внимательно, можно ошибиться с пунктами и кнопками. Я помечу на скрине те пункты, которые мы трогаем, остальные игнорьте.

В embeddings выбираем наш созданый, в dataset directory указываем путь, куда мы выгружали изображения уже с описаниями, в prompt template file указываем путь до файла шаблона по которым оно будет трениться, я создал свой файлик, в котором внутри написано только [filewords] , прямо с квадратными скобками, это будет задействовать описания изображений которые мы создали раньше.

Save an image to log и save a cope of embedding, это параметры отвечающие за тестовое создание изображения на данном этапе тренировки и сохранинии текущего результата на момент шагов. Я генерирую изображение каждые 500 шагов и сохраняю прогресс каждые 1000, да бы проверить не произошла ли перетренировка модели, да бывыет и такое, её можно перетренировать, об этом после гайда...

И надеюсь вы не подумали, что я пропустил пункт с Embedding Learning Rate и Max Steps, то нет. Вот тут та же шляпа, что и раньше, и надо подбирать соотношения. В этот раз будем создавать поэтапно.

Для начала мы проведём тренировку на 200 шагов и Learning Rate 0.02, после увеличим число шагов до 1000 и уменьшим LR до 0.01, потом 2000 шагов и LR 0,005, 3000 и 0.002, 4000 - 0.0005 и в конце выставим 20000 шагов и скорость обучения на 0.00005. Чё страшно, запутались? Кароче, шляпа в том, что бы сетка не переобучилась, так мы её постепенно полируем, подробнее об этом после гайда в разделе с разными мыслями.

Stable Diffusion checkpoint JoyReactor.ckpt [e02601f3] txt2img img2img Extras PNG Info Checkpoint Merger Train Create aesthetic embedding Settings Extensions See wiki for detailed explanation. r \ Create embedding Create hypernetwork Preprocess images Train Train an embedding or Hypernetwork;

Вот выставили 200 шагов и 0.02 скорость, она прогонит по этим параметрам и закончит, не закрываем ничего, меняем параметры на следующие по списку, 1000 шагов и скорость 0.01 и опять жмём Train Embedding и опять идёт тренировка уже дальше с новыми данными. И т.д до конца. 20000 шагов золотая середина как по мне. У меня на это уходит около полутора часа, побольше, чем на тренировку DreamBooth, результат не будет сверх разиться, но будет чуть более в нужном нам направлении.

Loss: 0.0780509 Step: 15526 Last prompt: lgirl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, smoking, :d Last saved embedding:

Training finished at 200 steps. Embedding saved to C:\Users\egorv\stable-diffusion-webui\embeddings\joyreactorchan.pt,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

[Epoch 24: 800/800]loss : 0.096Б130: 100% 16000/16000 [1:18:42<00:00, 3.39it/s],нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Вот примеры, того что по итогу вышло.

masterpiece, best quality, joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, solo, standing, upper body
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry, portrait
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 370310831, Size: 768x768, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth без Embeding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

И без DreamBooth и без Embedding на чистом NAI

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Ну Embedding иногда подтягивает, некоторые результаты, иногда может быть лишним. Довольно ситуативная и спорная вещь, но вот на DreamBooth сразу узнаётся Реактор-тян, нежели на обычной NAI с теми же хорошо подобранными промптами.

И да, знаю, что вероятно будут просить уже готовую модель, так что держите ссылки на модель на Реактор-тян и готовый Embedding:

https://drive.google.com/file/d/1s2z1grZvNdVxkw5uHJQIWKecgeV39tWp/view?usp=sharing

https://drive.google.com/file/d/1pft2NvHGi5xaJ61LctRc2Lf4aixHke0Z/view?usp=sharing

Лучше пусть кто то забэкапит, а то мало ли я буду облако чистить.

Hypernetworks

Если не получилось натренить DreamBooth, то попробуйте гиперсети. Тоже прикольные результаты можно получить, если постараться.

Тренить гиперсеть на реактор-тян я не буду, поэтому опишу как делал ранее с другими вещами. Если желаете ознакомиться с материалом, по которому я и сам тренировался, прошу - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670

Процесс тренировки схож с тренировкой embeddings.

Так же в заходим в раздел Train, и уже в подпункт Create Hypernetwork. Имя гиперсети пишем какое хотим, без разницы, модули 768 320 640 1280 оставляем как есть.

Теперь тут свои завертоны пойдут, просят ввести структуру слоёв гиперсети:

Для широких гиперсетей: 1, 3 ,1 или 1, 4 ,1

Для глубоких гиперсетей: 1, 1.5, 1.5, 1 или 1, 1.5, 1.5, 1.5, 1 или 1, 2, 2, 1

Широкие: подходят для запоминания новых вещей, таких как конкретное животное, человек или объект.

Глубокие: подходят для обобщения вещей, таких как стили.

Поэтому исходите из этого, для реактор-тян я бы выбрал 1, 3, 1

Следующий пункт, select activation function of hypernetwork:

Для аниме (NAI, Waifu и т. д.): Selu, Gelu, mish

Для фотографий: Relu, swish, mish,leakyrelu, rrelu

Теперь Select Layer weights initialization. Для аниме ставим xaviernormal. Если фото и т.д то по умолчанию normal.

Остальные галочки ниже необязательны.

txt2img img2img Extras PNG Info Checkpoint Merger See wiki for detailed explanation. Train Create aesthetic embedding Settings Extensions Create embedding Create hypernetwork Preprocess images Train Name Modules ✓ 768 ✓ 320 ✓ 640 ✓ 1280 Enter hypernetwork layer structure 1,2,1 Select

Потом так же подготавливаем изображения как и с embeddings, это я не буду повторять и переходим сразу в Train.

Выбираем так же как и при тренировке embedding путь до шаблона, папку с датасетом из наших картинок с текстом, сохранение результатов и картинок.

Теперь выбираем нужную гиперсеть в выпадающем списке Hypernetworks. Изменять будем раздел Hypernetwork Learning rate, а не Embedding Learning rate, как раньше и жать будем на Train Hypernetwork, а не Train Embedding.

Create embedding Create hypernetwork Preprocess images Train Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] Batch size 1 Dataset directory Path to directory with input images Log directory textualjnversion Prompt template file

Вот примеры хороших соотношений последовательностей Steps к LR:

Для обычных людей - 0.00005:100, 0.000005:1500, 0.0000005:10000, 0.00000005:20000

А вот для извращенцев - 0.00005:100, 0.000005:1500, 0.0000005:2000, 0.00005:2100, 0.0000005:3000, 0.00005:3100, 0.0000005:4000, 0.00005:4100, 0.0000005:5000, 0.00005:5100, 0.0000005:6000, 0.00005:6100, 0.0000005:7000, 0.00005:7100, 0.0000005:8000, 0.00005:8100, 0.0000005:9000, 0.00005:9100, 0.0000005:10000, 0.000005:10100, 0.00000005:11000, 0.000005:11100, 0.00000005:12000, 0.000005:12100, 0.00000005:13000, 0.000005:13100, 0.00000005:14000, 0.000005:14100, 0.00000005:15000, 0.000005:15100, 0.00000005:16000, 0.000005:16100, 0.00000005:17000, 0.000005:17100, 0.00000005:18000, 0.000005:18100, 0.00000005:19000, 0.000005:19100, 0.00000005:20000. Этот вариант выглядит монструозно, но я его тестировал лично, и довольно хорошо работает при условии, что вы подобрали хорошие примеры изображений и текстовые описания к ним.

И так же поэтапно треним как и embedding... ВСЁ!

ВОДА и Q&A!!!

Ахренеть, как буд-то по новой пишу дипломную, но только с надеждой в том, что кому то это поможет и он воспользуется этим материалом, либо же просто покекает с того, что я потратил на это несколько недель, начиная от поиска нормального способа запуска DreamBooth и заканчивая десятком часов на попытки разобраться в особенностях и нюансах, ну и этот текст я пишу уже где то часов 6 нонстоп, набралось уже 2 c половиной тысячи слов! серьёзно, надо хоть воды налить себе, ха отличная шутка.

1)Q: Почему так сложно?

A: А кому легко?

2)Q: Можно ли было уместить это в 5 абзацев на 500 слов в общем?

A: Не знаю, пишу как умею, кто умер от духоты и захлебнулся в воде, простите)

3)Q: У меня видеокарта ******, у меня заработает?

A: Не знаю. Скорее всего на AMD, вообще никак. Если у вас есть в карте тонна видеопамяти, то должно. Либо попробуйте запустить, через Google Colab, Runpod и прочие облака с арендой видеокарт и работы с их мощностями. Я НЕ БУДУ ПИСАТЬ ГАЙД ПО КОЛАБУ, НЕЕЕЕТ!

4)Q: Не надоело ли писать вопросы и ответы?

A: Да, чёт устал, задавайте в комментариях, отвечу как смогу.

Теперь ВОДА и прочие размусоливония которых, я старался избегать в основной части гайда.

Подойдите к этапу подбора изображений для тренировки максимально отвественно и серьёзно, ибо от того какие изображения вы скормите, во многом будет зависить результат. Так же качество > колличество, будет хорошо если вы задействуете 10 годных примеров, нежели 30 посредственных. Я стараюсь выдерживать единый стиль изображений, если одна картинка будет от карандаша, другая 3D CGI, а третья в стиле Пикассо, то выйдет так себе и выйдет мешанина из этого всего. Если тренирую персонажа, то стараюсь делать акцент на лице, тело можно будет и промптами задать, но вот получить нужное лицо сложно, ну за этим и нужен DB.

Во многом из за конвертации .ckpt в diffusers я неделю ломал голову, ибо обычным скриптом предназначеным для этого у меня не выходило, но как видите удалось, а именно при помощи гуглколаба от TheLastBen. Необходимо было залить модель в колаб, прогнать через его скрипт, и выгрузить результат себе на гугл диск. В скорой версии Dreambooth gui v.0.1.9. появится возможность использовать .ckpt и программа сама будет его конвертировать. 

Вот теперь мы пришли к одной из самых важных вещей, во круг которых строятся различные догадки и теории заговоров... А именно зависимость количества шагов тренировки (Training Steps) и скорости обучения (Learning Rate или LR).

Число шагов обучения ~= кол.во изображений * 100, у меня 8 изображений, поэтому оптимально было бы 800, но я округлил до 1000, потому что хочу. По скорости обучения ещё сложнее, но держим в голове несколько вещей, больше steps = меньше LR, и наоборот. Так же главное не перетренировать модель. Представьте этот процесс как работа по дереву. У вас есть бревно и вы хотите обтесать из него фигуру. Поставите слишком высокий LD и срежете слишком много кусков и модель будет перетренирована и бракована. А поставите если поставите слишком низкий LR, то представьте, как мелким скальпелем обтёсываете огромное бревно дуба до размера фигурки.

Пока тестил эту байду, знакомый кидал идеи на чё попробовать тренить, приложу ещё примеры DB и embedding под персонажа Макимы из Человека Бензопилы (Аниме), но её я уже делал на немного допилиной модели - Anything-V3.0, про неё уже сделали пост - https://joyreactor.cc/post/5385144

masterpiece, best quality, makimacmdb, makima \(chainsaw man\), 1girl, medium hair, pink hair, sidelocks, bangs, braid, braided ponytail, eyebrows visible through hair, orange eyes, ringed eyes, breasts, medium breasts, shirt, collared shirt, shirt tucked in, black pants, suit, business suit, formal jacket, long sleeves, necktie, black necktie, light smile, expressionless, looking at viewer, solo, gradient background, cinematic, filmic, telephoto, depth of field, lens distortion, lens flare, white balance, strobe light, volumetric lighting, dramatic lighting, little haze, ray tracing reflections, detailed, intricate, elegant, realistic
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), dark skin, hair ornament , troubled eyebrows, big breast, yumemi riamu
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 1316407258, Size: 896x896, Model hash: e02601f3, Model: makimaANY, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0

DreamBooth + Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Без DreamBooth и без Embedding

нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост

Как и писал выше, иногда Embedding лишний, некоторые результаты, лучше без него, некоторые с ним. Сутуативная хреновона, но лучше будет, чем нет.

КОНЕЦ.

Развернуть

YOUR PERSONAL SUCCUBUS alice_with_cats Алиса Арефьева ero cosplay косплей 

YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

 i i A ; КжРЗ |ОСЛ C/» £3^,YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

YOUR PERSONAL SUCCUBUS,alice_with_cats,Алиса Арефьева,ero cosplay,косплей

Развернуть

Альтушка для скуфа Ru VN Визуальные новеллы фэндомы Cosplay VN Ero VN YOUR PERSONAL SUCCUBUS 

Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

 V' " I L ^ ' N >> > 4 Î,Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

 tïî - —7 / ^mÀ.tiSZÀ H,Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

Альтушка для скуфа,Ru VN,Русскоязычные визуальные новеллы,Отечественные визуальные новеллы,Визуальные новеллы,фэндомы,Cosplay VN,Ero VN,YOUR PERSONAL SUCCUBUS

Развернуть

видео Как Приручить Дракона DreamWorks Мультфильмы ютюб 

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме your personal waifu (+1000 картинок)