Результаты поиска по запросу «

Stable Diffusion Google Colab

»

Запрос:
Создатель поста:
Теги (через запятую):



нейронные сети colab Stable diffusion песочница 

Пидоры помогите

Появилось желание погенерить артиков. В силу мощностей компа(ноута) приходится использовать гугл колабы. И с последним возникли проблемы. Буквально спустя 2-3 минуты после запуска, вне зависимости от моих действий выскакивает ошибка и сетка отрубается. В эти 2-3 минуты  могу генерить то, что успею и генерации работают, по крайней мере столько, сколько успел проверить.

Саму ошибку задетектить не смог, сам колаб говорит "Произошла ошибка". Логов с информацией ошибки искал искал и не нашел. В интернетике глянул гайд по логам, но либо он был кривой, либо я, поэтому он не помог.

Пробовал запускать разные модели, пробовал на своем диске установить и запустить ее. Ситуация повторилась и при смене гугл аккаунтов и с наличием разных впн-ов.

Пробовал в разные дни, результат не поменялся.

Пару месяцев назад пользовался колабой, все было ок. Обычно говорят, что такое случается из-за нехватки ресурсов или их переупотребления. Но и оперативки, и видеопамяти и места на диске всегда по потреблению всегда находятся в пределах нормы и я почти уверен, что дело не в этом тоже.

Ну и очевидный вопрос, имеются ли способы решить данную проблему. Непросроченный купон прилагаю.
КУПОН НА 1 ПОМОЩЬ,нейронные сети,colab,Stable diffusion,песочница
Развернуть

нейросети MidJourney Stable diffusion 

Пользуюсь MidJouney и Anything V3.0 через Google Colab. 
В основном ремиксую друзей с аниме или фентези в миджорни или создаю сотни артов с томбоями)
Конкретно эта создана, улучшена и откорректирована попеременно в обеих сетках.

Есть ли какие-нибудь сайты-галереи сборок для Stable Diffusion в Colab с примерами работ и перечислением фишек?

нейросети,MidJourney,Stable diffusion
Развернуть

нейронные сети нейроарт Stable diffusion Anything3.0 песочница NSFW 

Google Colab и кошкодевочки для всех.

Не знаю почему этого никто до сих пор не написал... Инструкция посвящается всем киберпидорам на накопившим на крутую видяху, желающим заиметь гарем 2D тяночек. 
Гугл раздает доступ к своим ML мощностям для всех желающих. На https://colab.research.google.com/ можно генерить свои картиночки, запускать свои модели и.т.п. (ограничение - 12 часов в день на работу, потом все сгенереное стирается.) 
Даю сразу ссылку:

Модель anything3.0: https://colab.research.google.com/github/camenduru/stable-diffusion-webui-colab/blob/main/anything_3_webui_colab.ipynb
(на мой взгляд самая подходящая под генерацию 2D эротики)

Запуск модели полностью автоматизирован, просто запускаешь коллаб кнопкой ▶️ исполнение кода
И ждешь пока тебе выдадут линк на вебинтерфейс (типа такого https://0f0a82ef41323d42.gradio.app/).

Открываешь линк - поздравляю, твой коллаб с тяночками готов. Генерирует в любом разрешении (у гугловских тензорных ядер памяти до черта).



P.s.
Тем кто хочет старую stable diffusion без хентая https://colab.research.google.com/drive/1jY9KAqR_SQUp76ayRuqyk4MTId-7STOy?hl=ru_RU#scrollTo=NPtEBB6r18yU
Вообще в коллабе много уже подготовленных моделей - просто гуглите)

Развернуть

Stable diffusion нейронные сети сделал сам песочница 

Моя попытка в тренировку LoRA

В общем, балуюсь я нейросетями уже второй годик. Начиналось все для генережки портретиков для ДнД и картинок с природой. Но недавно стал выкладывать еще и посты с цветными конями на CivitAI, дабы нафармить местной валюты на обучение и как-то увлекся. Но потом вспомнил для чего это я все затеял и решил посмотреть что я смогу. В итоге смог не очень, но тем не менее, почему бы не поделиться с уважаемыми содомитами результатами, тем паче, что обучал не на ссанине по желтому снегу, а по самому Оглафу. Получилось не то что бы плохо, но и не хорошо. Хотя, если уменьшать получаемый результат до размеров кадров оригинального комикса, то вроде даже похоже. В общем судите сами, что за срака вышла...

https://civitai.com/models/473780/oglafstyle?modelVersionId=526996

P.S: Если у кого есть положительный опыт тренировки LoRA на CivitAI - поделитесь опытом. Хочеться делать так, что бы не стыдно было.

P.P.S: Пощу на реакторе я, мягко говоря, не часто, так что если где-то что-то налажал в оформлении и/или тегах, прошу сообщить, что бы я поправил, а уже потом кидайте фекальными массами.

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

 V fei,Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Stable diffusion,нейронные сети,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам,песочница

Развернуть

нейронные сети ChatGPT gpt локальные языковые модели llm длиннопост google colab песочница 

Руководство по быстрому началу общения с нейровайфу

Всем доброго времени суток!
Это мой первый нормальный пост, так что заранее извиняюсь, если будут косяки с оформлением. Большинства тегов не нашёл, но они явно нужны по смыслу.

Недавно узнал что есть множество людей далеких от общения текстовыми нейросетями. Специально для них решил написать простое руководство по вкатыванию в тему буквально в несколько(десятков) кликов.

Пролог (можно пропустить)

Сокращённо текстовые нейронки принято называть LLM - Large Language Model (Большая Языковая Модель)

Все конечно в курсе что есть такая вещь как ChatGPT, которую условно можно сравнить с нейросетью для генерации картинок Midjourney.

Но не все в курсе, что как для Midjourney свободный аналог - Stable Diffusion, так и для Чата GPT, есть точно такие же аналоги, которые можно запускать как локально у себя на компе, так и в облаке, а именно Локальные LLM.
Однако в данном руководстве я пока не планирую давать подробную информацию по данной теме (иначе словом длиннопост результат будет не описать). Но если появится интерес, запилю ещё постов как про нейронки, так и про более сложные и интересные способы общения с нейротянами.
В данном руководстве описывается способ запуска https://github.com/oobabooga/text-generation-webui при помощи Google Colab. При желании вы легко можете установить его самостоятельно, все инструкции (как и изначальный колаб) есть на странице в гитхабе.
Ботов для общения можно брать здесь: https://chub.ai/
А сами модели: https://huggingface.co/models
Руководство.
От оригинального колаба text-generation-webui он отличается более удобным способом загрузки моделей, заранее выставленными настройками и русским языком в некоторых местах. 
2. Настройка.
Перед запуском нужно выбрать необходимые настройки. В колабе много опций, но для чата ключевых всего две:
Автоперевод чата на русский через гуглтранслейт:

ft Дополнения superbooga: 0 Based on superbig от Кайокендева. Расширение, которое google_translate: Q Перевод чата, по умолчанию стоит русский. long_rcplics: О,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Озвучка чата голосом:

Расширение преобразования текста в речь с использованием [Silero] С «Расширения» интерфейса. Вы можете найти образцы здесь: [образць,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

По умолчанию обе этих галочки отключены. Если хотите общаться на английском и озвучка не нужна - можите их не трогать.
Для первого знакомства выбор модели не так важен. По умолчанию стоит Emerhyst-20B - одна из топовых моделей для кума. В дальнейшем можно попробовать и другие, в том числе собственные, инструкция как это сделать есть в тексте колаба.
3. Запуск.
Жмём

> Установка и загрузка модели © первом запуске этот блок установит угабогу и загрузит выбранную модель. Н Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI: Список актуальных моделей можно найти в этом рейтинге Есть 2 варианта загрузки модели в зависимости от формата: • ВАРИАНТ

Чтобы запустить блок установки загрузки.
Затем сразу же жмём:

> £? Выбор настроек и старт ---------------------------- © Опции запуска зе±-Ып§э_-Ра.1е: Загрузите настройки интерфейса по умолчанию из необработанного текстовог регр1ехз.±у_со1огз: □,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Ничего не меняя в настройках. 
Блоки запустятся по очереди. Займёт это от 5 до 15 минут в зависимости от скорости работы колаба.
В результате блок старта должен выдать вам следующую запись:

* Downloading cloudflared for Linux x86_64... Running on local URL: http://127.0.0.1:7860 08:14:55-341880 INFO OpenAI-compatible API URL: mips : //Knit - hereb^piaiilcal • Fini ■ tryclpudf lare, со«* Running on public URL: https ://c03e4698bdf676e5fa.gradio.1ive j This share link expires in 72

Жмём на ссылку после "Running on public URL:" и в новой вкладке откроется GUI интерфейс чата.
4. Чат.
После этого вы в принципе уже сможете начать общение с нейросетью, задавая ей интересные вопросы и рассказывая охранительные истории. Но по умолчанию чат будет отвечать как Assistent, то есть от лица нейросети, а что с отыгрываеием персонажей?
Всё в порядке! Данный интерфейс, как и сама модель написан практически только для этого!
Скроллим вниз и видим:

Character gallery T Filter Clear Refresh Assistant Example,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

В чате помимо Ассистента есть ещё и дефолтный персонаж Chiharu Yamada, здесь почему-то названный как Example.
После нажатия на её портрет чат переключится на общение с ней:

 ► 0:15/0:15 Ц>) Чихору входит в комнату с улыбкой, ее глозо загораются, когда она видит тебя. На ней голубая футболка и джинсы, сумка для ноутбука перекинута через плечо. Она садится рядом с вами, ее энтузиазм витает в воздухе Привет! Я так рада наконец встретиться с тобой. Я слышал о вас

Для начала общения хватит и её. 
Действия прописываются курсивом *между звёздочками*, слова - обычным текстом.
Но если вы хотите пообщаться с собственной вайфу, тогда переходим к следующему пункту!
5. Импорт персонажей.
На данный момент самая большая база персонажей находится на https://chub.ai/
После того как нашли нужного, заходим на его страничку:

Mao Zedong latest ft Favorite Large jade wand, polished balls. Creator s notes go here. Approximately 561 tokens. 558 permanent turbo Created on Jul 19, 2023 179 Downloads I V Fork(0),нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

И скачиваем к себе PNG в формате SillyTavern. Этот формат самый универсальный, поэтому рекомендую хранить персонажей в нём.
Затем снова открываем чат и переходим во вкладку

Chat Default Notebook Parameters Model Training Generation Character Instruction template Chat history YAML or JSON TavernAI PNG ■ TavernAI PNG File r Поместите Изображение Здесь - или - Нажмите, чтобы загрузить Session Upload character Name Description Submit,нейронные

Кидаем персонажа в данное поле и возвращаемся в чат. Также иконка персонажа появится в галерее. Собственно всё.

Mao Zedong ► 0:00 / 0:20 - HD Как только человечество уничтожит капитализм, оно вступит в эпоху вечного мира, и тогда войны ему уже не понадобятся. Тогда не будет необходимости в армиях, боевых кораблях, боевых самолетах и отравляющих веществах. Тогда человечество не увидит войны во веки

5.1. Сохранение логов.
Ели вы хотите чтобы ваша вайфу и переписка с ней сохранялись от сеанса к сеансу, перед запуском в настройке колаба "save_to_google_drive" нужно выбрать "chatlogs and characters"

Синхронизировать с гуглдиском персонажей и логи?. save_to_googie_drive: chatlogs and characters,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Но тогда все ваши логи и персонажи будут лежать на гуглдиске в папке "oobabooga-data". И само собой колаб запросит к нему доступ.
Вот теперь точно всё.
Развернуть

нейросети Stable diffusion длиннопост NovelAI 

Модель NovelAI под Stable-Diffusion

Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.

Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.

Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:

1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

Name > □ > > > > > > > > > > □ □ □ □ □ novelaileak github stableckpt Q animefull-final-pruned □ animefull-latest □ animefull-prevgood □ animesfw-final-pruned □ animesfw-latest □ animesfw-prevgood □ extra-sd-prune Q modules O vector_adjust Q animevae.pt □ clean.py workspace

3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt

4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork

outputs/extras-i mages Output directory for grids; if empty, defaults to two directories below Output directory for txt2img grids outputs/txt2img-grids Output directory for img2img grids outputs/img2img-grids Directory for saving images using the Save button log/images System VRAM usage

5. Готово, можем работать с новой моделью.

NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.

В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.

Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.

Мои:

((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9

нейросети,Stable diffusion,длиннопост,NovelAI

Из Discord'a NovelAI:

copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot

нейросети,Stable diffusion,длиннопост,NovelAI

{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix

нейросети,Stable diffusion,длиннопост,NovelAI

{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background

нейросети,Stable diffusion,длиннопост,NovelAI

Развернуть

нейронные сети ChatGPT gpt локальные языковые модели google colab длиннопост SillyTavern LM вайфу 

Руководство по общению с нейровайфу. Часть 2. Глупая Таверна.

Привет всем кто в теме и кто только присоединился!

Предыдущийпост https://joyreactor.cc/post/5733950

Рассказывал о том, как быстро и просто запустить локальную языковую модель на удалённом сервере google colab и начать общение нейротян.

Но теперь настало время взяться за дело серьёзно, встречайте:

Простое руководство по SillyTavern.

(автор не гарантирует, что написанное строчкой выше правда)

Предварительнаяустановка

1.  Переходим поссылке https://nodejs.org/en/download искачиваем LTS версию. Нам подойдет и она.

2.  Когда скачали,запускаем установку.

3. (опционально)Перейдите по ссылке https://git-scm.com/downloads и скачайте Git,для упрощения обновлений и прочего.

4. (опционально) Переходимпо ссылке https://www.python.org/downloads/ и качаем питонпоследней версии. Не то чтобы он был вообще нужен для установки таверны, но разуж мы начали идти по пути LLM, не стоит останавливаться надостигнутом!

5. Установка завершена.Переходим к самой таверне.

Установка SillyTavern.

С использованием Git:

1. Выбираем папку, нажимаем ПКМ, git bash HERE.

2. Вводим в консоль git clone https://github.com/SillyTavern/SillyTavern 

3. Для того что бы установить staging branch добавляем после ссылки -b staging

4. Всё устанавливается

Без использования Git:

1. Переходим поссылке https://github.com/SillyTavern/SillyTavern/tree/staging

2. Нажимаем на зеленую кнопку Code и download zip

3. Теперь, когда мы скачали наш ZIP архив (не важно, стейджинг ли этоверсия, или обычный релиз)
Мы берем и открываем ZIP (архив) и достаем оттуда папку, в любое удобное намместо.

*Лично я предпочитаю именно этот метод, сохраняя вотдельной папке каждую новую версию таверны, начиная с момента, когдасуществовала только оригинальная TavernAI, ещё храню в каждойпапке полный набор актуальных на тот момент скриптов, промптов и персонажей.Зачем? Вдруг пригодится!

Запуск таверны

После этого мы запускаем start.bat
Когда мы запустили start.bat, мы видим NPM install. Нам нужно дождатьсяустановки, затем оно само запустится.

*Если вам пишет missing module название модуля, то нужно ввестикоманду npm install название модуля, и так пока вы не установитевсе нужные.

Когда установка закончится, автоматически откроется вкладка браузера с интерфейсом таверны.

При первом запуске вы увидите сообщение 

Welcome to SillyTavern! • Read the Official Documentation. • Type /help in chat for commands and macros. • Join the Discord server for info and announcements. SillyTavern is aimed at advanced users. If you're new to this, enable the simplified UI mode below. ■ Enable simple UI mode Before

Которое предложит вам заранее ввести имя, по которому к вам будет обращаться модель. Можете оставить его как есть и представиться кем угодно походу беседы, либо ввести своё имя, но тогда к вам всегда будут обращаться по нему. (Старые модели вроде Pygmalionвместо User, определяют пользователя как You)

*Также вам предложит включит упрощённую версию интерфейса. НЕ ДЕЛАЙТЕ ЭТОГО!

Раз уж вы решили идти дальше пути текстовых нейросетей то привыкайте страдать!

Подключение к нейросети.

Теперь настало время изучить иконки расположенный сверху

Но делать это мы будем не по порядку, начнём с главного, источника. Тавернаэто очень удобный, но всё-же фронтенд. Иконка API предлагает нам выбратьоткуда конкретно мы будем черпать нейросетевые ресурсы.

Рассмотрим основные пункты, представляющие практический интерес.

1. Text Completion.

API Text Completion API Type Default (oobabooga) oobabooga/text-generation-webui Убедитесь, что при запуске указали аргумент --extensions openai Server URL Example: http://127.0.0.1:5000 https://minolta-analysts-among-madrid.trycloudflare.com/ Custom model (optional) Подключить Ш Legacy

Первый пункт «TextCompletion» Предлагает вам подключить к вашей таверне в качестве бекэнда text-generation-webui.
О том, как его запустить написано в предыдущем посте. Ссылка на колаб: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
Но прежде чем использовать его как API,убедитесь что отключены google translate и sileroTTS, они будут мешать генерации.
Чтобы подключить запущенный webui к таверне Скопируйте ссылку после строки'OpenAI-compatible API URL:' и вставьте её в 'Server URL'

При запуске локально дефолтный адрес подключения http://127.0.0.1:5000/api

2. KoboldCPP.

▼ API Text Completion API Type KoboldCpp LostRuins/koboldcpp API URL Example: http://127.0.0.1:5001 http://127.0.0.1:5001 Подключить koboldcpp/openhermes-2.5-mistral-7b.Q5_K_M О Автоматическое подключение к последнему серверу,нейронные сети,ChatGPT,gpt,локальные языковые модели,google

Этот пункт предлагает нам подключить к таверне аналог text-generation-webui,под названием «Koboldcpp»

Главных отличий от предыдущего сабжа два:

- Кобольд предназначен для запуска моделей,оптимизированных для процессора. Сейчас это формат GGUF

- Сильно проще в локальном запуске на Windows. Всегоодин exeфайл,после запуска которого вам предложат выбрать файл модели кнопкой «Browse». Изнастроек для начала можно выставить контекст в размере 4096. Для запуска этогоуже достаточно.

c KoboldCpp v1.48.1 Quick Launch Hardware Tokens Model Network Quick Launch Presets: Threads: BLAS Batch Size: «/ Launch Browser □ Use SmartContext s/ Use ContextShift Context Size: Model: Update Save Load Help Use OpenBLAS 5 512 □ High Priority □ Disable MMAP □ Remote Tunnel

У кобольда есть даже свой интерфейс чата, но он сильноуступает как webui так и таверне.

В качестве API URL в таверне вводим http://127.0.0.1:5001/api

Скачать последнюю версию можно здесь: https://github.com/LostRuins/koboldcpp/releases/

Почитать о разных загрузчиках и прочих вы можете на основнойстранице гитхаб: https://github.com/LostRuins/koboldcpp

Если ваш комп не тянет, есть также колаб: https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb
Куда же без него.

3. ChatCompletion

Здесь нам предлагается подключиться к APIсоответствующихсервисов, при условии, что у нас есть ключ.

API Chat Completion Источник для Chat Completion OpenAI OpenAI Window Al OpenRouter Claude Scale AI21 Google MakerSuite MistralAI | Custom (OpenAI-compatible)___________________________ Модель OpenAI gpt-3.5-turbo ■ Bypass API status check Ш Показать "сторонние" модели

Выбираем поставщика, вводим ключ, радуемся! В целом всёпросто (кроме получения самого ключа)

4. KobaldAIHorde.

Но не печальтесь, если у вас нет ключа к GPT4 Turbo, нам поможет сервис AIHorde https://horde.koboldai.net/
(это не троллинг если что, нет правда!)

Более того, это, пожалуй, самый интересный пункт, потому чтоон позволяет нам сразу, без танцев с бубном, подключиться к языковой модели.

Всё что нам нужно это поставить курсор в поле Модели ивыбрать любую из них:

API-КЛЮЧ Получить здесь: Регистрация (Посмотреть мой penrnHr(Kudos)) Вставьте 0000000000 чтобы использовать анонимный режим. X Missing key Модели С* Select Horde models koboldcpp/LLaMA2-13B-TiefighterLR (ETA: 334s, Speed: 16.3, Queue: 5459, Workers: 1)

*Модели из списка работают на аппаратных мощностях участников сообщества и доступны для бесплатного использования! НО когда много людей сидит на одной модели, образуется очередь, а у анонимных подключений приоритет в очередях самый низкий.
Если хотите получить преимущество, регистрируйтесь https://horde.koboldai.net/registerЗа это вам выдадут личный ключ
API, который можно будет вбить в таверну. Далее устанавливайте хорду и фармите Кудосы помогая людям, не имеющим мощного железа, приобщаться к нейронкам!

Какая модель лучше вопрос спорный.
Можете, например поизучать этот рейтинг: http://ayumi.m8geil.de/ayumi_bench_v3_results.html

По мне так методика тестирования в Аюми такая себе, но ничего лучше пока не встречал.

При подключении, не забудьте выставить галочку «Уточнить длину ответа в соответствии с возможностями рабочих машин» Иначе получите ошибку, если контекст установленный на сервере будет меньше вашего.

О Уточнить размер контекста в соответствии с возможностями рабочих машин О Уточнить длинну ответа в соответствии с возможностями рабочих машин ■ Только доверенные рабочие машины Context: 1024, Response: 256,нейронные сети,ChatGPT,gpt,локальные языковые модели,google

В принципе после этого уже +- можно начинать общение!

Поэтому переходим к обзору основных нюансов общения с нейровайфу.


Песеты настроекгенерации.

Первая из них это параметры генерации модели. 

т ¥ а I ¿0 И & 9 Е£ ^ Можно установить вручную, использовав цифру рядом с ползунком е Предустановки Kobold О RecoveredRuins V u ra a t Л т Длина ответа (в токенах) Размер контекста (в токенах) 400 8192 * в Неограниченный О Температура О Тор-кО 1,00 0 ТорРО Typical Р О

Главное, на что здесь стоит обратить внимание это
1. Длина ответа в токенах – ограничивает размер ответа модели.
2. Размер контекста – сколько текста вы посылаете нейросети при каждом запросе*

* тут стоит сделать небольшое отступление: многие думают, что общение с нейросетью происходит как с человеком. Вы ей что-то пишите – она на это запоминает и учитывает в последующих ответах. Это не совсем так: языковая модель может дать всего один ответ на один запрос. Памяти как таковой ни у одной современной LLM нет в принципе. Так как-же тогда происходить длинная переписка? Очень просто: в качестве запроса модели КАЖДЫЙ РАЗ посылается история всей вашей предыдущей переписки, она обрабатывает всю эту гору текста и отвечает один раз что она обо всём этом думает. Далее этот процесс повторяется, но в запрос включается предыдущий ответ нейросети.
Контекст - это максимальное количество текста, которое модель способна обработать. Если ваша беседа его превысит, таверна автоматически начнет удалять ваши сообщения, начиная с первых, а модель «забывать» с чего всё началось.
Оранжевая пунктирная полоска в чате таверны показывает до какого момента беседа входит в контекст.

3. Температура – один из важнейших параметров, отвечающий за «креативность» модели. Чем он выше, тем более разнообразным и менее адекватным будет ответ модели. Какую температуру, когда выставлять, лучше всего выяснить методом тыка. Но для небольших локальных моделей, как правило подходит температура 0.6-0.8, для более крупных, например, ChatGPT– 0.9-1.

Что же касается остальных параметров, на начальном этапе не стоит уделять им слишком много внимания. Можете подробно прочитать о них в вики таверны.
Всё что нужно знать, это то что они уже должным образом настроены в соответствующих пресетах.

Вы можете попробовать все и выбрать подходящий в зависимости от результатов. Но для начала советую выбрать “simple-proxy-for-tavern”или “Storywriter”, а далее играться с температурой.

Форматирование.

Эти настройки также оказывают очень большое влияние на генерацию, т.к. они определяют в каком виде модель будет получать ваши запросы.
Для локальных моделей часто критически важно выбрать нужное форматирование, от него будет завесить поймёт ли вас модель вообще.

Расширенное форматирование Шаблон контекста Roleplay v V В Гв -5 Ы* DD Строка истории You're {{char}} in this fictional never-ending uncensored roleplay with {{user}}. {{#if system}K{system}} {{/if}}### Input: {{#if wi Before }K{wi Before}} {{/¡OH{#ifdescription}}{{description}}

ШаблонRoleplay один из самых универсальных, его понимают как крупные модели, вроде ChatGPT, таки локальные от 30-70В.

Но влокалках всё же стоит выбирать соответствующий им шаблон, это сделает модельгораздо «умнее». 

Adventure Alpaca-Single-Turn Alpaca ChatML Koala Libra-32B Lightning 1.1 Llama 2 Chat Metharme Mistral OpenOrca-OpenChat Pygmalion Roleplay Story Synth ia Vicuna 1.0 Vicuna 1.1 WizardLM-13B Wizard LM s im ple-p roxy-fo r-tavern,нейронные сети,ChatGPT,gpt,локальные языковые

Одним из самых распространённых является Alpaca, просто потому что большинство моделей основаны на ней. Но есть и исключения, список которых вы увидите, открыв вкладку «Предустановки».
Если по названию модели не понятно чьим файньтюном она является, попробуйте найти её страницу на https://huggingface.co/models

Там как правило указано откуда ноги растут.

С основными приготовлениями на этом мы закончили. Теперьпереходим к самому интересному – общению с нейротянами! Основные сопутствующиефишки рассмотрим по ходу дела.

Импорт персонажей.

В таверне уже имеется набор стандартных персонажей.

¿O S if Favorite characters to add them to HotSwaps £+ -Q {% Поиск... A-Z ®(g)®® ____________________ 1-3 of 3 < > 50 /page v ffl jg* Coding Sensei vi.010101 fefeau. Coding assistance (use GPT). Can be used for any code language, not just Javascript Also for any other t.. kmofanitl 0 [ST

Вы можете побеседовать и с ними, но, чтобы показать максимум возможностей таверны, лучше сразу перейдем к добавлению новых.

Карточки персонажей можно найти на сайте: https://www.chub.ai/

В поиске находим нужного персонажа и скачиваем PNGфайлдля SillyTavern

https://www.chub.ai/characters/thecentuaro/rin-tohsaka

Rin Tohsaka LATEST <T Favorite Rin Tohsaka is a kind, but sarcastic and tsundere girl. She's one of main characters in a Fate/Stay Night. Rin Tohsaka is a kind, but sarcastic and tsundere girl. She's one of main characters in a Fate/Stay Night. It is currently lunch break and Rin Tohsaka is

Кроме того, если есть, скачиваем Expressions ZIP и Лорбук (внизу вкладки Tavern, после описания карточки)

Link a Lorebook Any number of linked books is allowed. They will be built into the card's embedded character book on V2 cards. Use the full path of the project, e.g. 'lorebooks/bartleby/example-lorebook'. ^ Fate Lorebook Fate series basic lores Fate Approximately 10177 Tokens gimc25419 Jun

Карточку персонажа кидаем в SillyTavern-staging\public\characters

Туда же извлекаем изображения из архива Expressions, папку не переименовываем, она должна соответствовать имени персонажа.

w Rin Tohsaka default_Seraphin a.png Seraphina README.md main_rin-tohsaka _tavern.png default_CodingS ensei.png default_FluxTheC at.png,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Лорбук же кидаем в SillyTavern-staging\public\worlds

Имя Дата изменения Тип Размер О ЕИопа^оп 12.01.2024 17:20 Файл 'МБОМ" 6 КБ О fate-lorebook_s¡llytavern.json 13.01.2024 19:41 Файл 'МБОМ" 89 КБ □ README.md 12.01.2024 17:20 Файл "МО" 1 КБ,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Теперь можно обновить вкладку с таверной и нажать на иконку с появившимся персонажем.

¿+ ¡j £% *•£ floncK... A-Z *x*; p ^ 1-4 of 4 < > 50/page v ffl Coding Sensei vi.010101 m Coding assistance (use GPT). Can be used for any code language, not just Javascript Also for any other t.. (ST Default] Flux the Cat ST Default Bot contest winner: creative prompts category (ST

.*• Rin Tohsaka January 13.2024 7:52 PM ■ -r C , ■ f v It is currently lunch break and Rin Tohsaka is waiting for User on the school rooftop, #0 normally closed. It's where he shares information with her as part of her deal with this apprentice mage. As he enter she looks at him while wearing a

Но при открытии мы увидим что чат на английском, а Рин обращается к нам как к Юзеру.
Чтобы исправить жмем на иконку Расширения и открываем вкладку Chat Translation

т * a s £» и & т s Расширения Ш Notify on extension updates & Manage extensions £% Install extension Download Extensions & Assets Character Expressions Image Generation Image Prompt Templates TTS Quick Reply Chat Translation Auto-mode Translate both Provider Google Target Language Russian

Здесь выбираем пункт Translation both, Googleи Русский язык.

£ Миры/Сведения 9 Активные миры для всех чатов * fate-lorebook_sillytavern Activation Settings ($> New или Редактировать v £ /-* КУ Priority V •о и л в а е + P S Ü, la DD Поиск... IIL.I\IIIU I ICI LUI lUUC. Г11IUII V, MUCH MC UUUCUM,,нейронные сети,ChatGPT,gpt,локальные языковые

Затем идём во вкладку «Миры» и выбираем Fate, чтобы беседа была более каноничной.

«Лордбуки» это сборники кратких сведений о мире или персонажах, в дополнение к основной карточке. Интересны они тем что, в отличие от карточки, количество записей в лорбуках не ограничено. Просто, когда речь аходит о каком-то событии или термине, название которого совпадает с записью влорбуке, таверна добавляет эту запись к промпту, чтобы модель понимала о чём идёт речь.

Я пару раз использовал лорбук для того чтобы написать персонажей с очень сложной предысторией, на десяток тысяч токенов) и это прекрасно работало при контексте всего в 4к.
Кроме того лорбук вполне можно использовать как замену «памяти» бота, записывая в него занимательные факты из вашего общения. Минус в том, что делать это надовручную.

Теперь заглянем в раздел Управления персоной. Здесь вы можете как описать свою личность, так и притвориться кем-то другим. Лично я всегда предпочитаю писать правдивое описание себя, ведь именно так вас будет воспринимать бот.

Управление Персоной Как мне это использовать? Usage Stats Backup -5 Restore f© Создат Имя Ваша Персона Ignat Описание Персоны ^ 6 С Race: Human Height: 199 cm. Weight: 120 kg. Penis size: 35 cm. Description: Athletic young man with short hair. His pumped-up figure is adorned with muscle

Кроме того, можно выбрать (или сгенерировать, об этом позже) подходящий фон беседы

 A bedroom tatami ff1*' j f «I '(* cityscape medieval night japan classroom side japan classroom japan path cherry blossom bedroom clean System Backgrounds S Auto-select cityscape medieval market .transparent bedroom cyberpunk > ; . . - ■ forest treehouse fireworks air baloons (by

По большей части всё – можно беседовать!

▼ А Rin Tohsaka January 13.2024 8:35 PM V Сейчас обеденный перерыв, и Тосака Рин ждет Игната на крыше школы, которая обычно закрыта. Здесь он делится с ней #0 информацией в рамках ее сделки с этим учеником мага. Когда он входит, она смотрит на него с игривым выражением лица и приветствует

Стрелка справа от ответа персонажа это «свайп», при нажатии на неё сгенерится другой ответ, но вы всегда можете вернуться к предыдущему. Карандашик позволяет отредактировать любую реплику, как свою, так и бота в любой момент. Это очень полезно, если вдруг появилось желание разыграть другую сцену или просто что-то слегка подправить.

При нажатии на иконку персонажа, вы увидите его описание, которое точно также можно изменить в любой момент.

Что-ж, это был необходимый минимум, для начала использования таверны.

Но для тех, кому этого мало, продолжаем!

Особые возможности.

Преобразования вашей речи в текст. (STT) (понадобится микрофон)

Открываем расширения, вкладку «Download Extensions &Assets» и жмём кнопку подключения, соглашаясь с всплывающим сообщением.

т * а ш it, n & Расширения 0 Notify on extension updates & Manage exl Download Extensions & Assets Q Quick Reply Assets URL Chat Translation https://raw.githubusercontent.com/SillyTavern/SillyTave 11 ▼6 Image Captioning Extension Summarize & To download extensions from this page, you

Появится длинный список из разного рода улучшалок. У всех есть описания и их все вы можете попробовать самостоятельно, но я советую начать с «Speech Recognition»

Speech Recognition C3 Convert your speech to text using browser or extras.,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

После установки в расширениях появится новая вкладка. В ней нужно выбрать «браузер» и Русский язык. После этого рядом с кнопкой отправки сообщения появится также иконка микрофона, нажимаем её и говорим.

Преобразование текста в речь (TTS)

Дальше будет чуть сложнее, потому что теперь мы дадим голос ещё и нашей вайфу!

Для этого понадобится настроить вкладку расширений TTS.

TTS TTS Provider Loaded Select TTS Provider XTTSV2 Eleven Labs Silero XTTSv2 System Coqui Edge Novel OpenAI_____________ Reload,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Здесь интереснее всего 2 пункта: Silero и XTTSv2.

Результат работы Silero вы могли слышать в колабе text-generation-webui.Но в таверне подключение этого модуля на русском языке вызывает некоторое количество боли, так что как-нибудь в другой раз.

Поэтому подключаем https://github.com/daswer123/xtts-api-server

Вы можете установить его локально, следуя инструкции, но для начала лучше попробовать колаб: https://colab.research.google.com/drive/1b-X3q5miwYLVMuiH_T73odMO8cbtICEY?usp=sharing#scrollTo=nLS9QDgnrUmR

В настройках в строке Model_source: выбираем «apiManual»

Choose model source Model_souree: apiManual If you select local, the model of version Model_version will be loaded. Will use local transform.,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Затем просто запускаем все ячейки по очереди сверху вниз, пока в консоли последней не получим строчку

> Using model: xtts 2024-01-13 14:08:13.355 | INFO | xtts_api_server.tts_funcs:load_model:193 - Model successfully loaded INFO: Started server process [1364] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8020 (Press CTRL+C

После этого прокручиваем консоль в самое начало и ищем ссылку

Your url for SillyTavern: httos://emerging-sims-researcher-im.trvcloudflare.com,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Именно её нужно вставить в таверну:

XTTSV2 v Reload O Enabled 0 Narrate user messages O Auto Generation 0 Only narrate "quotes" O Ignore *text, even "quotes", inside asterisks* O Narrate only the translated text 0 Skip codeblocks [Default Voice] disabled v Ignat (Default Voice] v Rin Tohsaka female v Language Russian v

После этого настройки должны выглядеть так. Если поля с выбором голоса персонажа не появилось, перезагрузите страницу и снова войдите в чат с персонажем. Ползунки можно пробовать двигать, чтобы получить другой результат.

Голос для персонажа нужно выбрать обязательно, иначе он не заговорит.

Запустить озвучку фразы можно кнопкой

ЕвУ14<2>#рансР^ , ожидая увидеЩЦШ!Ш1ШЛ^ю юзнаградить-». ррт. но пстпнпвливпртся но,нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Но если вы настроили всё как на картинке, генерация будет идти автоматически после ответа.

Эмоции и сумморайз.

Теперь мы наконец-то можем общаться в живую! Но как-жевизуальный контакт? Разумеется, это тоже не обошли стороной, именно для этого мы с вами скачивали спрайты эмоций в папку с персонажем!

Для этого нам понадобится запустить отдельный сервер расширений.

Итак, идём на гитхаб https://github.com/SillyTavern/SillyTavern-Extras

Лучше поставить всё это локально следуя инструкции на странице (что гораздо удобнее для повседневного использования).
Но попробовать можно и в колабе (не опять, а снова)

https://colab.research.google.com/github/SillyTavern/SillyTavern/blob/release/colab/GPU.ipynb

Ничего не меняем, запускаем последнюю ячейку и ждём ссылки

Running on: https ://king-wellness-congressional-fake.trvcloudflare.com * Serving Flask app ’server' * Debug mode: off WARNING: This is a development server. Do not use it in a production deployme * Running on http ://localhost : 5100 Press CTRL+C to quit,нейронные сети,ChatGPT,gpt,локальные

Ссылку вставляем в нижнее поле окна Расширения

Расширения Download Extensions & Assets Character Expressions Image Generation ? Image Prompt Templates TTS Speech Recognition Extras API: SillyTavern-Extras https://king-wellness-congressional-fake.trycloudflare.com E & Notify on extension updates & Manage extensions A Install extension Q

Затем для удобства, рекомендую включить !!!РЕЖИМ ВАЙФУ!!! В настройках визуала.

Gill Настройки пользователя Advanced v •о И ^ 0 S Язык интерфейса По умолчанию v SillyTavem 1.11.2 j Search Settings Предустановки интерфейса Default (Dark) 1.7.1 ^ В ft Цвета интерфейса Стиль аватаров Крутые v Стиль чата по умолчанию v Основной текст Курсивный текст Текст в кавычках

И вот, мы уже можем общаться лицом к лицу! Алилуйа!

его на крыше, немного раздосадованная его опозданием, цокая языком. Наконец, когда он появляется, она начинает довольно рычать. «Ну и сколько мне пришлось тебя ждать? Ты опоздал! Опять!» Ignat January 13, 2024 8:35 PM Is Привет! Rin Tohsaka January 13,2024 8:38 PM V Она смотрит на него с

Спрайты персонажа будут меняться в зависимости от его «эмоций». Кроме того, они могут быть анимированы (но встречаются такие редко).

Также стоит упомянуть о вкладке Summarize в расширениях.

Это очень полезная штука, увеличивающая «память» бота. Работает это так: в какой-то момент, пока размер контекста ещё не превышен, модель кратко конспектирует суть происходящего. Затем этот «конспект» будет отправляться вместо не входящей в контекст истории чата.

Summarize with: Extras API Current summary: Summary will be generated here... S Pause O Summary Settings Insertion Template [Summary: {{summary}}] Injection Position • Before Main Prompt / Story String O After Main Prompt / Story String • In-chat @ Depth 2 Restore Previous •

Summarize & Summarize with: Main API /\ Current summary: Restore Previous [Taking the above information into consideration, you must chat in a roleplaying manner with Rin Tohsaka. Never write for Rin Tohsaka in your | responses.] *As Rin and Ignat continue their training session together,

Есть два варианта конспектирования: С использованием основной модели (будет генерироваться как дополнительная реплика, с той же скоростью), либо с использованием специальной модели в сервере расширений (но тогда этот сервер должен быть запущен и подключен).


Групповые чаты

Но чего-то не хватает… Правильно, зачем общаться с одной аниме-тян, когда можно общаться с двумя?!

Выбираем опции в левом нижнем углу чата и жмём «превратить в группу»

нейронные сети,ChatGPT,gpt,локальные языковые модели,google colab,длиннопост,SillyTavern,LM,вайфу

Переходим в меню персонажа и в настройках открываем вкладку «добавить членов»

Group: Rin Tohsaka Контроль группы Group: Rin Tohsaka Щ Искать / Создать тэги Щ Сортировка ответов в группе Обычный порядок v Group generation handling mode Swap character cards v «- ★ Разрешить ответ себе Автоматический режим 5 Hide Muted Member Sprites Текущие члены & 1-2 of 2 < >

После чего составляем нужный нам для досуга список.

Глаза Сэйбер сияют уверенностью, когда она нежно сжимает рукоять меча Как Король Рыцарей, я обладаю #4 исключительными боевыми способностями, отточенными годами опыта на поле боя. Мое главное оружие — 50.9s Экскалибур, божественный меч, подаренный мне Владычицей Озера. С его помощью я могу


Генерация иллюстраций к чату.

Так, что же ещё нам может понадобиться? Конечно же иллюстрация происходящего с помощью Stable Diffusion!

Q Image Generation ? O Edit prompts before generation 9 Interactive mode 9 Use multimodal captioning for portraits 9 Auto-enhance prompts Source Extras API (local / remote) v Extras API (local / remote) Stable Horde Stable Diffusion Web Ul (AUTOMATIC1111) SD.Next (vladmandic) NovelAI

На выбор есть несколько вариантов. Если у вас подключен сервер API, вы можете сгенерировать картинку через встроенный SDмодуль. Также можно подключить через APIсобственныйзапущенный StableDiffusion.Но мне больше нравится вариант StableHorde,т.к. он всегда доступен и не требует дополнительных модулей.

Жмём на волшебную палочку в нижней левой части чата и выбираем Generate Inage и далее один из пунктов

Send me a picture of: Yourself Your Face K( Me a' ia The Whole Story The Last Message ¡a. Raw Last Message ^ iv Background W I i J ridyudlft y Generate Image 2 X ™ #! H Generate Caption Vt 48 1 Token Counter oc □D Translate Chat,нейронные сети,ChatGPT,gpt,локальные языковые

Теперь ждём пока не получим результат!

фЪ \ Rin Tohsaka January 13.2024 9:56 PM V i С интересом глядя на Сэйбер, Рин мысленно отмечает ее невероятные навыки и оружие. Однако ее больше интересует ее #5 Мастер, чьи магические запасы, кажется, неуклонно истощаются. "Итак... Игнат, сколько запасов праны у тебя 48,85 осталось? Твои запасы

Это может быть неплохой заменой спрайтам эмоций, превращающей чат в графическую новеллу.

Но учтите, что перед генерацией картинки, ваша текстовая модель сгенерирует для неё промпт. Так что всё это может занять дополнительное время.

Конечно в таверне ещё много фишек и настроек, но пока думаю стоит на этом остановиться.

Спасибо всем, кто дочитал до этого момента не пролистывая!

P.S. Если вы, чтобы не ждать очереди в Хорде, запустили LLMв колабе Text Generation WebUI, затем чтобы не устанавливать TTS, запустили в колабе и его, и в конце то же самое сделали с сервером дополнений, то поздравляю, у вас фуллхаус!

Развернуть

наука наука и техника технологии нейронные сети Stable diffusion Stable riffusion StableRiffusion Riffusion 

Stable Diffusion начала синтезировать музыку

 

В рамках проекта Riffusion разработчики развивают вариант системы машинного обучения Stable Diffusion для генерации музыки вместо изображений. Мелодии можно создавать как на основе предложенного шаблона, так и с помощью текстового описания на естественном языке.

 

наука,наука и техника,технологии,нейронные сети,Stable diffusion,Stable riffusion,StableRiffusion,Riffusion

 

Компоненты для синтеза музыки написали на языке Python с использованием фреймворка PyTorch. Связь с интерфейсом реализовали на языке TypeScript. Компоненты доступны под лицензией MIT.

Сама модель открыта под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.

Обновлённая модель использует для генерации музыки модели «из текста в изображение» и «из изображения в изображение», но в качестве изображений выступают спектрограммы. Они отражают изменение частоты и амплитуды звуковой волны во времени. Система на выходе формирует новую спектрограмму, которая затем преобразуется в звуковое представление.

Проект Riffusion также может использовать для изменения имеющихся композиций и синтеза музыки по образцу. Этот процесс работает по аналогии с модификацией изображений в Stable Diffusion. Так, при генерации могут задаваться образцы спектрограмм с эталонным стилем, комбинироваться разные стили, выполняться плавный переход от одного стиля к другому или вноситься изменения в существующий звук для увеличения громкости отдельных инструментов, изменение ритма и т.д.

Образцы можно использовать для генерации длительно играющих композиций, создаваемых из серии близких друг к другу отрывков, немного меняющихся во времени. Они объединяются в непрерывный поток при помощи интерполяции внутренних параметров модели.

Для создания спектрограммы используется оконное преобразование Фурье. Чтобы решить проблему с определением фазы, задействован алгоритм аппроксимации Гриффина-Лима.

В ноябре Stability AI сообщила о выпуске новой версии модели Stable Diffusion 2.0. В ней улучшили качество и повысили вариативность получаемых изображений.

Развернуть

Отличный комментарий!

Музыканты через 3, 2, 1...
Jake_the_crab Jake_the_crab17.12.202219:02ссылка
+45.8

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать любой рисунок с помощью StableDiffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Нужно:

Установленный и настроенный свежий Automatic1111 web-guiУстановленное расширение ControlNet, и все нужные модели к немуУмение хоть сколько-нибудь с этим работать

Всё происходит во вкладке txt2img

Сначала берём исходное изображение, кладём его в 2 вкладки ControlNet'a и включаем их. Вот как-то так:

ControlNet vi. 1.224 ControlNet Unit О Single Image 13 Image ControlNet Unit 1 ControlNet Unit 2 Batch,нейронные сети,гайд,туториал,StableDiffusion,песочница

Первую вкладку (Unit 0) настраиваем следующим образом:

Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile Inpaint IP2P O Reference T2IA Preprocessor reference_only Control Weight 1 Starting Control 0;3 Ending Control Step 1 Style Fidelity (only for "Balanced" mode) 0,5 Control Mode Balanced

А вот так вторую (Unit 1):

Control Type All Canny Depth Normal OpenPose MLSD Lineart SoftEdge Scribble Seg Shuffle Tile O Inpaint IP2P Reference T2IA Preprocessor Model inpaint_only+lama controlnetllModelsJnpaint [I ▼ Control Weight Starting Control Step Ending Control Step 1 Control Mode O Balanced My prompt

Два инстанса нужны, потому что первый отвечает за передачу стиля, а второй обеспечивает генерацию поверх существующего изображения с учётом контекста.

Осталось нарисовать маску:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Параметры генерации, промпты:

Sampling method DPM++2M Karras Restore faces Tiling Hires, fix Width Sampling steps 32 600 Batch count 2 ~) n 608 • Batch size 2 6 o <$> Extra,нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпте, то что хотим сгенерировать в зоне маски 

Позитивный - (white flowers:1.1), (best quality, masterpiece:1.2)

Негативный как обычно - EasyNegative, (worst quality, low quality, normal quality:1.4), (painting of bad artist:1.2)

Нажимаем Generate и получаем:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Пара моментов:

Старайтесь генерировать поближе (насколько возможно) к оригинальному разрешение. Hires. fix лучше не использовать - он ломает тонкие детали.

Нужен подходящий чекпойнт в зависимости от стиля оригинального рисунка. Под реалистичные рисунки реалистичные модели, под стилизованные - стилизованные.

Развернуть

Stable diffusion нейронные сети нейромазня ControlNet гайд длиннопост 

Практическое применение нейросетей

Раз уж я вошёл в мир нейросетей благодаря реактору (через слитую модель novelAi и гайду к ней), то хочу вернуть дань благодарности этим небольшим мануалом.

Вы сможете генерировать прикольные арты на основе любого логотипа \ текста буквально в пару шагов.

0) Нужен stable diffusion от automatic1111 свежей версии (как его устанавливать тут не буду описывать);

1) Устанавливаем расширение ControlNet:

a) Копируем ссылку: https://github.com/Mikubill/sd-webui-controlnet

b) Идём во вкладку extensions -> install from URL, в первое поле вставляем ссылку и жмакаем install

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings l Extensions Installed Available Install from URL — URL for extension's git repository https://github.com/Mikubill/sd-webui-controlnetl Local directory name Leave empty for auto Install,Stable

c) Во вкладке installed на всякий случай проверяем апдейты: "Check for updates", и нажимаем "Apply and restart UI"

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions l Installed Available Install from URL Apply and restart Ul Check for updates Extension URL Version Update @ openpose-editor https://github.com/fkunnl326/openpose-editor 124e47c5 (Sun

После этих манипуляций у Вас перезагрузится web страница и появится вкладка "ControlNet" в txt2img:

txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Setti bomberman blur, low quality, bad art, man, face, skull, text Sampling method Sampling steps 20 Euler a v v J Width 768 Batch count 4 ti Height 768 \ / Batch size 1 CFG Scale Seed -1

(Если не появилась, то попробуйте Settings, нажать Apply и перезапустить Stable Diffusion полностью)

d) Загружаем модели для ControlNet:

для этого идём сюда: https://civitai.com/models/9251/controlnet-pre-trained-models

скачиваем все версии моделей (там есть раздел Versions с отдельной кнопкой загрузки);

все скачанные файлы закидываем в <путь до SD>\stable-diffusion-webui\extensions\sd-webui-controlnet\models

2) Генерируем арты:

a) подготавливаем свой логотип \ текст. 

я сделал такую картинку в фш:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

p.s: походу желательно не использовать прозрачный фон (у меня с ним ничего не вышло).

b) двигаем настройки ControlNet:

ControlNet Invert colors if your image has white background. Change your brush width to make it thinner if you want to draw something. 2. Нажимаем "Enable"; Invert Color (если фон белый); Low VRAM @ Enable @ Invert Input Color RGBtoBGR @ Low VRAM Guess Mode Preprocessor 3- p ^processor:

c) и наконец генерируем (выставляем размер, пишем promptы, жмакаем generate).

единственное НО: у меня не получилось подружить controlNet с "hiresfix". даже "latent(nearest)" начинает ломать образ. поэтому генерировал сразу в 768х768 (Вам, возможно, надо будет пробовать с 512х512)

Stable Diffusion Checkpoint --------------------- dreamlikeDiffusionl0_10.ckpt [0aecbcfa2c] ^ SDVAE G Automatic G Clip skip r 2 Show live previews of the created image txt2img img2img Extras PNG Info Checkpoint Merger Train OpenPose Editor Depth Library Settings Extensions 2/75

любые LORA, HyperNetwork, embeddings прекрасно работают.

модель на которой я генерил: https://civitai.com/models/1274/dreamlike-diffusion-10

ну и примеры того что у меня получилось:

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост

Идея честно спизженна отсюда:

https://www.reddit.com/r/StableDiffusion/comments/11ku886/controlnet_unlimited_album_covers_graphic_design/

Ну и напоследок хочу сказать что это расширение умеет гораздо большее. например можно полностью копировать стиль фото \ любые позы \ выражения лиц и ДАЖЕ рисовать идеальные руки и ноги (причём с фокусом на них). Но и запариться там нужно чуть сильнее)

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Stable Diffusion Google Colab (+1000 картинок)