Stable diffusion
Подписчиков: 1153 Сообщений: 3566 Рейтинг постов: 54,254.9Нейросетевые Барышни Арт Барышня art нейромазня нейронные сети нагенерил сам Stable diffusion anything v3 длинопост NSFW
Эта нейроно-шайтана машина удивляет, закидывая случайным образом запросы иногда выходит очень занимательный результат
Эта барышня получилась из попыток раскрасить кожу и волосы. Нейронка отказывалась по началу делать загорелую кожу, удалось получить стабильный результат с поднятием приоритета, после уже пробовал прилепить фоном город.
Попытки нагенерить ведьму к ролёвке. По началу пробовал конкретно указать witch но тогда нейронка лепит шляпы всем артам. А нужна была старуха-знахарка-ведьма без шляп. Наиболее близкий результат к желаемому
А она вышла из попытки сгенерить тоже персонажа к ролёвке, деваха, следопыт, гетерохромия, крашеные волосы, бусы, нейронка постоянно генерила или один цвет или не те цвета даже если на прямую указывать какой цвет нужен. В итоге персонаж так и не получился но процесс генерации был очень занимательный.Ещё один заход на следопыта, упорно рисовало обтягивающий костюм пока не написал "buggy"
наука наука и техника технологии нейронные сети Stable diffusion Stable riffusion StableRiffusion Riffusion
Stable Diffusion начала синтезировать музыку
В рамках проекта Riffusion разработчики развивают вариант системы машинного обучения Stable Diffusion для генерации музыки вместо изображений. Мелодии можно создавать как на основе предложенного шаблона, так и с помощью текстового описания на естественном языке.
Компоненты для синтеза музыки написали на языке Python с использованием фреймворка PyTorch. Связь с интерфейсом реализовали на языке TypeScript. Компоненты доступны под лицензией MIT.
Сама модель открыта под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.
Обновлённая модель использует для генерации музыки модели «из текста в изображение» и «из изображения в изображение», но в качестве изображений выступают спектрограммы. Они отражают изменение частоты и амплитуды звуковой волны во времени. Система на выходе формирует новую спектрограмму, которая затем преобразуется в звуковое представление.
Проект Riffusion также может использовать для изменения имеющихся композиций и синтеза музыки по образцу. Этот процесс работает по аналогии с модификацией изображений в Stable Diffusion. Так, при генерации могут задаваться образцы спектрограмм с эталонным стилем, комбинироваться разные стили, выполняться плавный переход от одного стиля к другому или вноситься изменения в существующий звук для увеличения громкости отдельных инструментов, изменение ритма и т.д.
Образцы можно использовать для генерации длительно играющих композиций, создаваемых из серии близких друг к другу отрывков, немного меняющихся во времени. Они объединяются в непрерывный поток при помощи интерполяции внутренних параметров модели.
Для создания спектрограммы используется оконное преобразование Фурье. Чтобы решить проблему с определением фазы, задействован алгоритм аппроксимации Гриффина-Лима.
В ноябре Stability AI сообщила о выпуске новой версии модели Stable Diffusion 2.0. В ней улучшили качество и повысили вариативность получаемых изображений.
Отличный комментарий!