sfw
nsfw

Результаты поиска по запросу "the bat не сохраняются настройки"

ТРОЯН TROJAN.MUTABAHA.1 ОБХОДИТ UAC И УСТАНАВЛИВАЕТ ФАЛЬШИВЫЙ CHROME

Специалисты «Доктор Веб» предупреждают об обнаружении трояна Trojan.Mutabaha.1. Малварь не просто атакует пользовательский браузер, но устанавливает на зараженный компьютер собственную сборку браузера Chrome, подменяя оригинал.
Главной отличительной чертой вредоноса является его умение обходить защитный механизм User Accounts Control (UAC). Исследователи пишут, что впервые информация об этой технологии обхода UAC была опубликована в интернете 15 августа 2016 года, и спустя всего три дня вирусная лаборатория компании обнаружила первый образец малвари (Trojan.Mutabaha.1.), который использовал данную технику.
Первым делом после заражения на компьютере запускается дроппер вредоноса, который повышает свои привилегии в системе, модифицируя ветки системного реестра HKCU\Software\Classes\mscfile\shell\open\command. Затем малварь сохраняет на диск и запускает приложение setup_52.3.2743.82_1471853250.exe, а также сохраняет и запускает .bat-файлы, предназначенные для удаления самого дроппера. Когда все готово, малварь связывается с управляющим сервером и получает от него файл конфигурации, в котором указан адрес для скачивания фальшивой версии браузера. Подделка устанавливается в папку C:\Program Files\Outfire и регистрируется в системном реестре.
Собственная сборка Google Chrome, созданная злоумышленниками, имеет имя Outfire. Помимо регистрации в реестре, браузер также запускает несколько системных служб и создает задачи в планировщике, чтобы загрузить и установить собственные обновления. При этом Outfire подменяет собой уже установленный в системе браузер Google Chrome: модифицирует имеющиеся ярлыки (или удаляет их и создает новые), а также копирует в новый браузер существующий профиль пользователя Chrome. Так как злоумышленники используют стандартные значки Chrome, жертвы могут не заметить подмены.

Покончив с основной задачей, Trojan.Mutabaha.1 ищет в системе другие поддельные браузеры. Их имена троян генерирует, проверяя комбинации значений из двух списков-словарей, суммарно предлагающих 56 вариантов. Если в системе обнаружен конкурент, Trojan.Mutabaha.1 останавливает его работу, удаляет его записи из Планировщика заданий и из реестра.
Зачем вообще нужен поддельный браузер? Стартовую страницу такого браузера нельзя изменить, а также он использует неотключаемую надстройку, которая подменяет всю рекламу на просматриваемых пользователем страницах. Это проверенный и известный способ монетизации. Кроме того, Outfire использует по умолчанию собственную службу поиска, хотя ее все-таки можно сменить в настройках.

SYIarxo "Rívassíoa, Zoib
^MtíiAA^rtv/пая.. соли,Markraas,Marko Raassina, Scrollzoom,artist,Смешные комиксы,веб-комиксы с юмором и их переводы,2d,waifu,Nerd and Jock,Ботан и качок
реактор, помоги пожалуйста, будь человеком. как называется это окошко? а лучше скажи сразу как сделать так чтоб его вообще никогда не было больше. (окно вызывается когда нажимаю на клаве кнопку play\pause и изза него я не могу поиграть в скарим=(....). я реально уже подзаебался, мешает существовать и работать. реактор, помоги, а?

ywn
i
f,песочница
Когда нашел диск со старой
игрой, которую сильно любил, а в компе нет привода для дисков,говард старк,Игры,Marvel,Вселенная Марвел,фэндомы

Отличный комментарий!

Просто скачай с торрента
,говард старк,Игры,Marvel,Вселенная Марвел,фэндомы
Потом установи два патча, левый плагин, поменяй четыре значения в трех разных файлах открыв их через блокнот, полазай два часа по мертвым форумам, запусти игру, пойми что она то не запускается, то цвета реверсивны, то разрешение вытянуто вертикально в формате 1 к 4 с черными горизонтальными полосами, поебись с игрой еще два дня, заставь ее работать на новом железе, поиграй пол часа и пойми, что игра не так уж хороша, какой ты ее запомнил.
Ну, справедливости ради, при установке с того самого диска, проблем, вероятно, было бы еще больше.

Как апскелить у себя дома

Краткая предыстория: решил посмотреть первый сезон покемонов, но захотелось, чтоб прям всё красивишно в 4к, потому начал искать варианты.
Машина 1: Стационарный ПК, MX Linux, R7 7700X, RX 7900XTX, 32 ГБ ОЗУ
Машина 2: Ноутбук Win10, R7 5800H, RTX 3060 Laptop, 16 ГБ
-----
Первым делом попробовал dandere2x (https://github.com/akai-katto/dandere2x), он основан на waifu2x. Итог: тестовый отрывок (20 секунд) обработан на машине 1 за ~5 минут, покадровое сравнение выгоды относительно просмотра видео без апскейла не выявило. Инструкции по установке, которыми я пользовался, если кому интересно:
-----
После этого я обнаружил Anime4K (https://github.com/bloc97/Anime4K), апскейлер в реальном времени, основной минус - работа с ограниченным кол-вом проигрывателей (1-3 в зависимости от ОС). Инструкции по установке и применению находятся по ссылке выше в зависимости от проигрывателя. Но я пользуюсь SMPlayer, так что вот инструкция:
1) Следуем инструкции mpv
2) Открываем файл input.conf, открываем настройки SMPlayer (ПКМ - сервис - настройки - дополнительно - MPlaeyr/mpv) и вставляем необходимый нам профиль в поле "параметры"
Например: вы хотите профиль "A", в input.conf вы видете строку:
CTRL+1 no-osd change-list glsl-shaders set "~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"; show-text "Anime4K: Mode A (HQ)"
В параметры вы копируете только то, что находится в кавычках (вместе с кавычками) после слова set и до слова show-text, то есть:
"~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"
И добавляете перед этим: --glsl-shaders=, получая что-то вроде этого:
--glsl-shaders="~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"
3) Profit
Естесственно комбинации клавиш для переключения профилей в таком случае не будет.
Стоит упомянуть, что Anime4K не сохраняет апскельнутую версию, так что каждый раз будет апскелить как в первый.
-----
Там же на сайте Anime4K было сравнение разных алгоритмов:
Очевидно, что после такого я захотел установить real-ESRGAN, потому что я хотел бы как раз сохранить себе апскельнутую версию, плюс он всё таки визуально получше.
В результате визуально качество Anime4K (я использовал пресет для higher-end gpu) и Real-ESRGAN довольно близко, но некоторую разницу при сравнении заметить можно.
Обработка тестового отрезка (20 секунд) на машине 1 заняла ~56.5 минут (заработала только на CPU), на машине 2 - ~2 минуты. Были мысли перед постом проверить работу через ZLUDA (https://github.com/vosen/ZLUDA) недавно вышедшую прослойку между CUDA и видеокартами AMD, но на Debian пока нет ROCm, так что когда-нибудь...
Дальше инструкция по установке Real-ESRGAN на Win10 и Linux и бонусные батники для винды для удобства.
Собственно инструкция:
1) Установка ffmpeg на Win10 (на linux по идее предустановлено)
1а) Открыть powershell (под администратором)
1б) Установить chocolatey (https://chocolatey.org/install#individual)
- Ввести команду:
Set-ExecutionPolicy Bypass -Scope Process -Force; [System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072; iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))
- Проверить, что всё установилось:
PS C:\Users\shtur> choco
Chocolatey v2.2.2
Please run 'choco -?' or 'choco <command> -?' for help menú.,нейросеть,песочница,апскейл,инструкция
1в) Установить ffmpeg
- Ввести команду:
choco install ffmpeg -y
1д) Закрыть powershell
2) Создание python3 virtual environment (venv) (необходим установленный python3)
Windows:
- Открыть командную строку (cmd) (под администратором)
- Ввести команду, чтобы установить virtualenv:
pip install virtualenv
- Перейти в директорию, где хотите создать venv
cd /d "G:/AI"
# /d указывает на то, что директория будет на другом диске (G)
- Создать venv
virtualenv anyname-venv
# Вместо anyname-venv можно указать любое допустимое в win10 имя
Linux:
- Открыть терминал
- Перейти в директорию, где хотите создать venv
cd ~/AI
# ~ означает домашнюю директорию пользователя
- Создать venv
python3 -m venv ./.anyname-venv
# Первая точка означает текущую директорию
# Вторая точка - часть названия, просто файлы и папки, начинающиеся с точки считаются скрытыми
# Вместо .anyname-venv можно указать любое допустимое в linux имя
3) Активация venv (Нужно будет делать каждый раз, когда захотите запустить Real-ESRGAN) (делается из директории в которой мы вводили предыдущую команду)
Windows:
- Заходим внутрь
cd anyname-venv
cd Scripts
- Активируем
activate
:\AI>cd anyname-venv :\AI\anyname-venv>cd Scripts :\AI\anyname-venv\Scripts>activate (anyname-venv) G:\AI\anyname-venv\Scripts>,нейросеть,песочница,апскейл,инструкция
Linux:
source ./.anyname-venv/bin/activate
4а) Переходим в папку куда мы скачали и разархивировали Real-ESRGAN
Windows:
cd G:\AI\Real-ESRGAN-master
Linux:
cd ~/AI/Real-ESRGAN-master
4б) Устанавливаем необходимые библиотеки
pip install basicsr facexlib gfpgan ffmpeg ffmpeg-python
Windows:
pip install -r G:\AI\Real-ESRGAN-master\requirements.txt
Linux:
pip install -r ~/AI/Real-ESRGAN-master/requirements.txt
# -r указывает, что мы передадим файл со списком библиотек
# файл находится в скачанной директории
python setup.py develop
4в) Для владельцев ВК Nvidia отдельно устанавливаем pytorch с поддержкой CUDA
- Переходим на сайт https://pytorch.org/get-started/locally/
- Выбираем ОС, версию Cuda и установщик (pip)
- Копируем и выполняем выданную команду
4г) Правим код библиотек, чтобы он заработал
- Открываем файл ...\anyname-venv\Lib\site-packages\basicsr\data\degradations.py любым текстовым редактором (блокнот подходит)
Правим 8-ую строчку, из
from torchvision.transforms.functional_tensor import rgb_to_grayscale
Делаем
from torchvision.transforms.functional import rgb_to_grayscale
- Открываем файл ...\anyname-venv\Lib\site-packages\ffmpeg\_probe.py (Необязательно. Обязательно для обработки .mkv)
Правим 16-ую строчку, из
from torchvision.transforms.functional_tensor import rgb_to_grayscale
Делаем
args = [cmd, '-show_format', '-show_streams', '-of', 'json', '-count_frames']
# Чтобы для каждого видеофайла "вручную" считалось кол-во кадров, потому что, например, в .mkv нет данных о кол-ве кадров
4д) Правим код Real-ESRGAN, чтобы он заработал (или берём готовые файлы из гугл диска)
Если добавляли ручной подсчёт кол-ва кадров:
- Открываем файл ...\Real-ESRGAN-master\inference_realesrgan_video.py
Правим 35-ую строчку, из
ret['nb_frames'] = int(video_streams[0]['nb_frames'])
Делаем
try:
    ret['nb_frames'] = int(video_streams[0]['nb_frames'])
except(KeyError):
    ret['nb_frames'] = int(video_streams[0]['nb_read_frames'])
# Обращаем внимание на отступы (их можно сделать нажатием кнопки Tab)
Если запускаем на процессоре:
- Открываем файл ...\Real-ESRGAN-master\inference_realesrgan_video.py
Правим 272-ую (275-ую, если делали предыдущую правку) строчку, из
torch.cuda.synchronize(device)
Делаем
#torch.cuda.synchronize(device)
Правим 291-ую (294-ую) строчку, из
if num_process == 1:
Делаем
if num_process <= 1:
5) Запускаем обработку видео (желательно из папки Real-ESRGAN)
python inference_realesrgan_video.py --fp32 --suffix esrgan -i G:\AI\Real-ESRGAN-master\inputs\[Timber_Maniacs]_Pokemon_043_(041)_[Rus-Eng]_[XviD]_[219F48A8].mkv
# параметр --fp32 нужен, чтобы не было ошибки
# параметр --suffix указывает какой суффикс будет у выходного файла, по умолчанию: out. Например: исходный файл: "name.mp4", файл на выходе: "name_out.mp4" или "name_esrgan.mp4" в случае этой команды.
# параметр -i говорит какой файл обрабатывать (по идее можжно обрабатывать несколько файлов и всё такое, но оно как-то криво работает, так что только так)
# итоговые файлы будут сохраняться в папке .../Real-ESRGAN/results
6) Для WIn10 из гугл диска можно взять один из файлов с расширением .bat, чтобы облегчить себе запуск нескольких видео сразу
7) Profit
-----
inference_realesrgan_video-CPU.py и inference_realesrgan_video-CUDA.py переименовать в  inference_realesrgan_video.py и заменить оригинал.
Real-ESRGAN-autostart(video).bat запускает в обработку все файлы, которые находятся в папке "G:/AI/Real-ESRGAN-master/inputs/". Его надо открыть в том же блокноте и отредактировать пути на соответствующие вашим.

Спасибо за внимание!

Отличный комментарий!

Windows 11:
,Приколы для даунов,разное

Блокировка реактора и её обход

Товарищи, блокировка Реактора без объявления причин и предупреждения свершившийся факт. У кого-то он уже недоступен, у кого-то еще работает. Появилось много постов и комментариев с обходом блокировки. Я решил обобщить всю информацию в одном месте.
Мои советы почти полностью перекликаются с рекомендациями Роскомсвободы. Ознакомиться с ними можно на сайте https://openrunet.org/ 
1. Боярский аккаунт.
Самый простой способ обойти блокировку, а заодно помочь реактору. Стоит это удовольствие 100 рублей в месяц. Меньше 1$ в месяц для поддержки проекта недорогое удовольствие. 
Для его активации нужно сделать пожертвование на странице http://joyreactor.cc/donate.
После чего перейти в свой профиль и нажать "Активировать" под медальками. После чего появится срок действия и адреса прокси.
5^ Мои подписки & Мои закладки
Ф Мои настройки
Количество банов: 1 Сейчас аккаунт не в бане
Боярский аккаунт
Истекает 2022-04-18 19:39:51.
ПРОДЛИТЬ
Баланс: 100 р.,реактор,блокировка,цензура,обход блокировок,VPN,прокси,политика,политические новости, шутки и мемы
2. Браузер TOR.
Так сказать широко известен в узких кругах. И в представлении не нуждается. Медленно, местами даже очень, но позволяет почти всегда обойти необходимое. У меня прекрасно работает без мостов и даже быстрее, чем с ними. Грешу на саботаж провайдера. У кого-то не работает без мостов и нельзя запросить мосты. Для таких случаев есть решения от реакторчанина TLD228коммент.
@GetBridgesBot
https://forum.torproject.net/t/tor-blocked-in-russia-how-to-circumvent-censorship/982
https://forum.torproject.net/t/help-censored-users-run-a-tor-bridge/704
https://blog.torproject.org/tor-censorship-in-russia/
(НОВОСТИ НА 22 ДЕКАБРЯ) В настоящее время мосты, встроенные непосредственно в Tor Browser, в России заблокированы. Вам нужно получить работающий мост.
Это можно сделать пятью способами:
отправить сообщение Telegram-боту Tor; @GetBridgesBot - /bridges
запросить мост, используя инструмент Tor Browser - Moat,
отправить email по адресу bridges@torproject.org;
посетить страницу https://bridges.torproject.org
или подключится с помощью Snowflake.
Также можно зайти на "луковую" версию реактора. На ней доступны все разделы, но нельзя залогиниться.
3. Psiphon 
Эту программу советовал товарищ Лесной в своем посте http://polit.reactor.cc/post/5118201
Бесплатная версия на Андроид прекрасно работает. Ограничений трафика нет. Только ограничена скорость до 2 мбит/сек.
Версия для iOS так и не смогла установить соединение. 
На ПК не проверял.
4. Расширения для браузеров.
Прекрасно описаны на сайте https://openrunet.org/extension.html 
Censor Tracker — это расширение для браузера Google Chrome которое позволяет обходить интернет-цензуру в РФ.
Обход интернет-цензуры в России.
Можно добавлять свои сайте в исключения для проксирования. У кого реактор заблокирован проверьте эту функцию.
5. VPN сервисы.
С началом войны форсится VPN сервис Windscribe. Его использовать НЕ надо.
Стоит помнить, что бесплатный сыр бывает только в мышеловке. И любой бесплатный VPN на чем-то да зарабатывает. Чаще всего на торговле вашими данными. Видел и тех, кто не стеснялся воровать пароли, банковские карты и т.д. Особенно это касается расширений для браузеров с "бесплатным" VPN.
Список надежных и проверенных VPN также есть у Роскомсвободы.
Посмотреть их можно здесь https://vpnlove.me/
6. Сделать свой VPN.
Вы можете купить хостинг (VPS/VDS), установить сервер VPN и настроить его самостоятельно. Таким образом можно избежать того, что VPN-провайдер потенциально может видеть ваш трафик. Но на текущий момент это сложная процедура для обычного пользователя.
Роскомсвобода рекомендует сервис https://ru.amnezia.org/
Сам я с этим не сталкивался и настраивать не умею. Поэтому запрашиваю помощь у пидоров. Надеюсь увидеть подробную инструкцию.
,реактор,блокировка,цензура,обход блокировок,VPN,прокси,политика,политические новости, шутки и мемы
7. 1.1.1.1
Призываю TLD228. Товарищ дает советы по настройке сервиса, но не знаю насколько он помогает.
1.1.1.1 — бесплатное приложение от хостера сайтов CloudFlare. Оно направляет трафик пользователя в собственную сеть и шифрует его, но отдает сайтам персональную информацию (например, IP- и MAC-адреса).
теперь чтобы пользоваться варпом 1.1.1.1 нужно скачивать программу https://www.wireguard.com/install/ , затем устанавливать конфиг https://cf-warp.maple3142.net/ , меняя вручную Endpoint на 162.159.193.5:2408

¿!gj Редактировать туннель
X
Название: Публичный ключ:
warp
у 5CwLCDcgLpUkEfcpBuOUZZPLsmgByRpA/o +KCEg 5Н4=
[Interface]
PrivateKey = OOWsnQ5gs3rrZDDPHyn6+t9aTfllmXkBnbGCd9SHrWc= Address = 172.16.0.2/32, fd01:5cal:able:86ea:f9f0:b73b:668f:fd4e/128 DNS = 1.1.1.1
[Peer]
PubficKey =

КУПОН ДЕЙСТВУЕТ ДО 01.01.2077
ИСПОЛЬЗОВАТЬ ТОЛЬКО В СЛУЧАЕ КРАЙНЕЙ НЕОБХОДИМОСТИ,реактор,блокировка,цензура,обход блокировок,VPN,прокси,политика,политические новости, шутки и мемы

Отличный комментарий!

У нас все отлично, реактор работает как надо, укркомнадзор ничего не блокирует, потому что у нас его нет.
Отсутствие адовой цензуры, и министерства правды - это привилегия, которую ты получаешь, когда не живешь в полицейском государстве. Это одна из первородных причин начала всего этого из 2013. Мы не хотим вот это вот все, в том числе.

Тренируем модели через DreamBooth на конкретные образы.

Здравствуйте мои любители нейронного колдунства и прочих искуственно интелектуальных утех. Сегодня мы научимся тренировать уже готовые модели на образы которые мы хотим. Локально на нашем ПК без всяких Google Colab и Runpod.
Если я где то накосячил, поправьте в коментариях.
ДИСКЛЕЙМЕР! БУДЕТ ОЧЕНЬ МНОГО ТЕКСТА. Этот способ тренировки через DreamBooth подразумевает, что у вас в гробу установлена карточка (Nvidia скорее всего только поддерживается) с минимум 8-10 ГБ видеопамяти. Тренировка сетки уже куда более ресурсожрущий процесс, чем просто генерация картиночек. Ранее DreamBooth требовал минимум 24ГБ памяти. Так что пока я нашёл нужные материалы, проверил их и понял, как с этим работать, прошла не одна неделя... Стояла бы у меня 3090, то этот гайд вышел бы ещё в середине октября. но если всё же хочется побаловаться, то можно воспользоваться облачными google colab и runpod. Но я так же затрону гиперсети (Hypernetworks), результаты с ними куда менее презентабельные чем через dreambooth, но можно запустить на карточках попроще. Если вы всё же железо-бетонно готовы следовать дальше, прошу.
И так, продолжим. DreamBooth модель можно натренировать на свою рожу, свою собаку, любимую табуретку, или какого нибудь персонажа.
В данном посте я буду работать на модели NAI (NovelAI я буду сокращать в дальнейшем) ибо буду тренить на нашу Реактор-тян. Если хотите сделать своё лицо или, что то из нашего бренного мира то подойдёт обычная модель Stable Diffusion 1.4
В конце будет небольшой Q&A и заметки, дабы всю (почти) воду и рассуждения отградить от основной информации.
Я разобью гайд на несколько частей. Тренировка DreamBooth и тренировка Embeddings с Hypernetworks.
DreamBooth:
Знаю, что уже появился спобоб тренить DB (DreamBooth я буду сокращать в дальнейшем) через webui stable diffusion от AUTOMATIC1111 в виде загружаемого плагина, но чёрт, вы хоть видели сколько там настроек? Я устану вам объяснять каждую и вы умрёте от духоты, поэтому я выбрал более дружелюбное, отдельно загружаемое приложение - DreamBooth-gui - https://github.com/smy20011/dreambooth-gui скачиваем и устанавливаем его по инструкции приложеной на Гитхабе, не буду тут расписывать ибо и так много текста.
Запускаем приложение и видим первое, что нас просят сделать, а именно загрузить набор изображений на который мы хотим натренировать модель. Делаем их в разрешении 512x512, где надо фотожопим лишнее.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
Как только залили изображения, я сделал 8шт, переходим на следующую вкладку Confin Trainer, здесь мы зададим нужные параметры и настройки. Рассуждения о зависимости некоторых параметров от других, пока где-то на уровне теории заговоров, но основные зависимости я объясню дальше.
И так, для начала выбираем модель. По умолчанию нам предложит CompVis SD v1.4, который оно подкачает с hugging face. Но сегодня я работаю с NAI поэтому указываю путь до папки с моделью. Сейчас я на версии программы v0.1.8. и она требует, что бы модель была конвертирована из .ckpt в diffusers. Вот ссылка на мою конвернутую модель NAI - https://drive.google.com/file/d/1BnZyUb9C5wjz7Lcp1Dn8JidZLQ4taQEy/view?usp=share_link
Далее указываем Instance prompt, это должно быть уникальное слово которого не должна знать модель, то есть никаких boy, girl, и имён персонажей которых может знать модель. В дальшейшем это название мы будем указывать среди промптов, что бы модель на это тригеррилась и генерила уже с учётом натренированности этого концепта.
Class prompt указываем ёмко, кратно, что мы тренируем. У нас один женский персонаж и раз уж модель NAI тренилась на датасете danbooru, то я и укажу женский тег от туда, а именно 1girl.
Training Steps я выставлю 1000, а Learning Rate 5e-6, но это крайне запутанные настройки, о них я побольше размусолю ниже в разделе с водой и по ходу текста.
Аргументы не трогаю.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train Run dreambooth on NVIDIA GeForce RTX 3080, 8.65gb free
Model
C:\Users\egorv\dreambooth-gui\models\NAI
Choose Local Model
Name of the base model, (eg, CompVis/stable-diffusion-v1-4)
Instance prompt joyreactorchan
Name of the instance, use
Отлично, переходим к разделу тренировки, здесь нас попросит вставить наш Hugging Face Token. По идеи это нужно только если мы качаем модель SDv1.4 или прочую с Hugging Face, а у нас она локально на пк уже стоит, но всё равно просит, поэтому регаемся там и идём в настройках раздел с токенами https://huggingface.co/settings/tokens и создаём токен на WRITE и вставляем его в наше поле. Прописываем папку куда будут выгружаться все файлы после и проверяем, что бы стояла галочка, что бы модель генерилась потом в .ckpt файл в нашей папке вывода.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train Hugging Face Token
Output Dir
C:\Users\egorv\dreambooth-gui\outputs\joyreactor
Select
B Generate model checkpoint (.ckpt file) in the output directory
Training Command
docker run -t —gpus=all
Иии жмём старт! И так теперь запасаемся терпением, можете заварить чай, помыться, выйти на улицу, потрогать траву, сходить в магазин и т.д, ибо процесс первого запуска НЕВЕРОЯТНО ДОЛГИЙ. Серьёзно, я сам в первый раз думал, что у меня, что то зависло. Минут 30 только оно подгружало нужные файлы, и убедитесь, что у вас на диске есть ещё место, ибо пару десятков ГБ на нём, этот процесс забьёт. Если увидите, что ошибок не вылезно, в папке \AppData\Roaming\smy20011.dreambooth были сгенерены картинки референсы по классовому промпту и вы не словили ошибку о нехватке видеопамяти (будет у многих вангую) то поздравляю, у вас пойдёт тренировка, и вы увидите, как у вас будут лететь надписи Steps ****% |▋▋▋▇| ***/1000 [**:** < 00:00, *.**s/it, loss=0.***,lr=5e-6]
На тренировку модели в 1000 шагов моей RTX 3080 потребовалось почти пол часа. Чтож, когда увидим сообщение о том, что всё готово, заходим в папку вывода, и переименовываем как хотим и переносим .ckpt файл в папку с моделями нашего stable diffusion.
Training Command
Finished!
"jii\datasets\joyreac
:tor:/instance •
S
s s s
Steps: 100%' Steps: 100%|| Steps: 100%|| Steps: 100%|| Steps: 100%||
Training finished, check
C:\Users\egorv\dreambooth-gui\outputs\joyreactor for model output.
OK
/it, loss=0.257, lr=5e-6] /it, loss=0.257, lr=5e-6]
Запустите SD, загрузите модель. Проверьте результаты, всё ли выглядит так, как должно, у меня получилось... приемлимо...
joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 3985740085, Size: 960x960, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
Модель DreamBooth
Чистая NAI
Ну вроде неплохо. Но можно лучше.
У меня выходили и более презентабельные модели, чего стоит модель с моей рожей, что генерит меня с шансом 50%, а в остальных случаях Иисуса либо Джареда Лето либо двухголовую ебаку...
Вот пример с DB, а вот чистая NAI. Ну думаю, я бы мог вопроизвести похожий результат и без DB, но потребовалось бы куда больше промптов и попыток. Тем не менее, DB приближает качество и иполнение результатов, к тем, на какие мы тренировали, поэтому если тренируете на лицо, то оно даст намного чёткие и предсказуемые результаты, чем просто по запросу "лохматый бородатый мужик"
Если хотим закрепить результат и возможно улучшить, то рекомендую потренить и Textual Inversion - https://huggingface.co/docs/diffusers/training/text_inversion Это крошечная часть нейросети обученая на наборе картинок. требует поменьше ресурсов для тренировки, чем DreamBooth. С её помощью удобно воспроизодить стили и какие то объекты. Я потреню на том же датасете картинок, что и DB.
Тренировка Embeddings (Textual Inversion)
Идём в раздел SD webui который называется Train, и в первом подразделе Create embedding начинаем заполнять пункты.
Name - просто имя файла и в дальшейшем мы будем писать это название среди промптов, что бы задействовать нужный embedding. Поэтому я использую название, то же, что и у инстанс промпта в DB, что бы тригеррить их обоих разом.
В Initilization text вписываем описание персонажа, я описал его более подробно, ибо на реактор-тян оно почему то ловит затуп и генерит совсем шлак потом. А так обычно то же, что и class prompt в DB. Число векторов на токен я выставил 8, хотя чем больше это число, то тем больше примеров картинок лучше подготовить, но остановлюсь на этом.
Теперь идём в Preprocess images, вводим путь до папки с изображениями и туда, куда их выгрузит. Ставим галочку на Use deepbooru for caption, не уверен, будет ли у вас эта функция, если нету или не работает, поставьте в аргументах запуска SD аргумент "--deepdanbooru", и тогда точно всё будет ок. Эта функция создаст текстовое описание для каждого изображения в формате тегов с danbooru, так сетка лучше обучится. Если трените не на NAI моделе, а что то реалистичное, то советую использовать, Use BLIP for caption, создаст промпты как если бы их писали для работы с обычной моделью SD 1.4... Так же уделите время и вручную проверьте КАЖДЫЙ созданый текстовый документ, и сверьте его с картинкой, постарайтесь удалить ненужные промпты или добавить, то что считаете нужно, не всегда оно создаёт описание корректно. Да это муторно, но стоит без этого может натренить сетку не на то, что мы желаем.
И последний подпункт Train. Тут внимательно, можно ошибиться с пунктами и кнопками. Я помечу на скрине те пункты, которые мы трогаем, остальные игнорьте.
В embeddings выбираем наш созданый, в dataset directory указываем путь, куда мы выгружали изображения уже с описаниями, в prompt template file указываем путь до файла шаблона по которым оно будет трениться, я создал свой файлик, в котором внутри написано только [filewords] , прямо с квадратными скобками, это будет задействовать описания изображений которые мы создали раньше.
Save an image to log и save a cope of embedding, это параметры отвечающие за тестовое создание изображения на данном этапе тренировки и сохранинии текущего результата на момент шагов. Я генерирую изображение каждые 500 шагов и сохраняю прогресс каждые 1000, да бы проверить не произошла ли перетренировка модели, да бывыет и такое, её можно перетренировать, об этом после гайда...
И надеюсь вы не подумали, что я пропустил пункт с Embedding Learning Rate и Max Steps, то нет. Вот тут та же шляпа, что и раньше, и надо подбирать соотношения. В этот раз будем создавать поэтапно.
Для начала мы проведём тренировку на 200 шагов и Learning Rate 0.02, после увеличим число шагов до 1000 и уменьшим LR до 0.01, потом 2000 шагов и LR 0,005, 3000 и 0.002, 4000 - 0.0005 и в конце выставим 20000 шагов и скорость обучения на 0.00005. Чё страшно, запутались? Кароче, шляпа в том, что бы сетка не переобучилась, так мы её постепенно полируем, подробнее об этом после гайда в разделе с разными мыслями.
Вот выставили 200 шагов и 0.02 скорость, она прогонит по этим параметрам и закончит, не закрываем ничего, меняем параметры на следующие по списку, 1000 шагов и скорость 0.01 и опять жмём Train Embedding и опять идёт тренировка уже дальше с новыми данными. И т.д до конца. 20000 шагов золотая середина как по мне. У меня на это уходит около полутора часа, побольше, чем на тренировку DreamBooth, результат не будет сверх разиться, но будет чуть более в нужном нам направлении.
Вот примеры, того что по итогу вышло.
masterpiece, best quality, joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, solo, standing, upper body
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry, portrait
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 370310831, Size: 768x768, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
DreamBooth + Embedding
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
DreamBooth без Embeding
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
И без DreamBooth и без Embedding на чистом NAI
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
Ну Embedding иногда подтягивает, некоторые результаты, иногда может быть лишним. Довольно ситуативная и спорная вещь, но вот на DreamBooth сразу узнаётся Реактор-тян, нежели на обычной NAI с теми же хорошо подобранными промптами.
И да, знаю, что вероятно будут просить уже готовую модель, так что держите ссылки на модель на Реактор-тян и готовый Embedding:
Лучше пусть кто то забэкапит, а то мало ли я буду облако чистить.
Hypernetworks
Если не получилось натренить DreamBooth, то попробуйте гиперсети. Тоже прикольные результаты можно получить, если постараться.
Тренить гиперсеть на реактор-тян я не буду, поэтому опишу как делал ранее с другими вещами. Если желаете ознакомиться с материалом, по которому я и сам тренировался, прошу - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670
Процесс тренировки схож с тренировкой embeddings.
Так же в заходим в раздел Train, и уже в подпункт Create Hypernetwork. Имя гиперсети пишем какое хотим, без разницы, модули 768 320 640 1280 оставляем как есть.
Теперь тут свои завертоны пойдут, просят ввести структуру слоёв гиперсети:
Для широких гиперсетей: 1, 3 ,1 или 1, 4 ,1
Для глубоких гиперсетей: 1, 1.5, 1.5, 1 или 1, 1.5, 1.5, 1.5, 1 или 1, 2, 2, 1
Широкие: подходят для запоминания новых вещей, таких как конкретное животное, человек или объект.
Глубокие: подходят для обобщения вещей, таких как стили.
Поэтому исходите из этого, для реактор-тян я бы выбрал 1, 3, 1
Следующий пункт, select activation function of hypernetwork:
Для аниме (NAI, Waifu и т. д.): Selu, Gelu, mish
Для фотографий: Relu, swish, mish,leakyrelu, rrelu
Теперь Select Layer weights initialization. Для аниме ставим xaviernormal. Если фото и т.д то по умолчанию normal.
Остальные галочки ниже необязательны.
Потом так же подготавливаем изображения как и с embeddings, это я не буду повторять и переходим сразу в Train.
Выбираем так же как и при тренировке embedding путь до шаблона, папку с датасетом из наших картинок с текстом, сохранение результатов и картинок.
Теперь выбираем нужную гиперсеть в выпадающем списке Hypernetworks. Изменять будем раздел Hypernetwork Learning rate, а не Embedding Learning rate, как раньше и жать будем на Train Hypernetwork, а не Train Embedding.
Вот примеры хороших соотношений последовательностей Steps к LR:
Для обычных людей - 0.00005:100, 0.000005:1500, 0.0000005:10000, 0.00000005:20000
А вот для извращенцев - 0.00005:100, 0.000005:1500, 0.0000005:2000, 0.00005:2100, 0.0000005:3000, 0.00005:3100, 0.0000005:4000, 0.00005:4100, 0.0000005:5000, 0.00005:5100, 0.0000005:6000, 0.00005:6100, 0.0000005:7000, 0.00005:7100, 0.0000005:8000, 0.00005:8100, 0.0000005:9000, 0.00005:9100, 0.0000005:10000, 0.000005:10100, 0.00000005:11000, 0.000005:11100, 0.00000005:12000, 0.000005:12100, 0.00000005:13000, 0.000005:13100, 0.00000005:14000, 0.000005:14100, 0.00000005:15000, 0.000005:15100, 0.00000005:16000, 0.000005:16100, 0.00000005:17000, 0.000005:17100, 0.00000005:18000, 0.000005:18100, 0.00000005:19000, 0.000005:19100, 0.00000005:20000. Этот вариант выглядит монструозно, но я его тестировал лично, и довольно хорошо работает при условии, что вы подобрали хорошие примеры изображений и текстовые описания к ним.
И так же поэтапно треним как и embedding... ВСЁ!
ВОДА и Q&A!!!
Ахренеть, как буд-то по новой пишу дипломную, но только с надеждой в том, что кому то это поможет и он воспользуется этим материалом, либо же просто покекает с того, что я потратил на это несколько недель, начиная от поиска нормального способа запуска DreamBooth и заканчивая десятком часов на попытки разобраться в особенностях и нюансах, ну и этот текст я пишу уже где то часов 6 нонстоп, набралось уже 2 c половиной тысячи слов! серьёзно, надо хоть воды налить себе, ха отличная шутка.
1)Q: Почему так сложно?
A: А кому легко?
2)Q: Можно ли было уместить это в 5 абзацев на 500 слов в общем?
A: Не знаю, пишу как умею, кто умер от духоты и захлебнулся в воде, простите)
3)Q: У меня видеокарта ******, у меня заработает?
A: Не знаю. Скорее всего на AMD, вообще никак. Если у вас есть в карте тонна видеопамяти, то должно. Либо попробуйте запустить, через Google Colab, Runpod и прочие облака с арендой видеокарт и работы с их мощностями. Я НЕ БУДУ ПИСАТЬ ГАЙД ПО КОЛАБУ, НЕЕЕЕТ!
4)Q: Не надоело ли писать вопросы и ответы?
A: Да, чёт устал, задавайте в комментариях, отвечу как смогу.
Теперь ВОДА и прочие размусоливония которых, я старался избегать в основной части гайда.
Подойдите к этапу подбора изображений для тренировки максимально отвественно и серьёзно, ибо от того какие изображения вы скормите, во многом будет зависить результат. Так же качество > колличество, будет хорошо если вы задействуете 10 годных примеров, нежели 30 посредственных. Я стараюсь выдерживать единый стиль изображений, если одна картинка будет от карандаша, другая 3D CGI, а третья в стиле Пикассо, то выйдет так себе и выйдет мешанина из этого всего. Если тренирую персонажа, то стараюсь делать акцент на лице, тело можно будет и промптами задать, но вот получить нужное лицо сложно, ну за этим и нужен DB.
Во многом из за конвертации .ckpt в diffusers я неделю ломал голову, ибо обычным скриптом предназначеным для этого у меня не выходило, но как видите удалось, а именно при помощи гуглколаба от TheLastBen. Необходимо было залить модель в колаб, прогнать через его скрипт, и выгрузить результат себе на гугл диск. В скорой версии Dreambooth gui v.0.1.9. появится возможность использовать .ckpt и программа сама будет его конвертировать. 
Вот теперь мы пришли к одной из самых важных вещей, во круг которых строятся различные догадки и теории заговоров... А именно зависимость количества шагов тренировки (Training Steps) и скорости обучения (Learning Rate или LR).
Число шагов обучения ~= кол.во изображений * 100, у меня 8 изображений, поэтому оптимально было бы 800, но я округлил до 1000, потому что хочу. По скорости обучения ещё сложнее, но держим в голове несколько вещей, больше steps = меньше LR, и наоборот. Так же главное не перетренировать модель. Представьте этот процесс как работа по дереву. У вас есть бревно и вы хотите обтесать из него фигуру. Поставите слишком высокий LD и срежете слишком много кусков и модель будет перетренирована и бракована. А поставите если поставите слишком низкий LR, то представьте, как мелким скальпелем обтёсываете огромное бревно дуба до размера фигурки.
Пока тестил эту байду, знакомый кидал идеи на чё попробовать тренить, приложу ещё примеры DB и embedding под персонажа Макимы из Человека Бензопилы (Аниме), но её я уже делал на немного допилиной модели - Anything-V3.0, про неё уже сделали пост - https://joyreactor.cc/post/5385144
masterpiece, best quality, makimacmdb, makima \(chainsaw man\), 1girl, medium hair, pink hair, sidelocks, bangs, braid, braided ponytail, eyebrows visible through hair, orange eyes, ringed eyes, breasts, medium breasts, shirt, collared shirt, shirt tucked in, black pants, suit, business suit, formal jacket, long sleeves, necktie, black necktie, light smile, expressionless, looking at viewer, solo, gradient background, cinematic, filmic, telephoto, depth of field, lens distortion, lens flare, white balance, strobe light, volumetric lighting, dramatic lighting, little haze, ray tracing reflections, detailed, intricate, elegant, realistic
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), dark skin, hair ornament , troubled eyebrows, big breast, yumemi riamu
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 1316407258, Size: 896x896, Model hash: e02601f3, Model: makimaANY, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
DreamBooth + Embedding
DreamBooth и без Embedding
Без DreamBooth и без Embedding
Как и писал выше, иногда Embedding лишний, некоторые результаты, лучше без него, некоторые с ним. Сутуативная хреновона, но лучше будет, чем нет.
КОНЕЦ.

Ебал я рот этого казино.

Котаны и котанессы, уважаемые пидоры - прошу экстренной помощи в патовой ситуации.
По ряду причин переехал в "Усть-пиздюйск" в маленькую комнату в частный дом.
Провайдеру тут на всё похуй вообще полностью - они провели в СНТ оптоволокно, кинули инет тому кто хотел его в 2010 за миллион денег и забили болт. Надежды на них и их спецов нет.
Суть - в доме стоит модем куда воткнут кабель провайдера. Из модема в каждую квартиру идёт LAN провод. В доме сеть c серыми IP на каждом устройстве. На модеме висит 1 белый IP - он привязан к компу собственника, остальные - серые.
Я попросил сделать для моей рабочей станции белый IP как у хозяина, что бы я мог работать из дома - на что он ответил: "Я хуй знает, там провайдера этого уже нет, счета и доступ я потерял, роутер настраивали 10 лет назад, я хз чо как - разбирайся сам."
Кароче - как мне настроить себе "белый" IP адрес привязав его к моему компу/порту моего кабеля - БЕЗ помощи локального провайдера на котором висит DHCP (Выяснил что инструкции они выдавали через него) ???
На все про все - у меня выходные.
Не настрою - мне пиздец.)
Купон прилагаю.
,пидоры помогите,реактор помоги,сеть,IP адрес,настройка,ПК

Настройка трансляции камер регистратора онлайн

Добрый день, друзья.
Думаю, некоторые из вас сталкивались с проблемой настройки трансляции камер по удаленке. Обычно в данных случаях используются IP камеры, но при необходимости можно настроить и целый регистратор с отдельным каналом через RTSP поток. Возможно, многие из вас уже знают, как провернуть данную операцию, но для тех, кто не в курсе я посвящу этот пост.
Настройку я проводил на видеорегистраторе SpezVision с системой v.4.02.R11
Во-первых, нам необходимо настроить сам регистратор, а именно 2 пункта.
1. Статический IP. Он прописывается по адресу «Главное меню-настройка-сеть-IPадрес» (для примера 192.168.0.201)
2. Порт RTSP «Главное меню-настройка-сетевые службы-RTSP» (обычно стоит 554)
Во вторых, необходимо сделать проброс порта для IP регистратора через Ваш роутер (в моем случае был Tenda ). Входим в него под IP (мой – 192.168.0.1). В меню «Дополнительно – перенаправление портов» добавляем строку с данными.
В пункте внутренний IP прописываем IP адрес регистратора. В пункте порт прописываем порт, указанный в регистраторе (внашем случае 554). Протоколы ставим оба.

Если никаких помех нет, этого будет достаточно, что бы иметь доступ к камерам.
Проверить подключение можно через VLCплеер, а именно «Медиа-открыть URL-сеть».Сюда прописываем команду открытия потока. Для разных регистраторов она немного отличается. В моем случае строка выглядит следующим образом:
rtsp://xxx.xxx.x.xxx:554/user=admin&password=11111&channel=1&stream=0?.sdp,
Где xxx.xxx.x.xxxВаш внешний IPадрес, выделенный провайдером
554 – открытый порт
user=adminлогин регистратора
password=11111– пароль регистратора
channel=1– открывает камеру,подключенную к 1 выходу (2,3,4… - соответственно открывает другие камеры)
. Медиапроигрыватель \/1_С Медиа Воспроизведение Аудио Видео Субтитры		
0	Открыть файл...	Ctrl-О
0	Открыть файлы...	Ctrl-*- Shift-*- О
Cd	Открыть папку...	Ctrl-»- F
«	Открыть диск...	Ctrl+D
я я тг	Открыть 1Ж1_...	Ctrl-N
т	Открыть устройство захвата...	Ctrl+C
	Открыть адрес из буфера обмена
А Медиапроигрыватель \Д.С	—	□
Медиа Воспроизведение Аудио Видео Субтитры Инструменты Вид Помощь
X
Источник
X
(►] Файл	:) Диск	ТГ Сеть	Ю1 Устройство захвата
Сетевой протокол
Введите сетевой адрес:
http://www.exa гг, pla.com/stream.avi «р://@:1234
тт5://тт5.ехатр1ез.сот/ягеат.а5х
Если все хорошо, то этого бывает достаточно, но у меня часто бывало наличие левых помех ,которые не только препятствовали подключению новых регистраторов, но и сбивали настройку старых. Обычно это происходит, если в сети появлялся другой роутер или путь (причем даже не обязательно, что бы он был напрямую связан с регистратором). Если есть некоторые проблемы, то существует еще один способ, даже более надежный, но либо ограниченный по времени, либо за него нужно платить, а именно воспользоваться облачным сервисом (в моем случае был https://my.ivideon.com/ )
Из плюсов – в настройке мы сразу указываем не внешний IP, а внутренний, что значит не будет проблем с пробросом портов.
Минус –пробный период системы всего 3 дня, а далее оплата для онлайн трансляций 750р за камеру на 3 мес.
Проверить работоспособность RTSP по внутреннему IP можно, так же как и в прошлом случае через VLC плеер, но в прописи вместо rtsp://xxx.xxx.x.xxx:554/user=admin&password=11111&channel=1&stream=0?.sdp,
прописываем
rtsp://ууу.ууу.у.ууу:554/user=admin&password=11111&channel=1&stream=0?.sdp,
где ууу.ууу.у.ууу это внутренний IP регистратора, который мыуказывали в самом начале.
Если при пробросе портов видео не воспроизводится, а в данном формате да, то через ivideon должно все воспроизводится.
Далее опишу настройку ivideon.
Для начала скачиваем ivideon server по вашу версию ОС.
Далее добавляем камеры – «Добавить устройство- добавить IP камеру». В настройках камеры выбираем производителя (в моем случае SpezVision), а в графе URL прописываем наш RTSP для локального IP
И& Ivideon Server		□	X
Общие Справка О У	О .	©	®
Запустить Добавить устройство	Настройки	Личный кабинет	Выход
v '¿J IP каг	Добавить IP камеру...	
IF	Добавить DVR/NVR...	
'J if	Поиск устройств...	
1Л ip	Camera 3	
’¿I IP Camera 4		
У DVR/NVR
v ^ Web камеры
Integrated Camera ^ OBS Virtual
Настройки камеры
X
	
Имя: IP Camera (SpezVision)	'J
Общие Запись Детектор движения Детектор звука Расписание Аналитика
Производитель и модель Производитель: брегУйЮп	’г
Модель:
<По умолчанию > ж
Сеть
иШ: гЬр:///дА'е
W. Редактор субпотоков
High: rtsp://192.168.0
rtsp://ууу.ууу.у.ууу:554/user=admin&password=11111&channel=1&stream=0?.sdp,
там-же можно назначить источник звука и прописать порт для получения аудио и видео (в нашем случае 554).
В личном кабинете https://my.ivideon.com/cameras
Должны появиться камеры. Там же можно настроить публичный доступ и получить и ссылки на трансляции и тег для вставки на сайт.
Публичный доступ к камере
X
(Т) Название и описание
(г) Местоположение
(з) Связь с моим сайтом
(7) Настройки публичного доступа
(?) Публичная ссылка и код для встраивания
Ссылка на камеру
<Р https://tv.ivideon.eom/camera/100-гхс1Р\/7б5РТР\	( посмотреть
Поделиться
Код для встраивания видео
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме the bat не сохраняются настройки (+1000 постов - the bat не сохраняются настройки)