sfw
nsfw

Результаты поиска по запросу "командная строка команды"

Лагалище

Обмен пакетами с yandex.ru [87.250.251.11] по 32 байт:
МЯО
Ответ	от	87.250.251.11:	число	байт=32	времг-64мс ТТЬ=54
Ответ	от	87.250.251.11:	число	байт=32	вре'.я -53мс ТТЬ=54
Ответ	от	87.250.251.11:	число	байт=32	время=109мс ТТЬ=54
Ответ	от	87.250.251.11:	число	байт=32	время=69мс ТТЬ=54
Ответ

Как апскелить у себя дома

Краткая предыстория: решил посмотреть первый сезон покемонов, но захотелось, чтоб прям всё красивишно в 4к, потому начал искать варианты.
Машина 1: Стационарный ПК, MX Linux, R7 7700X, RX 7900XTX, 32 ГБ ОЗУ
Машина 2: Ноутбук Win10, R7 5800H, RTX 3060 Laptop, 16 ГБ
-----
Первым делом попробовал dandere2x (https://github.com/akai-katto/dandere2x), он основан на waifu2x. Итог: тестовый отрывок (20 секунд) обработан на машине 1 за ~5 минут, покадровое сравнение выгоды относительно просмотра видео без апскейла не выявило. Инструкции по установке, которыми я пользовался, если кому интересно:
-----
После этого я обнаружил Anime4K (https://github.com/bloc97/Anime4K), апскейлер в реальном времени, основной минус - работа с ограниченным кол-вом проигрывателей (1-3 в зависимости от ОС). Инструкции по установке и применению находятся по ссылке выше в зависимости от проигрывателя. Но я пользуюсь SMPlayer, так что вот инструкция:
1) Следуем инструкции mpv
2) Открываем файл input.conf, открываем настройки SMPlayer (ПКМ - сервис - настройки - дополнительно - MPlaeyr/mpv) и вставляем необходимый нам профиль в поле "параметры"
Например: вы хотите профиль "A", в input.conf вы видете строку:
CTRL+1 no-osd change-list glsl-shaders set "~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"; show-text "Anime4K: Mode A (HQ)"
В параметры вы копируете только то, что находится в кавычках (вместе с кавычками) после слова set и до слова show-text, то есть:
"~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"
И добавляете перед этим: --glsl-shaders=, получая что-то вроде этого:
--glsl-shaders="~~/shaders/Anime4K_Clamp_Highlights.glsl:~~/shaders/Anime4K_Restore_CNN_VL.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_VL.glsl:~~/shaders/Anime4K_AutoDownscalePre_x2.glsl:~~/shaders/Anime4K_AutoDownscalePre_x4.glsl:~~/shaders/Anime4K_Upscale_CNN_x2_M.glsl"
3) Profit
Естесственно комбинации клавиш для переключения профилей в таком случае не будет.
Стоит упомянуть, что Anime4K не сохраняет апскельнутую версию, так что каждый раз будет апскелить как в первый.
-----
Там же на сайте Anime4K было сравнение разных алгоритмов:
Очевидно, что после такого я захотел установить real-ESRGAN, потому что я хотел бы как раз сохранить себе апскельнутую версию, плюс он всё таки визуально получше.
В результате визуально качество Anime4K (я использовал пресет для higher-end gpu) и Real-ESRGAN довольно близко, но некоторую разницу при сравнении заметить можно.
Обработка тестового отрезка (20 секунд) на машине 1 заняла ~56.5 минут (заработала только на CPU), на машине 2 - ~2 минуты. Были мысли перед постом проверить работу через ZLUDA (https://github.com/vosen/ZLUDA) недавно вышедшую прослойку между CUDA и видеокартами AMD, но на Debian пока нет ROCm, так что когда-нибудь...
Дальше инструкция по установке Real-ESRGAN на Win10 и Linux и бонусные батники для винды для удобства.
Собственно инструкция:
1) Установка ffmpeg на Win10 (на linux по идее предустановлено)
1а) Открыть powershell (под администратором)
1б) Установить chocolatey (https://chocolatey.org/install#individual)
- Ввести команду:
Set-ExecutionPolicy Bypass -Scope Process -Force; [System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072; iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))
- Проверить, что всё установилось:
PS C:\Users\shtur> choco
Chocolatey v2.2.2
Please run 'choco -?' or 'choco <command> -?' for help menú.,нейросеть,песочница,апскейл,инструкция
1в) Установить ffmpeg
- Ввести команду:
choco install ffmpeg -y
1д) Закрыть powershell
2) Создание python3 virtual environment (venv) (необходим установленный python3)
Windows:
- Открыть командную строку (cmd) (под администратором)
- Ввести команду, чтобы установить virtualenv:
pip install virtualenv
- Перейти в директорию, где хотите создать venv
cd /d "G:/AI"
# /d указывает на то, что директория будет на другом диске (G)
- Создать venv
virtualenv anyname-venv
# Вместо anyname-venv можно указать любое допустимое в win10 имя
Linux:
- Открыть терминал
- Перейти в директорию, где хотите создать venv
cd ~/AI
# ~ означает домашнюю директорию пользователя
- Создать venv
python3 -m venv ./.anyname-venv
# Первая точка означает текущую директорию
# Вторая точка - часть названия, просто файлы и папки, начинающиеся с точки считаются скрытыми
# Вместо .anyname-venv можно указать любое допустимое в linux имя
3) Активация venv (Нужно будет делать каждый раз, когда захотите запустить Real-ESRGAN) (делается из директории в которой мы вводили предыдущую команду)
Windows:
- Заходим внутрь
cd anyname-venv
cd Scripts
- Активируем
activate
:\AI>cd anyname-venv :\AI\anyname-venv>cd Scripts :\AI\anyname-venv\Scripts>activate (anyname-venv) G:\AI\anyname-venv\Scripts>,нейросеть,песочница,апскейл,инструкция
Linux:
source ./.anyname-venv/bin/activate
4а) Переходим в папку куда мы скачали и разархивировали Real-ESRGAN
Windows:
cd G:\AI\Real-ESRGAN-master
Linux:
cd ~/AI/Real-ESRGAN-master
4б) Устанавливаем необходимые библиотеки
pip install basicsr facexlib gfpgan ffmpeg ffmpeg-python
Windows:
pip install -r G:\AI\Real-ESRGAN-master\requirements.txt
Linux:
pip install -r ~/AI/Real-ESRGAN-master/requirements.txt
# -r указывает, что мы передадим файл со списком библиотек
# файл находится в скачанной директории
python setup.py develop
4в) Для владельцев ВК Nvidia отдельно устанавливаем pytorch с поддержкой CUDA
- Переходим на сайт https://pytorch.org/get-started/locally/
- Выбираем ОС, версию Cuda и установщик (pip)
- Копируем и выполняем выданную команду
4г) Правим код библиотек, чтобы он заработал
- Открываем файл ...\anyname-venv\Lib\site-packages\basicsr\data\degradations.py любым текстовым редактором (блокнот подходит)
Правим 8-ую строчку, из
from torchvision.transforms.functional_tensor import rgb_to_grayscale
Делаем
from torchvision.transforms.functional import rgb_to_grayscale
- Открываем файл ...\anyname-venv\Lib\site-packages\ffmpeg\_probe.py (Необязательно. Обязательно для обработки .mkv)
Правим 16-ую строчку, из
from torchvision.transforms.functional_tensor import rgb_to_grayscale
Делаем
args = [cmd, '-show_format', '-show_streams', '-of', 'json', '-count_frames']
# Чтобы для каждого видеофайла "вручную" считалось кол-во кадров, потому что, например, в .mkv нет данных о кол-ве кадров
4д) Правим код Real-ESRGAN, чтобы он заработал (или берём готовые файлы из гугл диска)
Если добавляли ручной подсчёт кол-ва кадров:
- Открываем файл ...\Real-ESRGAN-master\inference_realesrgan_video.py
Правим 35-ую строчку, из
ret['nb_frames'] = int(video_streams[0]['nb_frames'])
Делаем
try:
    ret['nb_frames'] = int(video_streams[0]['nb_frames'])
except(KeyError):
    ret['nb_frames'] = int(video_streams[0]['nb_read_frames'])
# Обращаем внимание на отступы (их можно сделать нажатием кнопки Tab)
Если запускаем на процессоре:
- Открываем файл ...\Real-ESRGAN-master\inference_realesrgan_video.py
Правим 272-ую (275-ую, если делали предыдущую правку) строчку, из
torch.cuda.synchronize(device)
Делаем
#torch.cuda.synchronize(device)
Правим 291-ую (294-ую) строчку, из
if num_process == 1:
Делаем
if num_process <= 1:
5) Запускаем обработку видео (желательно из папки Real-ESRGAN)
python inference_realesrgan_video.py --fp32 --suffix esrgan -i G:\AI\Real-ESRGAN-master\inputs\[Timber_Maniacs]_Pokemon_043_(041)_[Rus-Eng]_[XviD]_[219F48A8].mkv
# параметр --fp32 нужен, чтобы не было ошибки
# параметр --suffix указывает какой суффикс будет у выходного файла, по умолчанию: out. Например: исходный файл: "name.mp4", файл на выходе: "name_out.mp4" или "name_esrgan.mp4" в случае этой команды.
# параметр -i говорит какой файл обрабатывать (по идее можжно обрабатывать несколько файлов и всё такое, но оно как-то криво работает, так что только так)
# итоговые файлы будут сохраняться в папке .../Real-ESRGAN/results
6) Для WIn10 из гугл диска можно взять один из файлов с расширением .bat, чтобы облегчить себе запуск нескольких видео сразу
7) Profit
-----
inference_realesrgan_video-CPU.py и inference_realesrgan_video-CUDA.py переименовать в  inference_realesrgan_video.py и заменить оригинал.
Real-ESRGAN-autostart(video).bat запускает в обработку все файлы, которые находятся в папке "G:/AI/Real-ESRGAN-master/inputs/". Его надо открыть в том же блокноте и отредактировать пути на соответствующие вашим.

Спасибо за внимание!

Отличный комментарий!

Прошу пояснить.
За эти полсекунды злобный хитрый вирус взламывает жопу твоей мамаши.
Привет, реактор. Я тут подумал, вам нужны уроки Java? Если кому интересно, я могу раз в пару дней выкладывать кое-какие уроки для профессионального развития реактора ;)

По традиции, начнём с "Hello World" программы.

1) Сначала устанавливаем яву, если у кого нет:
http://www.java.com/ru/download/help/download_options.xml
2)Создадим новый файл, с названием HelloWorld.java (на диске C или каком другом в Windows; В линуксе и маке - в домашнюю папку), и откроем его с помощью блокнота (можно использовать IDE, либо текстовые редакторы как Sublime Text 2, Notepad++ или другие).
3)Пишем в этот файл такие строки:

public class HelloWorld {
public static void main(String[] args){
System.out.println("Hello, World!");
}
}

4)Сохраняем!
5)Что мы написали?
"public class HelloWorld{}" - создаём новый класс. Программа на Яве должна находиться в главном классе. Желательно назвать файл также как и класс, это облегчит компилятору поиск "семого-мега-главного класса", с которого начинать выполнение программы.

"public static void main(String[] args){}" - создаём главный метод (функцию) в классе. Она выполняется по-умолчанию при старте программы. "String[] args" - это аргументы, которые мы можем передать перед началом выполнения программы. В нашей программе мы ничего передавать не будем, но писать это требует синтаксис (орфография языка программирования).

"System.out.println("Hello, World!");" - Говорим системе написать в консоли (где мы будем выполнять нашу программу) строку "Hello, World!". Мы её увидим, когда будем выполнять программу. Заметьте, что мы поставили точку с запятой после этой команды.

6) Теперь надо выполнить нашу программу. Открываем консоль/командную строку и переходим в папку, где находится наша программа.
-Windows: Нажимаем Win+R, пишем cmd и жмём Enter
В cmd пишем X: (X - \то ваш раздел, куда вы сохранили HelloWorld.java)
-Linux: Жмём Ctrl+Alt+T
-MacOS: Открываем терминал

Пишем "javac HelloWorld.java" без кавычек, жмём Enter
Если есть какие-либо ошибки - компилятор выдаст описание этой ошибки. Если ошибок не будет, то ничего не выдаст.
Затем пишем "java HelloWorld", также без кавычек, и снова жмём Enter (заметьте, второй раз мы не пишем расширение нашего файла)

7)Любуемся выводом программы! Радуемся, ставим плюсы/минуссы ;)

Учил вас Арс. Если есть вопросы - то прошу в комменты, постараюсь ответить на все вопросы.
Надо учить языки программирования?
Да, было бы здорово!
114(54,03%)
Да, но только не Яву
21(9,95%)
Да, но только не Джаву
21(9,95%)
Нет, нафиг это надо, лучше постить сиськи и котиков!
55(26,07%)

Релиз трейлер

В России появилась первая телеведущая, созданная нейросетью

Снежана Туманова ведет рубрику с прогнозом погоды на ставропольском телеканале
Российская телекомпания «СвоеТВ» представила первую в стране телеведущую, созданную на основе нейросетевых технологий. Виртуальная девушка по имени Снежана Туманова является главным диктором рубрики, связанной с прогнозом погоды.
Для создания компьютерной телеведущей было задействовано три нейросети. Одна из них генерировала 3D-модель девушки, другая писала текст, а третья создавала голос. Новая рубрика получила название «Прогноз будущего».
Первый экспериментальный выпуск «Прогноза будущего» вышел в эфир 21 марта 2023 года.

Отличный комментарий!

Уфф... помню как она начинала в КВН, хорошо, что вырвалась из того болота!
tutorial
tutorial
Hello everyone welcome back to my channel, today i will be showing you guys how to copy and paste. Firstly let's learn about Ctrl, The "Ctrl" key short for "Contr-
Ctrl + C Ctrl + V
Thx for watching,приколы для полных дегенератов,#Приколы для полных дегенератов

Отличный комментарий!

Помню одного поляка, который в гайде уложился за две минуты и потом еще оставил 8 минут своего флекса под музыку, для лимита видео... Из уважения оставил его на фоне до конца. Найти бы сейчас, но нынешний поисковик ютуба- говно, которое после пары вариантов +\- по теме запроса сыплет видосами всякой фортнайтовой школоты и прочего хайпожорства вообще не в тему.
В последнее время появилось желание поднять свою VPS и развернуть на ней VPN.
Но вот гугл упорно рекомендует русских хостеров с зарубежными севаками, чьими услугами я не менее упорно, пользоваться не хочу.
Что хочу от впски.
1)Недорогая (желательно не больше 1-2$ месяц)
2)Чтобы вообще была возможность оплатить из россии хотя бы криптой
3)Зарубежная, ничего противозаконного не делаю, но раз уж плачу за подобный сервис хочется какой-то уровень анонимности
4)Стабильная , чтобы не отваливалась каждые 5 минут.

Думаю подобная инфа будет не только мне полезна.
КУПОН ДЕЙСТВУЕТ ДО 01.01.2077
ИСПОЛЬЗОВАТЬ ТОЛЬКО В СЛУЧАЕ КРАЙНЕЙ НЕОБХОДИМОСТИ,пидоры помогите,реактор помоги,VPN,vps

У меня "спарк". Интернет сейчас просто в жопу!..

"нормальность" интернета то пропадает, то исчезает...
У вас так же, господа?
да
10(19,23%)
нет
9(17,31%)
меня не интересуют твои проблемы
33(63,46%)
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме командная строка команды (+1000 постов - командная строка команды)