Для привлечения внимания фуррь
furry фэндомы furry other
Для привлечения внимания фуррь
Ну что, господа, сегодня разберём, как управлять станком под управлением ЧПУ.
Весь пост - практически компиляция всей информации, которую сам знаю, так что простите за возможные нестыковки и недоговорки в тексте, чукча - очень плохой писатель.
Для начала, нам нужен сам станок (по крайней мере - такой, как у меня) и компьютер. Конечно, желающие могут купить вместо компа вот такую штуку: https://steepline.ru/catalog/13/64/avtonomnyy-kontroller.html Но на первое время, да и если станок будет работать относительно редко - хватит и компа.
Собственно, комп должен быть с нормальным LPT - портом, никаких переходников USB-LPT, если, конечно, не хотите изучить все позы камасутры с такими вещами. Либо брать такое: https://darxton.ru/catalog_item/kontroller-chpu-smoothstepper-ethernet-dlya-mach3/
И да, на ЧПУ стойке (теперь комп можно называть именно так) стоять должна либо голая Windows XP в связке Mach3 либо Linux в связке с LinuxCNC. Никаких игр и экранных заставок, комп НИКОГДА не должен уходить в спящий режим, пока что-нибудь фрезеруется.
И да - школота, желающая играть в Доту или КаэСочку, пока фрезеруется - играйте на другом компе, а этот - для работы. Хотя вряд ли будут школьнику покупать станок на 60 (или 70) косарей.
Итак, у нас всё есть - станок ,подключённый к компу, комп с ВинХР и Mach3.
Вот он, Mach3
Как его настраивать - отдельным файлом скину, ибо смысла целый мануал копипастить сюда - целый ноль.
Итак, что мы видим? А видим кучу кнопок, которые хрен знает как нажимать, пока что.
Нас интересуют кнопки Reset, Cycle Start, Stop, Close G-Code, Load G-Code, Zero X, Zero Y, Zero Z, а на клавиатуре (да, клавиатуре, на которой печатают) - это стрелочки и Page UP/Page DOWN. Стрелочками управляются оси X и Y, Page UP/Page DOWN управляют осью Z.
Расположение осей на станке:
Да-да, именно так располагаются оси, ноль координат станка в этом месте.
НО: ноль заготовки - не ноль станка, её отдельно привязывают, и именно к самой заготовке. Сейчас расскажу как:
крепим заготовку к столу, включаем комп и станок, запускаем Mach3. В Mach3 должна заморгать кнопка Reset, жмём её, всё, станком можно управлять с клавиатуры. Крепим в шпиндель фрезу. И подводим её к поверхности заготовки стрелочками (оси Х и У) и клавишами Page UP/Page DOWN, кончик фрезы соответственно должен коснуться заготовки в месте как можно ближе к нулю станка, ибо, на мой взгляд, так проще. Хоть и заготовка может быть закреплена в произвольном месте. Сначала опускаем фрезу до высоты над заготовкой примерно в 3 мм, потом ведём её к почти что краю заготовки, опускаем фрезу до касания её с заготовкой, как коснулся кончик фрезы тела заготовки - обнуляем координаты кнопками Zero X, Zero Y, Zero Z в самой программе. И поднимаем фрезу кнопкой Page UP.
Но есть большое НО: что делать будем дальше? А дальше - нужна Её Величество УП, она же Управляющая Программа. Да, мои юные (и не очень) читатели, нужна ещё одна программа, которая будет загружаться в Mach3 по вызову кнопки Load G-Code. А пишется эта программа в G-кодах, как могли заметить самые внимательные. Для просветления смотреть тут (СМОТРЕТЬ ОБЯЗАТЕЛЬНО, текст можно пропустить): https://ru.wikipedia.org/wiki/G-code Собственно нам нужны сами основные команды и технологические, они же вспомогательные, команды.
Теперь можно написать простенькую программу в этих самых кодах (простенькая программа на первый раз):
G90
M03
G0 X0 Y0 Z5
G0 X10 Y0 Z5
G0 X10 Y0 Z-3.5
G0 X20 Y10 Z-3.5
G0 X10 Y20 Z-3.5
G0 X0 Y10 Z-3.5
G0 X10 Y0 Z-3.5
G0 X0 Y0 Z5
G0 X0 Y0 Z5
M05
M30
Эта программа делает ромб.
К этому моменту многие сразу закроют, в сердцах сказав - "да ну нахрен, ещё язык программирования учить". А между тем, тут не нужен язык программирования, пока что. Управляющие программы можно писать в простом и стандартном Виндосовском Блокноте. Да, ничего не надо больше ставить, пока что. А пока - хватит Блокнота в Виндовс. Открываем его, забиваем выше указанную программу в Блокнот, сохраняем под названием*имя_программы_можно_написать_что она делает*.txt.
Дальше идём в Mach3 и жмём Load G-Code. Находим наш файл, не пугайтесь, когда увидите в строке Тип файлов .tap, перещёлкните там же на All files или лучше на .txt.
После загрузки сможете увидеть это:
Нажимаем Cycle Start и пошло-поехало, а точнее станок начнёт фрезеровать.
Результат нескольких итерраций:
Что-ж, если вы всё правильно сделали - у Вас должно получится то же, что и на фото.Желающие могут попробовать и такую программу:
G90
M03
G0 X0 Y0 Z5
G0 X5 Y0 Z5
G0 X5 Y0 Z-3.5
G0 X25 Y0 Z-3.5
G0 X25 Y20 Z-3.5
G0 X5 Y20 Z-3.5
G0 X5 Y0 Z-3.5
G0 X5 Y0 Z5
G0 X0 Y0 Z5
M05
M30
Эта делает квадрат. Действия абсолютно те же, как и в предыдущем случае.
За сим пока откланиваюсь. В следующий раз попробуем что-нибудь другое отфрезеровать.
Файлы к сему посту:
Руководство по Mach3 - https://yadi.sk/i/llClG6uy3ZfdCu
Ещё одно руководство - https://yadi.sk/i/Q9-9J1mC3ZfdKB
УП Ромб.txt - https://yadi.sk/i/I78A_Owb3ZfdET
УП Квадрат.txt - https://yadi.sk/i/GDYLwtEE3ZfdHU
И вновь здравствуйте. Продолжая серию познавательного по нейросетям, сегодня разберём несколько способов, как снятое видео преобразить с помощью нейросетей. Думаю вы видели разные нейронные-клипы и прочее, где криповые ебаки дрыгаются и перетекают из формы в форму. Вот чё то похожее мы будет сегодня делать, но я постараюсь не уходить в крипоту, а сделать, что то вменяемое на сколько кривизна моих рук мне позволит. Ну с предисловием почти закончили.
Вот пример того, что сегодня накуролесим.
И так, что на понадобится? Для начала установленный Stable Diffusion webui от AUTOMATIC1111 (на других работаю редко) и программа EbSynth. Не помешает знание, того, как щёлкать телефоном видео, как переносить их на пк, и как разбить их на последовательность изображений и обратно в другие форматы. Окей вроде всё.
Перво-наперво потребуется снять короткое видео, можно и долгое, хоть кино снимайте, но обрабатывать будем дольше.
Любым удобным способом разбиваем видео на последовательность изображений, типо img_[####].png , я делаю это обычно через After Effects, но можно и онлайн сервисами, просто загуглите "mp4 to png sequence".
И так теперь перед нами два пути, долгий и не столь долгий.
Долгий: Можем обработать все кадры через Stable Diffusion и слепить из них обратно анимацию, но это довольно долгий процесс.
Покороче: Можем воспользоваться программой EbSynth, скормив ей несколько отредаченных ключевых кадров, по которым, она выстроит остальное изображение, основываясь, на движениях с остальных "чистых" кадров. Звучит как магия. Ну оба эти способа имеют как плюсы так и минусы.
Плюсы и минусы полностью через SD:
+ Мало артефактов
+ Анимация чувствуется цельной без разрыва композиции
- Долгое производство
- Флики фона и разных деталей (может кому то зайдёт)
Плюсы и минусы EbSynth:
+ Плавность
+Отсутствие фликов фона и детализации
- Явно видны переходы при смене ключевого кадра (умельцы думаю смогут на монтаже сгладить смешением кадров и т.д...)
- Артефакты при движениях
И так разобрались с плюсами и минусами, и начнём разбирать оба варианта. Начнём с создания с помощью перерисовки всех кадров в SD.
Я специально записал достаточно проблематичный футаж, где я часто и резко дёргаю головой и кривляюсь. Да бы посмотреть, как оба варианта себя покажут в одинаковых условиях.
Видео длится чуть больше 9 секунд, 270 кадров, 30 FPS, 2160x3840. Для этого способа, я намерено удалю половину кадров. Даже не потому, что я задолбаюсь рендерить, но и то, что каждый кадр будет создавать флики деталей, и в 30 FPS их будет в 2 раза больше, чем вы увидите дальше. Не думаю, что было бы приятно, поэтому, так как на вкус и цвет эпилептиков нет, продолжаем.
Разбиваем видео на последовательность изображений.
Заходим в Stable Diffusion и переходим в раздел img2img. загружаем для начала один любой кадр, по нему мы и будем выстраивать всё дальнейшее преобразование.
Для своего примера я выставил модель "sd-v1-5-inpainting", 60 Steps, Euler, разрешение максимально близкое к соотношению сторон кадра, CFG scale 24 denosing strength 0,5. Так же среди скриптов выбрал img2img alterbative test, там убрал все галочки кроме последней "Sigma adj...", В original prompt описываю, то как выглядит ОРИГИНАЛЬНОЕ изображение, остальные значения по умолчанию.
Возвращаюсь наверх, выставляю всё тот же оригинальный промпт и приписываю ему дополнительные детали, и негативные промпты которые мне не нравятся.
Ииии крутим барабан до тех пор пока не увидим изображение, которое зацепит взгляд. Нашли? Отлично сохраняем сид, и прописываем его. Шикарно, а вот теперь реальная закалка для видюхи. Мне пришлось прописывать "--precision full --no-half" в парамтры запуска SD, ибо уменя почему то хреново работает с img2img и часто выдаёт чёрные пикчи. С этими аргументами проблема решилась, но генерация стала дольше.
Переходим в подпункт Batch img2img, и указываем путь, туда где лежит наша последовательность кадров, и путь куда мы выведем всё добро. Убеждаемся, что сид введён, всё готово, и жмём снова старт. Ну у меня на обработку 135 изображений ушло около часа. Поэтому прикидывайте размер изображения и число кадров, что бы не ждать уйму времени, но без этого никуда.
И так, как только всё закончилось, ищем свежие сохранённые кадры, надеюсь они у вас будут поименованы так, же как и файлы для импорта, в формате последовательности. Их можем обратно перековырнуть в форматы видео или гиф, с помощью фотожопа, after effects или онлайн решений (гуглим пальчиками).
Получилось у меня следующее:
Видно, что постоянно дёргается всякое на фоне, но это можно и растушевать или обрезать уже на монтаже кому нужно, сам кадр персонажа держится цельно и не распадается на артефакты, блеск.
А теперь попробуем почти тоже самое, но при помощи EbSynth.
Запускаем прогу и видим, что нас просит вставить путь до Keyframes (ключевых кадров) и Video (последовательность изображений нашего видео).
Важный момент! Разрешение ключевых кадров должно быть идентично размеру видео или наоборот. Если у вас ключевой кадр в 480p а видео в 4K, то словите ошибку.
Нам потребуется задать минимум один обработанный ключевой кадр, по которому оно будет достраивать остальное на основе движения остальных кадров. Я буду вставлять ключевые кадры, каждый раз, когда я буду двигаться и менять выражение лица. Вышло 10 кадров вместо 135 перерисовки.
Ну а для видео я задействую все 270 кадров и не буду их обрезать, пусть будет в нативных 30 фпс.
Дальше для себя я открыл Advanced и тыкнул на Synthesis Detail: High, просто потому что хочу. Вам не обязательно.
Теперь запутаная хрень. Надо задать последовательность встраивания ключевых кадров.
Если простым языком, каждый ключевой кадр будет отвечать за участок в видео от a-кадра b-кадра. Следовательно, так как я разбивал их с идеей, что они будут встраиваться, там где будет происходить динамика, так я и раставляю ключевые кадры. Если у вас видео где минимум движений, максимум движение губ и мимики, то не нужно так запариваться. Если у вас видео, где прыгает попугай, а из него вы рисуете динозавра, то да, надо будет чуть ли не каждый прыг-скок закейфреймить в идеале, а то попугей рассыпется на артефакты.
Выставили все кадры, выставляем теперь каждому вывод, я выведу их в одну папку, но можете в разрые, если намерены смешивать кадры на монтаже (при этом вы заранее в выствлении кадров всё предусмотрели для этого).
Всё жмём RUN ALL и ждём минут 15-20, ну я ждал столько.
Получаем всю такую же последовательность изображений и всё так же известными способами конвертим в удобный для себя формат.
Поздравляю вы великолепны если повторили, всё шаг в шаг и получилось.
Видно, что с этим способом, анимация вышла плавней, без эпилептических вспышек, но сыпется местами на артефакты и видны стыки ключевых кадров но это фиксится монтажом.
Можно ли делать, что то сложнее, чем из мужика-мужика. Можно хоть в киборга или чужого себя перерисовать, но тогда сложнее будет выдержать единый стиль изображения, ибо не уверен, что удастся отрисовать несколько раз идентичные образы выдержанные в одном стиле, но это зависит от того, какие настройки вы выставите, но если оставите, слишком приближающее к оригиналу изображения, то и совсем отличающегося персонажа не выйдет. Ладно вот пример из начала темы.
Как видно, в каждом ключевом кадре облик ощутимо меняется. Тем не менее, кто научится этим пользоваться в полной мере, думаю сможет обратить это себе в пользу.
Спасибо, что дочитали, надеюсь, кому то будет полезно. Задавайте вопросы, постараюсь на них отвечать. Если я где то ошибся, не стесняйтесь поправить меня.
Полезный автор на YT, по видео которого я и решил написать это -https://www.youtube.com/@enigmatic_e
Небольшой русскоязычный гайд, который увидел вчера, пока готовил материалы -
Руководство мясоперерабатывающего предприятия «Челны-МПК» холдинга «Агросила» в Татарстане выдало сотрудникам шапочки с номерами и установило камеру, высчитывающую трудозатраты каждого работника. О системе «Маттлер» изданию Chelny-biz.ru рассказала гендиректор холдинга Светлана Барсукова.
Руководители и сотрудники в онлайн-режиме могут узнать результаты работы за день, отмечает Барсукова. Программа по камерам автоматически высчитывает ежедневную выработку, от которой зависит зарплата