в link настройка сети
»пидоры помогите wi-fi tp-link
Технопидоры, нужны ваши глубокие познания в wi-fi и прочих приблудах.
Имеется роутер TP-Link Archer AX12, который довольно далеко расположен от стационарного компа. Решил я усилить сигнал для стабильности, так как приходится протягивать провод со свистком до двери, в пределы видимости роутера, учитывая, что в будущем в комнате будут стоять телевизор и консоль. Купил Wi-Fi ретранслятор TP-Link Re220. Подключил его так, что он прямо видит роутер и компьютер. Всё работает в 5ггц.
И получается ситуация, что через ретранслятор комп получает скорость 100 мбит, а через свисток, напрямую соединяясь с роутером (но повторюсь, через всю комнату кидаю провод до коридора, чтобы был виден роутер, через стены постоянно рвет связь), сколько положено - 300 мбит.
При том что у ретранслятора заявлена скорость в 750 мбит и по отзывам вроде как народ не обламывается.
Что не так и где копать?
пидоры помогите geek Windows Операционная система Linux сеть безопасность
Настройка виртуальной сети
Уважаемые пидоры, помогите понять, как можно организовать безопасную виртуальную среду с изолированной сетью.
Дано:
Компьютер, на котором установлена Win10, имеет на борту две встроенные сетевухи: ethernet и wi-fi. Через ethernet он подключен к обычному интернету через роутер ZTE. Также есть второй роутер Mikrotik, на котором через другое проводное подключение и VPN туннель организован выход в другую изолированную сеть.
Задача:
Организовать выход из виртуальной машины в изолированную сеть роутера Mikrotik с использованием имеющегося wi-fi адаптера. Для этого нужно подобрать гипервизор и понять, как дать ему под управление wi-fi адаптер. Трафик не должен смешиваться ни в коем случае, не должно быть ситуации в которой хостовая ОС бы попробовала использовать изолированную сеть и наоборот, витруальная машина--хостовую. Подозреваю, что для этого хостовая винда не должна вообще подключаться к изолированной беспроводной сети.
Дополнительная информация:
Wi-fi адаптер модели Intel Wi-Fi 6E AX210. Подозреваю, что задачу можно решить, докупив еще одну проводную карту, хотелось бы обойтись именно его силами. На виртруалке вероятнее всего будет Ubuntu 20.04, но это пока не окончательное решение. Раньше имел дело только с QEMU/KVM на линуксовых серверах, так что не знаю, какие гипервизоры тут подойдут и кто что может. Предполагаемая схема окружения на рисунке ниже.
MidJourney нейронные сети новости
Нейросеть Midjourney обновилась до пятой версии
Что нового:
► Более широкий стилистический диапазон, повышена отзывчивость на промты;
►Разрешение увеличено в 2 раза, улучшен динамический диапазон и детализация;
►Лучше генерирует зубы и руки.
Все пикчи в посте были сгенерированы с использованием Midjourney v5.
Stable diffusion нейронные сети NSFW
Возрадуйтесь обладатели 4 гиговых видеокарт и лентяи.
Продолжение поста https://joyreactor.cc/post/5307539
Итак есть возможность заставить работать нейронку даже на 4 гиговых видеокартах, правда там будет слегка порезанный интерфейс но всё же.Версия для ленивых, с не самым приятным интерфейсом, зато просто запускаете exe и всё работает(если верить странице) https://grisk.itch.io/stable-diffusion-gui правда тут для 4 гиговых максимально возможное разрешение 256х512. Опять же если это действительно так. Но на 6 гиговых железно должно идти.
Ну и для любителей консольки и приятного интерфейса репа GitHub - basujindal/stable-diffusion
В ридми пишут, что 4 гиговые 2060 справляются с 512х512. Как устанавливать могу предположить, сам не ставил, поэтому обманывать не буду. Но опять можно пройти по гайду --K-DIFFUSION RETARD GUIDE (GUI)-- (rentry.org) так-как мой уже немного устарел, хотя все еще работает вероятно.
Там пропустить пункты связанные с GFPGAN то есть 11 и удалить 36 строчку из скачанного environment.yaml. 4 пункт тоже не нужен, так-как будем использовать скрипты из репозитория basujindal/stable-diffusion. Как все установили скачиваем и закидываем из репы basujindal/stable-diffusion папку optimizedSD в корень waifu-diffusion.
Запускать text2img: python optimizedSD/text2img_gradio.py
Запускать img2img: python optimizedSD/img2img_gradio.py
Ну и вот вам небольшие эксперименты img2img:
Арт нагло спиздил https://joyreactor.cc/post/5307995 отсюда
нейросеть ArtStation ебанутым нет покоя
NO TO AI GENERATED IMAGES
На одном из крупнейших сайтов для профессиональных художников ArtStation началась забастовка против изображений, созданных при помощи нейросетей.
"На самом деле то, что сейчас происходит, очень печально. Это убирает любую мотивацию. Я больше не хочу публиковать свои арты. Кажется, нет смысла тратить недели и месяцы на рисование, ведь картинки, сделанные в пару кликов мыши, получат такой же отклик и внимание. Раньше я уже смирилась с тем, что никогда не буду популярной художницей, потому что не могу постить в соцсети даже пару раз в неделю. Черт, даже раз в неделю для меня слишком много. Иногда рисую один арт больше месяца. Такое ощущение, что в этом будущем нет места для таких, как я."P.S.
Обидно, что кто-то тратит много времени на создание рисунка, а кто-то нажимает пару кнопок и выставляет результат как своё творение.
Отличный комментарий!
>Похуй
Реально, востребованные, профессиональные художники востребованными и останутся, нейроарт ударит в основном по едва-едва учащимся рисовать говнохудожникам - которых и так ЯВНО переизбыток. Да, поднимется порог вхождения в профессию - но, с другой стороны, сейчас этот порог и так мягко говоря низковат - очень много второ- и третье-сортных художников, явно не заслуживающих оплаты в "60 бачей за работу", которую они за два часа запилят, но, тем не менее, рьяно такой оплаты требующих.
нейросети ИИ Игры Разработчики игр
Китайский разработчик Rayark уволил всю команду художников в пользу ИИ
Коротко: китайский разработчик мобильных игр Rayark обвиняется в том, что он уволил всю свою арт-команду и попытался заменить ее нейросетями. На изображении пользователь указал на некоторые распространенные ошибки ИИ, которые есть в изображениях из игр Rayark.
https://twitter.com/SaltPPC/status/1661652320604803074?ref_src=twsrc%5Etfw
Многие из указанных ошибок являются распространенными проблемами в изображениях сгенерированных ИИ, например, руки со слишком большим количеством пальцев или линий и форм, которые логически не связаны. В то время как большинство людей не смогли бы сказать на первый взгляд, художники указывают на проблемы, которые кажутся более очевидными при более внимательном изучении.
>помогает клепать обоссаную гача-парашу
>cвоими артами завлекает психически слабых людей
>Те тратят нездоровые суммы денег
Художник:
"Ну что ж поделать, надо же как-то зарабатывать"
Бездушная корпорация: *увольняет художника*
Художник: "Ниииеееет, вы хумже чем Гимтлерм! ни пакумпайте их игмры! Т.Т"
нейросети Stable diffusion длиннопост NovelAI
Модель NovelAI под Stable-Diffusion
Там недавно слили исходники NovelAI, на сколько знаю сервис генерит истории по описанию, что то вроде AI Dungeon. Но с 3 октября у них появилась фича генерить и изображения по описанию. Собственно слили и её.
Автор репозитория одной из сборок, AUTOMATIC1111 добавил в свою сборку поддержку работы новых слитых моделей ,его кстати забанили в офф. дискорде Stable Diffusion после произошедшего.
Если хотим поиграться с новой моделью, а выдаёт она довольно неплохие результаты, то нам нужно:
1. Установить сборку Stable Diffusion от AUTOMATIC1111 - https://github.com/AUTOMATIC1111/stable-diffusion-webui
2. Качаем модель (у них есть NSFW и SFW версии) и некоторые ещё необходимые вещи из слитых материалов - magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak
3. Переименуйте model.ckpt, что лежит внутри animefull-final-pruned в любоеназвание.ckpt. например в novelai.ckpt, теперь переименуем animevae.pt в название которое мы дали предыдущему файлу и добавляем к нему .vae.pt к примеру в novelai.vae.pt... Теперь заходим директорию \stable-diffusion-webui\, заходим в папку models и создаём там папку с именем hypernetworks и кидаем в неё файлы aini.pt, anime.pt, anime_2.pt и т.д из папки modules, что мы скачивали. Теперь в папку \models\Stable-diffusion\ с основными моделями что мы используем, переносим ранее переименованый файл novelai.ckpt и файл novelai.vae.pt
4. Запускаем Stable Diffusion и переходим в настройки, ищем раздел "Stable Diffusion" и включаем нужную модель и finetune hypernetwork
5. Готово, можем работать с новой моделью.NovelAI использует CFG:11 и негативные промты: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, поэтому если хотите результаты похожие на те, что генерит оригинальная, то используйте эти параметры.
В некоторых промптах взятых напрямую из NovelAI может встречаться синтаксис {}. Он предназначен только для официального сервиса NovelAI. Так же усиливает акцент, как и (), но акцентирование увеличивается только в 1,05 раза вместо 1.1 с (). Поэтому если прям точь в точь повторить результат с понравившегося промпта, что увидели в интернетиках, то используем (слово:1.05) или видим {{}}, то используем (слово:1.1025)... А лучше почитайте https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features для понимания всяких тонких фишек.
Ну надеюсь всё правильно описал расписал. Если есть вопросы спрашивайте, если они в рамках понимания моего разума, то отвечу. Ниже приложу пару примеров изображений и промптов к ним, которые способна выдать модель. К слову через эту модель лучше генерить всякие анимешные арты ибо они там получаются лучше всего.
Мои:
((masterpiece)), painting of a ((Mandalorian)) bounty hunter, Star wars, Tatooine, space, stars, art by John J. Park
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3998559443, Size: 512x704, Model hash: 925997e9
((masterpiece)), girl,red dress,short hair,summer, twintails, black hair,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 150, Sampler: Euler, CFG scale: 11, Seed: 3013799092, Size: 512x704, Model hash: 925997e9
copic, thick outlines, {{mohawk, shaved sides}}, 1girl, {vibrant}, deep shadows, deep space, {{80s, scifi, movie poster}}, skin tight spacesuit, jumpsuit, {power armor}, {{small breasts}}, closeup, detailed eyes, torso, headshot
{{BEST QUALITY}}, {{MASTERPIECE}}, {{HIGH RES}}, {{CINEMATIC LIGHTING}}, {{DETAILED}}, {{TELEPHOTO LENS}}, beautiful hd background, high detailed background, {realistic shadows}, HD shadows, {{{midjourney}}}, tarte (hodarake), Anor Lando, avataart, Andy Livy, by dark album, god teir background art, realistic, realistic portrait, masterpiece portrait, {{{{{{MASTERPIECE}}}}}}, sharp, photo realistic, background focus, {{{{{background only}}}}}, futuristic city, future, advanced technology, neon lights, holograms, flying ships, buildings metalic silver , advanced civilization, year 5096 , science fiction, sci-fi, futuristic dome, matrix
{white hair}, {very long hair}, gloves, black yellow coat, bandaged wrist, torn clothes, {{black}} eyeshadow, black and white eyes, earrings, {{floating crown}}, {star halo}, detached wings, {{masterpiece}}, {1girl}, black smear on right side of face, space background, {goddess}, {standing on a white platform}, {star symbol on clothes}, star earrings, {{medium}} breasts, bandaged torso, patterns on eye pupils, long majestic black yellow coat, chain earrings, makeup, large black and yellow coat, inside a cathedral at night, {detailed large crown}, character focus, floating stars, presenting a menger cube, magic cubes on background, dark magic, serious, {divine}, {{teenage}}, mini universe above hand, black cubes on the background, supernova on the background, decorated hair, covered body, {{{black background}}}, light above head, spirals on background, fractal patterns, {{dirty face}}, bandaged arms, fractal background
Dungeons & Dragons Stable diffusion нейронные сети battlemap
Модель для генерации карт для DnD
Ахтунг, длиннопост (ну длиннее среднестатистического)
Колупался я как черьвь в stable diffusion, генерировал хентай и пришла мне "гениальная" мысль в голову, а что, если сгенерировать карту для дынды и...
Вообще тренировка моделей через Dreambooth весьма эксперементальна и никто точно не знает, как им пользоваться. Да, тренировать одно определенное лицо/персонажа/объект примерно научились, но шаг в сторону и тёмный лес. Но я не сдавался и шел к своей цели.
*Дальше идёт скучная часть про тренировку модели. Не буду вдаваться в подробности - просто представьте, что Рокки это модель и посмотрите видос*
И вот гордый результат подневольного труда:
Вручную, конечно, можно сделать намного круче и что-то более конкретное, но это хотя бы играбельно и экономит уйму времени.
Здесь ссылка на скачивание и другие примеры: D&D Battlemaps
Не спеши тянуться к минусу, взглянув на свой комп
Ну или ты не хочешь париться с установкой и настройкой stable diffusion, я всё пойму и у меня есть для тебя бесплатное лёгкое решение без смс и регистрации.
- Переходим по ссылке Порно_с_лошадьми.mp4
- Вероятно он попросит залогиниться в гугл - логинимся
- Жмякаем сюда и он попросит разрешения совокупиться с гугл драйвом и мы тут тоже не возражаем (сколько-то места свободного потребуется на нём, но не много)
- Когда он кончит, нажимаем ниже последовательно (повесить галочку, наверно, лишним не будет)
- Прежде чем запускать следующую ячейку надо выбрать model version 2.1-768 и в строку model link вставить https://huggingface.co/Zapper/battlemap-1024/resolve/main/Battlemap-1024.ckpt
- Ячейку ControlNet можно пропустить
- Запускаем последнюю ячейку, а затем переходим по ссылке, когда она появится
- И вот он перед вами - великий и ужасный Stable Diffusion, запущенный на гугловском железе с приличным GPU. Есть где-то 3 часа в сутки на бесплатный доступ, наслаждайтесь.
В верхнюю строку вводим то, что хотим нагенерировать, начиная со слов battlemap dungeon или battlemap outdoor (больше подробностей по ссылке: D&D Battlemaps).
Sampling method - DDIM, Sampling Steps 30 (это мои рекомендации для простоты).
Width и Height это соответсвенно ширина и высота генерируемого изображения. Поскольку модель была натренирована на изображениях размером 1024x1024 я НАСТОЯТЕЛЬНО рекомендую выставлять Width и Height не меньше 1024. Но если вы выставите сликом много, например 2048x1536 Stable diffusion или GPU не вывезет и справедливо попросит вас пройти в известном направлении. Я обычно использую 1536x1280 или 2048x1024.
Когда всё будет готово - запускаем генерацию, жмякнув на Generate и ожидаем
Спустя ~минутку мы получим картиночку ниже.
Лес - лес, река - река, скалы - скалы, одно и то же, мать твою
Пару слов насчёт масштаба. Тренировалась модель на картах разного масштаба, поэтому результаты будут тоже разного масштаба, но в пределах приличного (это не баг а фича). Вы можете принять любой масштаб, какой посчитаете нужным, но в среднем можно считать 1024x1024 это 24x24 пятифутовых квадратов. Также иногда на картах просматривается сетка, либо в не естественных структурах пол выложен плитами - на это можно опираться для определения масштаба.
Ваши поделки кидайте в комменты под этот пост или сюда - D&D Battlemaps
P.S. Раз меня показывают по реактору - передаю привет своим пидорам с содомии и взаимовыручки, целую в щечки
P.P.S. Ельф не падай, сучара
Отличный комментарий!
Отдать роботам рутину, чтобы заниматься только творчеством
Реальность:
Роботы отбирают у тебя творчество, чтобы ты занимался только рутиной