Архив Echi & Lolicon / архив :: педоистерия :: реактор

реактор архив педоистерия 

Архив Echi & Lolicon

Приветсвую ценителей жанра Ечи и Лоликона. В связи с педоистерией, евакуация маленькой части джойректора прошла успешно.


echi - 98125 files, 101 Gb
lolicon - 19876 files, 20 Gb



Скачать можно через торрент:



https://drive.google.com/file/d/1qxpkQTH4TIEPuGWLYMmS0utOHCCb-b9E/view?usp=sharing



https://disk.yandex.ua/d/yopPUA-BUpFvVg




Кому нужен отдельно лоликон с предпросмотром, советую взять с соседнего поста http://joyreactor.cc/post/4803811




Качал самописно-заговнокодереным питон скриптом. Есть чуточку пустых картинок (сервер почему-то отдаёт 200 и пустой файл), решил не удалять и перекачать чуть позже. Есть ещё чуточку картинок, которые сервер отдавал 403, 404 и даже 501 (и плашку). Возможно, попал на обновление реактора.




П.С. У меня провайдер за NAT-ом, раздача может быть медленной, сделаю дополнитольно сидера к концу дня с публичным айпишником что бы ускорить процесс.


Подробнее
реактор,архив,педоистерия
Еще на тему
Развернуть

Отличный комментарий!

Zybr_x2 Zybr_x224.05.202115:40ссылка
-89.7
Какие блядь теги Билли? Которые забаненны?
Ricudosanin Ricudosanin24.05.202115:54ссылка
+47.7
Какие блядь теги Билли? Которые забаненны?
Он пост отредактироаал, вначеле на пол-страницы мастурбирующая лоля появлялась.
Да, которые забаненны. Где они?
Охренеть. Теперь шутка "Мы скачаем весь интернет" не кажется такой уж и шуткой.
Это перестало быть шуткой с приемом закона об аналоговнете. От мировой сети нас пока не отрубили, но и без этого уже без тора хер куда пролезешь.
Я имел в виду что парень скачал большую часть Реактора. Так то я давно запасаюсь консервами и сухарями соответствующим контентом. С 2007 вроде, больше 600 гб.
Я не уверен, но кажется Иисус велел делиться)
Ну, конкретно эта херня не из-за росгосхуесос, а из-за забугорного хостера, который сказал "удоли лоль или я удолю реахтур". Так что мировая сеть катится в ту же сраку
Но пока работают прокси и торы, мало кому хочется засирать hdd контентом, который фильтруется только вручную. Да и цены сейчас на hdd подскочили в 2-3 раза, так что сейчас не очень удачное время для начала формирования собственного архива.
Пф, скачивать интеренеты не только в РФ надо, это сейчас везде так. Это новый тренд, который давно перестал быть шуткой.
У меня плейлистах в тубе уже через раз пестрит [это видео удалено].
Ещё пару лет назад у людей был почти настоящий апокалипсис, когда панда на недолго закрылась, почти по аналогичным с реакторам проблемам. При этом после потери панды можно было потерять не только сайт и архив, а стабильный приток сканов. Ведь тот же сайт с цифирками по большей части панда-агрегатор.
Ещё можно вспомнить не особо давнее падение nyaa…
I know that feel bro
Необратимо потерял несколько отличных роликов с YouTube до того, как решил сливать себе вообще всё, что более-менее понравилось (особенно радует, когда ВНЕЗАПНО может выпилиться целый канал - как история с тем же Astro Soup). На сайтах с музыкой иногда такое тоже бывает - автор может просто решить уйти с площадки и зачистить свою страницу. Ну а картинки - картинки и так немного весят, уже годами на автомате копирую себе все понравившиеся пикчи.
Одно радует - дисковое пространство с каждым годом дешевеет и можно всё меньше париться по поводу дороговизны апгрейда своего "цифрового ковчега"
*Ехидный смех авторов чиа-коинов*
Товарищ майор, может не надо? Ну не хочу я качать, не не надо пожалуйста :(
Не хочешь - не качай. Мы со своим придем. Так даже удобнее - протокол уже будет заполнен.
А можно чтоб сразу несколько протоколов было? Чтоб выбрать можно было.
Можно, но они будут одинаковые.
капитаны дальнего плавания, будьте так любезны, склепайте гайд на коленке - как делать архив тэга. а то у меня лапки. и голова. без мозгов. я не понимаю что происходит и хочу сохранить интернеты.
Я когда-то начинал писать свою прогу для этого, сделал загрузку картинок с 1 страницы, а реализацию перебора этих страниц в определенном диапазоне отложил "напатом". В итоге так и не смог выделить времени на этот проект. Наверняка должны быть чьи-то готовые решения.
есть замечательный KellyC Image Downloader, но крупные тэги с 1200+ страниц нужно колдовство колдовать. вроде всё просто, но...
немножко программировать надо уметь.
на js, например, можно скрипт в консоль вставить или чуть удобнее - расширение tampermonkey использовать. скриптом создаёшь кнопочку при нажатии на которую постепенно выкачиваешь html-код всех нужных страниц, из которых либо регулярными выражениями вытягиваешь все url картинок, либо создаёшь div, туда пихаешь html-код и уже средствами работы с DOM находишь нужные картинки. после обработки первой страницы можно очистить body и начать заполнять его img-src с полученными адресами. Когда всё загрузится - просто сохраняешь страницу и получаешь картинки в папке. Делать это лучше в хроме, файрфокс почему-то пердолит имена файлов при сохранении.

на питоне я только парсить текст умею, потому обычно выкачиваю html-ки с помощью wgetcurl (можно простенький bat-файл с циклом написать или курить мануал курла), дальше - питон-скрипт пробегается по всем html-файлам в указанной папке и выдирает url картинок, и создаёт новый bat-файл, в котором curl будет выкачивать картинки.

пример парсера хтмл на питоне:

import os
import re
bat = '';
i = 1;
htmlFiles = os.listdir('html-pages');
for fn in htmlFiles:
  htmlFile = open('html-pages/' + fn, 'r');
  html = htmlFile.read();
  htmlFile.close();
  res = re.findall(r'href="([^"]+\.(jpe?g|png|gif))"', html, flags = re.IGNORECASE);
  for href in res:
    imgName = re.search(r'([^\/]*\.(jpe?g|png|gif))', href[0], flags = re.IGNORECASE).group(0);
    bat += 'echo ' + str(i) + ' / {!n}\ncurl -K onion.cfg -o img/' + imgName + ' ' + href[0] + '\n';
    i += 1;
i -= 1;
batFile = open('img.bat', 'w');
batFile.write(bat.replace('{!n}', str(i)));
batFile.close();
print('Total: ' + str(i));
На питоне есть библиотеки, которые умеют ДОМ строить. Парсить регекспами плохая идея
я только кусочек питона познал, в библиотеки не вникал. хотя надо бы поработать с гафикой - поделать хеши для поиска дубликатов и похожих, подобрать оптимальные фотматы и сжатия (а то есть куча фоток в png или jpeg с максимальным качеством и вполне себе можно их раза в 3-4 облегчить).
Не все герои носят плащи.
Хоть я и не лоликонщик, и даже не ценитель этти, да что там, у меня весь аниме (вместе с тонной соседних тегов) заблочен. Но это достойно увожения, черт возми. Вы сэр, проделали просто блестящую работу, здоровья вам.
Среднее качество контента намного выше.
На *буры заливают чтобы "как можно больше". Но если хочешь найти что-то, то поиск там лучше, да.
На реактор заливают ради кармы, которую с херовых артов не получишь. Этот вариант - если хочешь просто насладится творчеством, не перебирая тонны говна.
Ну да, ну да
Ну...если сравнивать с артами в ВН-ках, то качество лучше, но всё-таки обычно средняк, чего полно на бурах, на том же данбуру качество от среднего до высокого, на санкаку и пиксиве всё подряд (и то что на данбуру и жуткий пиздец), есть ещё зерочан (если он живой), там средняк и выше, но без эроты
Почти весь арт пиздится с данборы, так что смысла скачивать никакого
Вот единственное что теряется: переводы и срачи в комментах
ну так-то проблема данборы в том что тот же лоликон там за деньгу
Ага, "скрытые" посты которые открываются лишь на золотых аккаунтах
завтра может не стать gelbooru и тебе никто не скажет: "у вас неделька на скачку интересующего контента".
Этот тег не тащил. Там ~1000 страниц с постами, это в районе 10 Гб. Поставлю на скачивание завтра.
Я не про весь тег, а про посты с этти под ним, они по умолчанию скрыты
хм, не знал. Спасибо, буду знать про это (и поправлю парсер)
Благодаря тебе про хороший тег узнал, спасибо! <3
А чо собственно происходит?
Вот пост вождя о текущей ситуации на фронте http://joyreactor.cc/post/4800083
http://joyreactor.cc/post/4800083
Из-за какого пиндостанского "паладина" всё самое прекрасное пошло под нож. Теперь вот спасаем то, что ещё можно спасти.
Шо, скачиваем интернет на хард?
965 лоли пали в бою, мы будет помнить их.
Это они в Explicit были?
Или в explicit, или сервер отдал 404. Я докачаю (+ новые посты) и обновлю лолек.
Псс, а почему при попытке открыть файл торрент повисает намертво?
Файлов очень много. Поэтому торрент клиент создаёт файлы на диске и пригружает I/O сильно, потом хешики-хуешики, потом только начнёт качать. Нужно подождать чуточку, или попробовать другой торрент клиент
Спасибо
а потому что там до хера файлов, и торрент клиент хочет их всех отобразить.
жди пока отвиснет.
И тебе спасибо
Для уменьшения количества файлов можно в архив, даже без компрессии сделать.
120 гигов контента, это ж блять варлорд оф дреннор по весу
а по дрочибельности?
тоже варлорд оф дреннор
Кстати, а почему бы нам не замутить как на e-hentai.org? Они запустили распределённую контентную сеть Hentai@Home в которой весь контент лежит на клиентских устройствах. Да, это, с одной стороны, создаст некую амортизационную нагрузку на владельцев "хранилища", но с другой стороны такую сеть не забанить. Я не исследовал сорцы H@H и не знаю на 146% что лежит в основе, но выглядит всё так, что за основу взят BitTorrent, но я могу ошибаться.

Да, потребуется время, чтобы запилить подобный функционал, но, имхо, оно того стоит.


З.Ы: Пока писал, появилась идея создания mesh-сети (WireGuard) с парой-тройкой шлюзов и кучей клиентских нод с контентом. Физически на VPS контента лежать не будет, а значит и придраться не к чему будет (иль ошибаюсь я?), а шлюз заменить (в случае бана) не сложно. Масштабировать такую схему тоже легко будет.
Я смотрел как устроен H@H . Там есть пару ньюансов:
1) Раздающие - это по факту http кеширующие прокси сервера
2) Для раздачи нужен публичный адрес
3) Обновление контента на прокси-нодах всё равно идёт с основной

В принципе, можно похожее сделать и для джойреактора. Вопрос лишь в двух вещах
1) Как к этому относится Вождь и партия
2) кто это будет делать. Так как это человеко-часы разработчика-ов.
3) Монетизация Джойректора (в случае сети) и самой сети. Так как вождю тоже нужно кушать, и разработчику меш сети. И сервера оплачивать. И как это всё будет жить
Блин, я до трёх считать не умею
Ну, в любом случае, имхо, надо в сторону децентрализации смотреть.
Мне кажется децентрализация не обязательна, есть же куча хентай сайтов которые с контентом по хлеще и под блокировками живут.
Удивлен, что koka еще не пришел и не выдал коронное "делай".
вроде какая-то из дип-сетей так работает: у пользователей многогиговые папки, в которых шифрованные кусочки файлов хранятся, при этом ни один файл не целостен и даже из кусочка инфу не достанешь пока не соберёшь все кусочки файла. а другие кусочки разбросаны по другим пользователям. в итоге прогой типа торрента можешь собрать воедино интересующие файлы, расшифровать и выгрузить уже себе в папку downloads. но это работало очень медленно, занимало очень много места и не редки были случаи когда у тебя 99% кусочков, а десяток пидаров у которых был последний кусочек, свалили навсегда из раздачи (освободили место на хардах).
Добавил ещё один сидер, раздаю 180 Мегабит/с. Жду, пока расчехлится суппорт и ещё добавлю один сидер.
Привет, скажи , а как ты скачивал через api?Я пробовал через Девтулс браузера посмотреть, но там ни одного запроса и ответа.Попробовал fiddler, там много чего появилось(так то я им не умею пользоваться), но при запросе на http://joyreactor.cc/all/58075 он json ответ не выдал, или правильней сказать выдал что-то очень маленькое, .Попробовал черзе selenium , все работает и можно так скачать , весь сайт, но меня интересует как ты через api сделал?(Сам я не из it )
Я не через API делал

Через простые запросы к порнреактору и последующим парсингом HTML ответов.
Урл. для след. страницы конструировал руками. Не забывай, что img[0-11]сервера ориентируются по referer в HEAD-er запросе, нужно выставлять и "прикинутся", что запрос пришёл от порнреактора, а не от рандомного или основного домена.

Эчи дампил с мобильного реактора и последующему парсингу HTML страници и выдерания урла картинки. Для мобильного реактора я пересобираю урл с добавлением пути к полной версии картинки, иначе картинки будут не полнорезмерные.

Самый первый запрос - это логин на сайт и получение сессионых кук. Все остальные запросы с сессиоными куками идут. Правда, не уверен что это вообще нужно для дампа.
Забыл ещё добавить - каждую картинку после парсинга проверяю, корректная она или сломана. Если сломана - повторяю запрос на скачивание (не один я евакуирую реактор) через 2 секунды.

Запросы к страницам делаю с задержкой download_time + 1.5 sec. Иначе IP в бан на 3 часа от реактора.
APi это интерфей, через которые программы разговаривают, и через эти запросы и ответы , это бэк.А фронтенд , это то что переводит(получает) этот разговор программ на html css javascript и отображает их на браузере
Подожди, как так APi это не запросы .Как ты описал, это по сути обычный запрос через api.Например get https:///sjdkfajdflkjadk/jsdlfa; ну и там заголовки куков с логином и паролем, это же через api делается.
Щас Postman заработал, а то что-то не включался и вот чудо , просто поставил запрос в get url.И получил и куки(я без регистрации заходил, пока не знаю что это и куда, а так ,да зарегаться и потом скачивать) и html ...пндц, а Fiddler почему ты мне это не показываешь?Ну теперь я увидел, как можно парсить. Щас попробую просто куки регистрации получить , а может быть и без них можно скачивать.Странно ,что это отобразилось в postman
Ну и конечно , потом я понял почему fiddler мне не показал Ответ, он его показывал но в криказяблях, я там нажал, что-то вроде связанное с response и увидел html
response body is encoded нажал и все видимым стало
>обычный запрос через api

У джойреактора есть GraphQL АПИ http://joyreactor.cc/post/4645610 . Через это АПИ работает работает часть реактора. Посмотри в начале ответа HTML есть json-чик с настройками, и в постах присутсвует.
В начале постов увидел json, но в нем в основном инормация описывающая пост, теги , картинка, автор, когда загрузился..Я не понял , как ты через api делал, в итогде оказалось что fiddler нужно было еще на кое что нажать и увидел ответы. А сейчас , я от тебя узнал ,что все не черзе api.читаю щас про GraphQL( по сути это api навороченнее ) .странный какой-то, получается что он твой недозапрос json прврещает в нормальный json, который потом можно использовать для последующих действий.Интересно .А это библиотека для rest или какое-то над приложение , которое на сервере находится?что-то не могу найти
Щас попробую через Postman , может хоть там json увижу.Ну или откуда сайт вырисовывает все эти картинки.Нужно как-то же html , css поставлять а вместе с ним и картинки подгружаться откуда-то должны.
Я не люблю анимешный кавай и хентай с лолями. Но в тёмный час, когда добродетельные пидорасы считают возможным указывать другим, как и на что нельзя дрочить — я считаю своим моральным и гражданским долгом встать на раздачу вместе с Легионом. Ибо нехуй.
Суть не в этом, суть в том, что начинают с этого, а потом 451 градус по Фаренгейту из онлайн-библиотек изымают. По накатанной. За оскорбление чувств выдуманных силовиков, например.
Вот только ебаной политоты не хватало. Моралфаги прессовали хентай всегда и везде, вне зависимости от политического режима.
В древней Греции не прессовали!
Там вообще любили всякое и разное )
Сложно осуждать порнографию в культуре, где даже сказания о богах чуть более, чем полностью завязаны на чьей-то ебле.
Знач уже не всегда и не везде.
В нулевых не было такого. Там хоть что в открытом доступе было и не было никакого пресса, и нигером можно было друг друга называть, свобода слова и информации были гораздо шире.
Пытаюсь скачать раздачу, но bittorrent уходит в ребут каждые пару гигабайт, что посоветуете? Другой торрент клиент или дальше продолжать превозмогание?
Попробуй другой торрент клиент
спасибо, действительно помогло
Каким качаешь? У меня такая же фигня
Короче, качайте через QBittorrent. Скорость у меня была порядка 10 ГБ так еще и не вылетала каждые 2ГБ
Всех благ тебе, святой спаситель лолей!
Дрочить,не передрочить.
100 гигабайт... ебать... жду развития JPEG-XL
Пока что, это вторая раздача на трекерах по размеру, которую качаю. До карты вселенной пока не хватает тега Explicit.
Всё будет. Терпение, скрипт подправлю и поставлю качаться
Остальные теги не архивировали?
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
JoyReactor Содомия и взаимовыручка
подробнее»

реактор архив педоистерия

JoyReactor Содомия и взаимовыручка
L&UHy> 1 1 Л'тгЧ t *v im\ i i 1 11 Vi illiCi111ПIIIIT*