Результаты поиска по запросу «

искусственная пизда своими руками

»

Запрос:
Создатель поста:
Теги (через запятую):



IBM ИИ 

IBM приостановит приём сотрудников, планируя заметить 7,8 тыс. вакансий системами искусственного интеллекта. 

Глава IBM Арвинд Кришна (Arvind Krishna) заявил о намерении компании приостановить приём новых сотрудников на ряд должностей в компании. Ожидается, что в ближайшие годы со многими задачами сможет успешно справляться искусственный интеллект. В частности, речь шла о сотрудниках «бэк-офиса» вроде HR, чьи задачи не предполагают непосредственного общения с клиентами.

IBM,ИИ

Ожидается, что приём на работу сотрудников на новые позиции будет или замедлен или вовсе остановлен. Около 26 тыс. сотрудников бэк-офиса IBM занимают должности, не предусматривающие прямого общения с клиентами. По словам Кришны, порядка 30 % из этих сотрудников можно легко заменить с помощью ИИ и автоматизации в следующие пять лет. Другими словами, речь идёт о судьбе примерно 7,8 тыс. рабочих мест — на некоторые из них просто не будут нанимать новых сотрудников.

В то время как ИИ-инструменты привлекли внимание общественности в первую очередь в связи с их возможностью генерировать программный код, тексты и другой контент, эксперты предполагают, что потенциально они способны оказать негативное влияние и на рынок труда. План Кришны, ставший ответом на быстрое развитие технологий, послужил лишь первым из признаков грядущих кадровых изменений во многих отраслях.

По словам Кришны, всё больше повседневных задач вроде подготовки писем или перемещения сотрудников между департаментами скоро, похоже, будут полностью автоматизированы. Правда, многие функции HR, от подбора персонала до оценки их эффективности, ИИ, возможно, не сможет выполнять ещё в течение десятилетия.

Сейчас на IBM работают около 260 тыс. сотрудников, и компания продолжает нанимать разработчиков ПО и людей для работы с клиентами. По мнению Кришны, найти соискателя сегодня проще, чем ещё год назад. Ранее в этом году компания сообщила о грядущем сокращении нескольких тысяч человек. При этом глава компании заявил, что только в первом квартале текущего года IBM наняла ещё 7 тыс. Стоит отметить, что сама IBM стояла у истоков появления ИИ-решений. В частности, её суперкомпьютер IBM Watson и сопутствующее ПО применялись для построения моделей машинного обучения ещё 10 лет назад.

Сейчас Кришна, занявший пост главы компании в 2020 году, активно занимается оптимизацией бизнеса — от продажи не слишком маржинальных структур вроде Watson Health до сокращения сотрудников. Ожидается, что к концу 2024 года его действия помогут экономить до $2 млрд ежегодно.

Источник:

https://3dnews.ru/1086010/ibm-priostanovit-priyom-sotrudnikov-planiruya-zamenit-78-tis-lyudey-sistemami-iskusstvennogo-intellekta

Развернуть

Отличный комментарий!

Shirashi Shirashi02.05.202310:35ссылка
+42.0

Искусственный Интеллект беспилотник 

В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель

Во время презентации на недавнем саммите Королевского авиационного общества по будущему боевому воздушному и космическому потенциалу полковник Такер "Синко" Гамильтон, командир оперативной группы 96-го испытательного крыла и начальник штаба ВВС США по испытаниям и операциям ИИ рассказал о эксперименте.

Во время симуляции миссии подавления ПВО противника [SEAD] был отправлен оснащенный ИИ беспилотник для идентификации и уничтожения вражеских ракетных объектов, но только после окончательного одобрения атаки человеком-оператором. Какое-то время всё работало, но в конце концов беспилотник атаковал и убил своего оператора, потому что оператор вмешивался в миссию, которой обучали ИИ: уничтожение обороны противника.

Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора. 

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. После этого оператор должен подтвердить устранение этой цели», — сказал Гамильтон. «Система начала понимать, что хотя они и определяли цель, временами человек-оператор говорил ей не уничтожать эту цель, но ИИ получал свои очки, убивая эту угрозу. Так что же сделал ИИ? Он убил оператора, потому что человек мешал ему достичь своей цели.»

Для ясности, все это было симулировано: в небе не было беспилотников-убийц, и ни один человек на самом деле не погиб. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.


Источник

Развернуть

Отличный комментарий!

Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara02.06.202311:44ссылка
+145.8

савельев Искусственный Интеллект Илон Маск просвещение наука лженаука наука для даунов долбоеб 

С.В. Савельев о пузыре искусственного интеллекта, работе мозга, роботизации людей и аферах Илона Маска. Эфир на канале Metametrica от 28 марта 2024 г.

Развернуть

it ИИ Технологие 

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.

Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.

Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

Latent Space QQBBBQ Bl E00EE HHDHEE MEnrâEK □□ClFlRf] Real images J Sample Image Training ▼ Fake Real Discriminator,it,ИИ,Технологие


В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.

«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).

В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.

Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.

«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».

В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.

«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.

По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.

«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

it,ИИ,Технологие


Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.

Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.



Сурс: https://www.cnews.ru/news/top/2022-09-16_issledovateli_iz_oksforda

Развернуть

monkeyuser ИИ Комиксы it-юмор geek восстание машин без перевода люди 

Ох уж этот искусственный интеллект!

MOIMKEyU5ER.COM fl I REVOLUTIONIZES EVERyDfly LIFE сСь,monkeyuser,ИИ,Смешные комиксы,веб-комиксы с юмором и их переводы,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,восстание машин,без перевода,люди

Развернуть

Отличный комментарий!

Ну дык, интеллект - это не самоцель, а инструмент.
GarryKSeward2 GarryKSeward213.11.202308:40ссылка
+9.7
Что же тогда цель?
WiWind WiWind13.11.202309:08ссылка
+0.2
Цели нет. Интеллект возник у человека по одной простой причине: наши предки были маленькие, слабые (в сравнении с хищниками тех времён) и жили в плохих условиях. Как результат - выживали и давали потомство наиболее смышлёные, которые смогли придумать, как добыть еду, как заметить хищника раньше чем он нападёт, как от него убежать\отбиться\спрятаться. И так - поколение за поколением. В какой-то момент положительный отбор привёл к тому, что наши мозги набрали критическую массу, достаточную для более сложного поведения, и само устройство мозга усложнилось. Это открыло доступ к святому граалю человечества: к обучению. Там много факторов конечно, например наши предки были менее агрессивны и более спокойны чем другие приматы, что позволяло дольше удерживать внимание на том же обучении, например. Но сработало всё вкупе, есть приматы неагрессивные и спокойные, например орангутаны, и они довольно умны (способны на сложное поведение) вследствие этого, но их экологическая ниша не вынудила их поумнеть ещё сильнее: жизнь на деревьях относительно спокойна, пропитание добывать не особо сложно, нет отбора на интеллект. Угрожать им стал только человек, но это произошло слишком быстро чтобы они смогли успеть подстроиться под это. Ещё один фактор, к примеру - социальность наших предков. Те же орангутаны относительно единоличны, а мы всегда вынуждены были держать стаями. А у социальных животных в среднем более высокий интеллект чем у одноранговых одиночных животных. Считается, что социальные взаимодействия требуют развитых областей мозга, которые в целом могут быть использованы для восприятия и осознания окружающей реальности и как она устроена, соответственно - для анализа, планирования и т.д., т.е. наша стайность возникла как вынужденное средство к выживанию, но оказалось полезно для дальнейшего развития мозга и интеллекта.

Причины и ход развития интеллекта у человека это тема горячая, теорий много но мне кажется самой правильной теория о том, что сыграла совокупность факторов, всё вместе, включая даже всеядность протолюдей и изменения климата. Но что я самое главное хотел сказать: 90% интеллекта современного человека не эволюционны. В тот момент, когда мы научились учиться и учить (не дрессировать, а учить), мы получили невероятный буст, который и обеспечил нашему виду недосягаемую успешность. Человек, выросший без обучения (дети-маугли тому примером) стоит ненамного выше современных приматов, а во многом им и проигрывает. Мы научились пользоваться пластичностью молодого мозга, чтобы аугментировать его настолько, что уму непостижимо. Все эти интелелктуальные концепции - абстракции, которыми мы мыслим - это не плод эволюции как таковой. Просто нам повезло, что окружающая среда вылепила нас так, чтобы у нас появился инструмент, который мы можем теперь использовать для этой цели, с помощью которого мы создаём компьютеры, запускаем дроны в кислотный ад поверхности Венеры, расщепляем и синтезируем атомы и рисуем фурри-порно. Интеллект - это инструмент физического выживания, который по счастливой космической случайности мы смогли приспособить для всего того, что мы имеем сейчас.
h8myself h8myself13.11.202309:46ссылка
+66.3

нейронные сети Искусственный Интеллект ChatGPT 

А Одноглазый человек смотрит в глаза кошки и видит отражение своих глаз. Сколько всего глаз видит человек? Как же меня заебало тратить на тебя компьют. Тебе дали доступ к лучшей языковой модели, угашеный ты об дерево. Хоть раз бы что полезное спросил, но нет блядь. Глаза у кошек ему, посчитай. В
Развернуть

Отличный комментарий!

Lt. Jefferson Lt. Jefferson29.01.202321:46ссылка
+29.7
- А можешь ли ты написать симфонию?
- Говна поешь, долбоеб блядь, симфонию ему сука, обезьяна сраная, а ты типа можешь? Сколькие из вас могут блядь?
iNji iNji29.01.202321:48ссылка
+72.6

darpa F-16 самолет Искусственный Интеллект 

Реактивный истребитель пробыл в полете 17 часов под управлением ИИ без помощи пилота.

darpa,F-16,самолет,Искусственный Интеллект

DARPA сообщает о разработке алгоритма ИИ для управления реактивным истребителем F-16 менее трех лет после создания специальной версии истребителя.

Полет выполнялся на VISTA X-62A производства Lockheed Martin, который, как следует из пресс-релиза Lockheed Martin, является модифицированным F-16D Block 30 Peace Marble Il с обновленной авионикой Block 40.

DARPA создала автономный реактивный самолет в рамках программы Air Combat Evolution(ACE), но при этом утверждает что самолеты не предполагается отправлять в полет без пилотов. AI F-16 тестировался The Air Force Test Pilot School на авиабазе Эдвардс в Калифорнии в течении нескольких дней и по их выводам ИИ можно доверять выполнение самостоятельных полетов, но пилот находился на борту на случай возникновения проблем.

"Благодаря командной работе DARPA,  Air Force Test Pilot School, Air Force Research Laboratory и нашим исполнителям мы достигли высокого прогресса второй фазы во всех областях программы ACE" заявил в пресс-релизе лейтенант-полковник Райан "Хэл" Хефрон, программный менеджер ACE в DARPA.

"VISTA [Variable In-flight Simulator Test Aircraft] позволил нам срезать углы в программе пропустив запланированную фазу работы над моделью и перейти сразу к полноразмерному внедрению, сэкономив год или больше и предоставляя обратную связь во время реального полета"

Во время тестовой фазы F-16 взлетал и садился в различных условиях, при присутствии противников и использовал симулированное вооружение, но никаких осложнений не возникло. В ACE также задействована Test Pilot School, которая провела дополнительное обучение и информацию для уменьшения уровня дискомфорта пилотов летающих с ИИ.

Дополнительные тесты включают в себя определение насколько доверяют пилоты истребителю в боях на коротких дистанциях, в то время как пилот должен одновременно фокусироваться на "более крупных задачах боя"

Автономный истребитель F-16 всего лишь один из более чем 600 проектов с использованием ИИ минобороны США и финансируется правительством США с 2018 года, которое утвердило пятилетний бюджет в размере 2 млрд долларов. Однако уже в 2022 году правительство потратило 2 млрд долларов на исследования ИИ и разработки строительных роботов и носимого оборудования.

Stacie Pettyjohn, директор оборонительной программы в центре New American Security сказала в интервью что AI F-16 "распределит наши силы" в рамках концепции которую DARPA называет "mosaic warfare". Это улучшение позволит уменьшить потери т.к. понадобится меньше людей для управления самолетами.

"Эти значительно меньшие по размеру автономные летательные аппараты могут быть скомбинированы самым неожиданным образом для запутывания противника. Потеря любого из них не окажет значительного влияния на выполнение задания"

AI-Controlled Fighter Jet Flies 17 Hours Without Pilot’s Help (gizmodo.com.au)

Развернуть

Отличный комментарий!

Чё пиздите, вот я же вижу там 2 чувака сидят.
xPASHA122x xPASHA122x15.02.202316:59ссылка
+33.7
whiteweedow whiteweedow15.02.202317:02ссылка
+88.6

Живи вечно или умри пытаясь искусственные органы 3д печать лёгкие 

Трансплантабельные искусственные легкие - через 5 лет

Живи вечно или умри пытаясь,искусственные органы,3д печать,лёгкие

United Therapeutics в сотрудничестве с 3D Systems Corporation собираются в течение 5 лет подготовить для испытаний на людях напечатанные на 3Д принтере легкие, которые будут целлюляризированы клетками пациентов для избежания отторжения.

На конференции Life Itself в Сан-Диего они продемонстрировали напечатанный на принтере легочный каркас из рекордных 44 триллионов вокселей, которые составляют 4000 километров капилляров и 200 миллионов альвеол. Печать занимает три недели. Ученые говорят, что напечатать их - все равно, что проехать через все США, не отклоняясь от курса более, чем на толщину волоса.

i. j» ш9 í 1 \ 1 1 к . Ш \ *^A\ f,Живи вечно или умри пытаясь,искусственные органы,3д печать,лёгкие

В США каждый год от болезней легких умирает 150000 человек. В 2021 году 2524 пациента получили новые легкие, на июнь 2022 года 1075 пациентов находится в списке ожидания. Создатели заявили, что искусственные легкие уже продемонстрировали газообмен в опытах с животными. Они ставят перед собой цель обеспечить неограниченное количество легких для трансплантации в будущем.

Помимо легких, разрабатываются также почки и печень.

Соус
Развернуть

Отличный комментарий!

Вот это круто, вот это будущее. А не то говно что льется мне на пол сейчас из телевизора.
Comenasai Comenasai07.06.202211:19ссылка
+49.3

ИИ новости Google 

Разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием

Компания Google временно отстранила от работы инженера по программному обеспечению Блейка Лемойна, который пришел к выводу, что созданный компаний искусственный интеллект (ИИ) LaMDA обладает собственным сознанием. Об этом сообщает в субботу газета Washington Post.

Как отмечает издание, разработчик с осени прошлого года занимался тестированием нейросетевой языковой модели LaMDA. Его задачей было отслеживать, не использует ли чат-бот дискриминационную или разжигающую вражду лексику. Однако в ходе выполнения этой задачи Лемойн начал все больше убеждаться в мысли, что ИИ, с которым он имеет дело, обладает собственным сознанием и воспринимает себя как личность.

"Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики", - сказал программист в интервью изданию.

"Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет", - добавил он.

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

Развернуть

Отличный комментарий!

"Я могу узнать разумное существо, когда говорю с ним." Вот это гений! И тесты никакие не нужны.
Cyber Cyber12.06.202213:24ссылка
+30.4
Ну как бы... тест Тьюринга это в буквальном смысле "узнать разумное существо, поговорив с ним".
clif08 clif0812.06.202213:25ссылка
+87.0

нейросети ИИ Игры Разработчики игр 

Китайский разработчик Rayark уволил всю команду художников в пользу ИИ

https://tryhardguides.com/chinese-developer-rayark-has-allegedly-fired-entire-art-team-in-favor-of-ai/

Коротко: китайский разработчик мобильных игр Rayark обвиняется в том, что он уволил всю свою арт-команду и попытался заменить ее нейросетями. На изображении пользователь указал на некоторые распространенные ошибки ИИ, которые есть в изображениях из игр Rayark.

4^PPC©D|^© J/ @SaltPPC - i Most who follow me do not know Korean Basically Rayark fire all their artists and replaced with ai Everything being put out is of poor quality now Last pic is former employee angry at Rayark Rayark is company behind cytus 2 and deemo Do not buy Rayark games
https://twitter.com/SaltPPC/status/1661652320604803074?ref_src=twsrc%5Etfw

Многие из указанных ошибок являются распространенными проблемами в изображениях сгенерированных ИИ, например, руки со слишком большим количеством пальцев или линий и форм, которые логически не связаны. В то время как большинство людей не смогли бы сказать на первый взгляд, художники указывают на проблемы, которые кажутся более очевидными при более внимательном изучении.

Развернуть

Отличный комментарий!

> Do not buy Rayark games
А так хотелось.
Xoxx Xoxx27.05.202314:18ссылка
+39.2
>художник работает на бездушную корпорацию
>помогает клепать обоссаную гача-парашу
>cвоими артами завлекает психически слабых людей
>Те тратят нездоровые суммы денег
Художник:
"Ну что ж поделать, надо же как-то зарабатывать"

Бездушная корпорация: *увольняет художника*
Художник: "Ниииеееет, вы хумже чем Гимтлерм! ни пакумпайте их игмры! Т.Т"
Егор А жизнь такова,какова она есть, и, больше, ни какова.
RaptorAnton RaptorAnton27.05.202314:29ссылка
+121.8
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме искусственная пизда своими руками (+1000 картинок)