sfw
nsfw

Результаты поиска по запросу "%25D0%25B5%25D1%2581%25D0%25BB%25D0%25B8%2B%25D0%25BC%25D1%2583%25D0%25B6%25D1%2587%25D0%25B8%25D0%25BD%25D0%25B0%2B%25D0%25B4%25D0%25BE%25D0%25BB%25D0%25B3%25D0%25BE%2B%25D0%25BD%25D0%25B5%2B%25D0%25BA%25D0%25BE%25D0%25BD%25D1%2587%25D0%25B0%25D0%25B5%25D1%2582"

У Путина попросили жильё и российское гражданство для Мэрилина Мэнсона

Фанаты Мэрилина Мэнсона, обвиняемого в насилии и нападениях, попросили для него российское гражданство и жильё в Бийске Алтайского края.
 Петиция адресована президенту Путину, а также правительству Алтайского края. В петиции говорится, что в США не может быть гарантировано беспристрастное судебное разбирательство в отношении Мэнсона. Музыкант, по версии активистов, стал жертвой «культуры отмены», которая на деле «оказывается орудием притеснения творческих личностей».

В турецком Кахраманмараше спустя 55 часов спасли ребенка с попугаем в руках

,Турция,страны,землетрясение,попугай,попуг,новости
В турецком Кахраманмараше спустя 55 часов после обрушения, из-под завалов спасли 13-летнего мальчика, который все это время не выпускал из рук своего питомца – волнистого попугая.
Спасатели услышали голос мальчика на месте крушения одного из жилых домов. Спустя три часа 13-летнего Берата удалось спасти.
Во избежание переохлаждения спасатели укутали ребенка в специальное одеяло. Мальчик, увидев свою тетю Дёндю Озтюрк, попросил медицинских работников остановиться и отдал ей птичку.
Озтюрк сразу же покормила попугая крошками хлеба, дала воды. Женщина не смогла сдержать слез и благодарила Всевышнего за спасение ребенка.
P.S. Надеюсь для попуга найдут семена, ибо поедание хлеба приводит к заболеваниям внутренних органов. Меня этот случай особо тронул, вот уже 9 лет живу вместе со своими волнистыми попугами, и если бы это случилось у меня, я бы поступил так-же, если бы смог конечно.

Отличный комментарий!

А спасателей поблагодарила?
Зачем? Они просто свою работу делают, а всевышний спас ребёнка от смерти под завалом.
Если он умрет - это будет твоя вина	Иисус, отъебись!
Если он выживет - это будет чудо Божье

^ /г.
ч,Турция,страны,землетрясение,попугай,попуг,новости

За год до конца 20-летнего срока «челябинского маньяка» выяснилось, что он мог быть непричастен к убийствам

Александр Корочкин, осужденный на 20 лет за серию убийств и изнасилований в Челябинске, может быть непричастен к преступлениям. Это стало понятно, когда до конца срока его заключения осталось чуть больше года, сообщает Telegram-канал 112.
Серия нападений, о которых идет речь, были совершены в 2004 году по одной схеме: маньяк убивал водителей автомобилей и насиловал их спутниц. Тогда СМИ называли преступника «лесопарковым маньяком». Через несколько месяцев следователи сообщили о задержании «убийцы», им якобы был 32-летний сотрудник службы безопасности университета ЮУрГУ Алексей Корочкин. Основной причиной задержания стало то, что он работал в ночные смены в районе места совершения преступлений. Один из бывших оперативных сотрудников ГУВД по Челябинской области так описал процедуру опознания Корочкина потерпевшими:
«Когда Корочкина задержали, с его фотографией прошли по всему общежитию ЮУрГУ, а также показали это фото потерпевшим девушкам. Они, кстати, тогда не говорили об изнасиловании, заявили об этом позже. В приговоре указано, что перед опознанием ни одной, ни второй не демонстрировали фото, но это не так. Фотографию им показывали и говорили: это он, он маньяк, мы его поймали. На этом все расследование закончилось. Девушки на опознании, конечно же, Корочкина „узнали“. Причем сначала они говорили, что преступник был в маске, а потом поменяли показания и стали утверждать, что он был без маски, просто он сам им сказал так говорить, угрожая убийством».
На суде Корочкин вину не признал. Несмотря на то, что орудие убийств не было обнаружено, а следствие не предъявило четких улик, суд приговорил Корочкина к 20 годам колонии строгого режима. Адвокат писал жалобы о нарушениях в ходе следствия, но они остались без внимания.
В то же время, пока над Корочкиным шел суд, в Челябинске были совершены еще пять идентичных по способу и месту преступлений с использованием того же самого огнестрельного оружия.
Вот как те события описывал бывший оперативник уголовного розыска в разговоре со Znak.com:
«Корочкина уже судили, все получали за него награды, но начались убийства. Первому, апрельскому, не придали значения, так как мужчина там выжил, а вот августовские насторожили, особенно когда в карьере в районе парка затонула машина. Девушка выжила, а парень, ее муж, погиб. А потом оружие, которое было во втором убийстве Корочкина (28 июля 2004 года) и при покушении на убийство в апреле 2005 года, вдруг по базе уголовного розыска „стрельнуло“ в Башкирии. Схожесть — по пулям, одна из которых была извлечена из головы мужчины, убитого 28 апреля 2004 года, вторая — из шеи выжившего в апреле 2005 года и третья — где-то в Уфе уже осенью 2005 года. Человек из органов пошел к судье в областной суд, просил откатить все назад, мол, взяли и судим явно не того, но судья сказал, что уже поздно. Но один эпизод не бьется, поэтому пожизненного не будет. В итоге дали Корочкину 20 лет».Как пишет «112», год назад в Челябинске умер пожилой охотник, в его вещах полицейские нашли пистолет. Оружие проверили по базам, почле чего выяснилось, что все нападения «лесопаркового маньяка» были совершены с использованием именно этого оружия. Сейчас новые факты изучают следователи.

Отличный комментарий!

Это одна из причин, почему вводят мораторий на смертную казнь. Судьи иногда слишком тупые, чтобы откатить своё же решение.

А ещё 4 миллиона американцев, 12 миллионов поляков, 69 миллионов ЛГБТ-активистов, 1488 миллионов нацистов, полтриллиарда инопланетян. Больше цифр с воздуха богу цифр с воздуха.

пруф

Отличный комментарий!

Штука в том, что если из этой фразы убрать часть про военнослужащих, то это будет не так далеко от истины. Как беженцев, так и принудительно вывезенных украинцев в России действительно очень много, и меня совсем уже не удивит, если эти людоеды начнут шантажировать ими Киев, типа, мало ли что может случиться.

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

,it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.
Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.
Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.
«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).
В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.
Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.
«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».
В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.
«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.
По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.
«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.
Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме %25D0%25B5%25D1%2581%25D0%25BB%25D0%25B8%2B%25D0%25BC%25D1%2583%25D0%25B6%25D1%2587%25D0%25B8%25D0%25BD%25D0%25B0%2B%25D0%25B4%25D0%25BE%25D0%25BB%25D0%25B3%25D0%25BE%2B%25D0%25BD%25D0%25B5%2B%25D0%25BA%25D0%25BE%25D0%25BD%25D1%2587%25D0%25B0%25D0%25B5%25D1%2582 (+1000 постов - %25D0%25B5%25D1%2581%25D0%25BB%25D0%25B8%2B%25D0%25BC%25D1%2583%25D0%25B6%25D1%2587%25D0%25B8%25D0%25BD%25D0%25B0%2B%25D0%25B4%25D0%25BE%25D0%25BB%25D0%25B3%25D0%25BE%2B%25D0%25BD%25D0%25B5%2B%25D0%25BA%25D0%25BE%25D0%25BD%25D1%2587%25D0%25B0%25D0%25B5%25D1%2582)