sfw
nsfw

Результаты поиска по запросу "люди боящиеся ии"

Не пришедшим по повестке закроют выезд из страны и запретят брать кредиты

Не пришедшим по повестке закроют выезд из страны и запретят брать кредиты
Об этом заявил глава комитета Госдумы по обороне Картаполов. По его словам, если гражданин не явится по врученной ему повестке в течение двух недель с начала следующего призыва, против него начнут вводить ограничительные меры.
Сначала военнообязанному запретят выезд из страны.
 Если и после этого он не явятся, ему запретят управлять машиной, совершать сделки с недвижимостью, оформлять кредиты и статус ИП.
 Картаполов также подчеркнул, что «электронные повестки», во взглядах на которые российские чиновники раньше разошлись, будут иметь тот же статус, что и бумажные.
 Все эти поправки Госдума планирует рассмотреть уже завтра.

Отличный комментарий!

Ну, ребят, было больше года чтоб валить. Не имеющим возможности - соболезную. Добровольно идущим на войну - земля стекловатожелезобетоном
,ПК,унитаз,Баян,баян, боян, баяны, бояны, баянище, боянище

Отличный комментарий!

А я на следующие винды уже не пересяду. Придется обмазываться линупсами впервые в жизни. Тем более почти все современные игры поддерживают стимдек, стимос и протон. Да и АААА-игр очень мало.

Главное достоинство винды - самопоиск драйверов. Если её поставить на ноутбук или мини-пк, она сама из своей базы найдет все драйвера. А другие ОС фиг так сделают. Гугли вручную какое железо у тебя стоит и где дрова к ним надыбать. Всякие там софтины для автоматического поиска драйверов плохо это делают.
Линукс не совсем подходит юзверям, для работы с ним нужен какой, не какой скил и чёткое понимание зачем ты его запускаешь.

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

,it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.
Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.
Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.
«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).
В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.
Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.
«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».
В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.
«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.
По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.
«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.
Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.

Реактивный истребитель пробыл в полете 17 часов под управлением ИИ без помощи пилота.

DARPA сообщает о разработке алгоритма ИИ для управления реактивным истребителем F-16 менее трех лет после создания специальной версии истребителя.
Полет выполнялся на VISTA X-62A производства Lockheed Martin, который, как следует из пресс-релиза Lockheed Martin, является модифицированным F-16D Block 30 Peace Marble Il с обновленной авионикой Block 40.
DARPA создала автономный реактивный самолет в рамках программы Air Combat Evolution(ACE), но при этом утверждает что самолеты не предполагается отправлять в полет без пилотов. AI F-16 тестировался The Air Force Test Pilot School на авиабазе Эдвардс в Калифорнии в течении нескольких дней и по их выводам ИИ можно доверять выполнение самостоятельных полетов, но пилот находился на борту на случай возникновения проблем.
"Благодаря командной работе DARPA,  Air Force Test Pilot School, Air Force Research Laboratory и нашим исполнителям мы достигли высокого прогресса второй фазы во всех областях программы ACE" заявил в пресс-релизе лейтенант-полковник Райан "Хэл" Хефрон, программный менеджер ACE в DARPA.
"VISTA [Variable In-flight Simulator Test Aircraft] позволил нам срезать углы в программе пропустив запланированную фазу работы над моделью и перейти сразу к полноразмерному внедрению, сэкономив год или больше и предоставляя обратную связь во время реального полета"
Во время тестовой фазы F-16 взлетал и садился в различных условиях, при присутствии противников и использовал симулированное вооружение, но никаких осложнений не возникло. В ACE также задействована Test Pilot School, которая провела дополнительное обучение и информацию для уменьшения уровня дискомфорта пилотов летающих с ИИ.
Дополнительные тесты включают в себя определение насколько доверяют пилоты истребителю в боях на коротких дистанциях, в то время как пилот должен одновременно фокусироваться на "более крупных задачах боя"
Автономный истребитель F-16 всего лишь один из более чем 600 проектов с использованием ИИ минобороны США и финансируется правительством США с 2018 года, которое утвердило пятилетний бюджет в размере 2 млрд долларов. Однако уже в 2022 году правительство потратило 2 млрд долларов на исследования ИИ и разработки строительных роботов и носимого оборудования.
Stacie Pettyjohn, директор оборонительной программы в центре New American Security сказала в интервью что AI F-16 "распределит наши силы" в рамках концепции которую DARPA называет "mosaic warfare". Это улучшение позволит уменьшить потери т.к. понадобится меньше людей для управления самолетами.
"Эти значительно меньшие по размеру автономные летательные аппараты могут быть скомбинированы самым неожиданным образом для запутывания противника. Потеря любого из них не окажет значительного влияния на выполнение задания"

Отличный комментарий!

Чё пиздите, вот я же вижу там 2 чувака сидят.

Оригинал

Оригинал с модами на текстуры (ALOT + MEUITM)

Ремастер

Отличный комментарий!

В России, очень много людей воспитано однополыми парами.
Мамой,однополые семьи,Баян,баян, боян, баяны, бояны, баянище, боянище,повтор

Отличный комментарий!

Правильно ли я понимаю, что твои мама с бабушкой очень близки?
Как минимум одна побывала в другой
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме люди боящиеся ии (+1000 постов - люди боящиеся ии)