Living With HipsterGirl and GamerGirl JaGo Комиксы ЧМ 2022 Аватар фэндомы Катар 

А ТЕПЕРЬ оставим е СТОРОНЕ все противоречивые теории НАСЧЁТ ЭТОГО ЧЕМПИОНАТА МИРА, И ЗАКОНЧИМ НА ПРИЯТНОЙ НОТЕ.. ДОЛЖНА СКАЗАТЬ, ДИЗАЙН ВАШЕГО МАСКОТА АОеОЛЬНО МИЛЫЙ...,Living With HipsterGirl and GamerGirl,JaGo,Смешные комиксы,веб-комиксы с юмором и их переводы,ЧМ 2022,Аватар,Легенды об

Подробнее тут
https://joyreactor.cc/post/5395696

Развернуть

magmallow Overwatch Ero Overwatch Blizzard фэндомы D.Va 

Развернуть

little_emo_kitten Эротика сиськи 

little_emo_kitten,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,сиськи,сисечки, сисяндры, сиське, сиски, tits

little_emo_kitten,Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,сиськи,сисечки, сисяндры, сиське, сиски, tits

Развернуть

Эротика сиськи рыжая домашняя эротика little_emo_kitten 

Эротика,красивые фото обнаженных, совсем голых девушек, арт-ню,сиськи,сисечки, сисяндры, сиське, сиски, tits,рыжая,домашняя эротика,little_emo_kitten

Развернуть

Голубь птицы киберпанк технологии 

Учёные оснастили голубя мозговым имплантом с питанием от солнечной батареи — это добавило птице дистанционное управление

Голубь,птицы,киберпанк,технологии

Управление живыми организмами с помощью раздражения тех или иных центров в головном мозге — это предложение не сегодняшнего дня. Миниатюризация электроники и продвижение в нейронауках позволяют делать это всё лучше и лучше, хотя вопрос питания продолжает оставаться слабым местом. В частности, в экспериментах китайских учёных из колледжа электротехники и автоматизации Шаньдунского университета науки и технологии вооружённые мозговыми имплантатами голуби могли летать под контролем людей до 45 мин. На большее прикреплённой к птице литиевой батарейки просто не хватало до тех пор, пока на её спину не установили небольшую солнечную панель.

С солнечным элементом размерами с половину экрана смартфона голубь управлялся в воздухе до двух часов. Птица поддавалась контролю — её можно было разворачивать в нужную сторону — с вероятностью 80–90 %. Добиться 100-процентного выполнения команд мешали различные сильные раздражающие факторы в окружающей среде, что, в общем-то, неудивительно. Управление разворотом обычно осуществляется с использованием болевых ощущений, что не всегда позволяет преодолеть инстинкты.

Увеличить длительность управляемого полёта позволили хитрые алгоритмы управления питанием. Алгоритм рассчитывал прогнозируемое потребление «мозгового» контроллера и оценивал запас энергии в батарее. Если разряд приближался к критически низкому значению, птице автоматически отдавались команды направляться в сторону лучшего освещения элемента солнцем. Таким образом, даже в пасмурный день время автономного полёта увеличивалось на 40 %.

В целом система показала способность управлять полётом птицы до двух раз дольше, чем хорошим коммерческим дроном. Подобное может пригодиться во время спасательных операций и в военных миссиях. С точки зрения обычного человека всё это выглядит негуманно, но человеческие жизни это может спасти. Главное не увлекаться и не проецировать эти технологии для использования на людях. Впрочем, верить в такое было бы наивно.

Развернуть

Отличный комментарий!

Охуеть. Боевые голуби.
Asuka Langley Asuka Langley28.10.202216:44ссылка
+47.3

Epic NPC Man viva la dirt league без перевода видео 

How Speed Runners look to NPC's

Развернуть

Cyberpunk 2077 Игры Rebecca (Edgerunners) Cyberpunk Edgerunners Игровой арт 

Отсылочка, подробности в этой статье https://joyreactor.cc/post/5330958

Cyberpunk 2077,Игры,Rebecca (Edgerunners),Edgerunners,Игровой арт,game art,Cyberpunk Edgerunners

Развернуть

Rebecca (Edgerunners) Adam Smasher Cyberpunk Edgerunners Cyberpunk 2077 Игры СПОЙЛЕР 

Rebecca (Edgerunners),Adam Smasher,Edgerunners,Cyberpunk 2077,Игры,СПОЙЛЕР,Cyberpunk Edgerunners

Развернуть

nerfnow Комиксы dota2 фэндомы International (Dota) Dota Pro 

NERFNOW.COM I ВЕТ 1Т WILU ВЕ 6000 С ДРУГОЙ СТОРОНЫ, ПУСКАЙ ЛУЧШЕ ДОТА ОСТАНЕТСЯ КАК НЕЗАПЯТНАННОЕ И ПРИЯТНОЕ ВОСПОМИНАНИЕ,nerfnow,Смешные комиксы,веб-комиксы с юмором и их переводы,dota2,фэндомы,International (Dota),Dota Pro,Pro Dota

От автора: Я думаю, что азартные игры — это теневой бизнес, и даже если вы игнорируете этические последствия того, что зависимые люди проигрывают свою жизнь и деньги, а так же отмывание грязных денег. Существует еще один очень побочный эффект и это договорные матчи в киберспорте, потому что кто-то вложил слишком много деньги на одну из команд в заведомо предрешенном матче.

А мне не дадут ли мне спонсорскую поддержку bet.com?

От переводчика: Пояснение, Valve впервые выставила на продажу права на трансляцию матчей и их купили букмекерские конторы.

https://www.nerfnow.com/comic/3099

Развернуть

it ИИ Технологие 

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.

Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.

Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

Latent
Space
QQBBBQ Bl E00EE HHDHEE MEnrâEK □□ClFlRf]
Real images
J
Sample Image
Training
▼
Fake
Real
Discriminator,it,ИИ,Технологие


В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.

«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).

В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.

Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.

«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».

В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.

«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.

По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.

«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

it,ИИ,Технологие


Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.

Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.



Сурс: https://www.cnews.ru/news/top/2022-09-16_issledovateli_iz_oksforda

Развернуть