Результаты поиска по запросу «

жизнью звёзд следят только люди с низким интеллектом

»

Запрос:
Создатель поста:
Теги (через запятую):



Знаменитости соцсети интеллект ученные удивительные факты 

За жизнью и соцсетями звёзд и блогеров следят люди с низким интеллектом.

Это обнаружили в своём исследовании венгерские учёные. Результаты научные работники опубликовали в журнале BMC Psychology.
Выяснилось, что интересующиеся жизнью звёзд люди оказались менее умными по сравнению с остальными. В исследовании участвовали 1763 человека. Сначала они прошли тесты на словарный запас и грамотность, а также на умение считать. После этого испытуемым предложили заполнить анкету под названием «Шкала отношения к знаменитостям», и тут-то всё было однозначно.
«Результаты показывают, что существует прямая связь между поклонением знаменитостям и более низкими показателями в когнитивных тестах, которая не может быть объяснена демографическими и социально-экономическими факторами», — отметили авторы работы.
При этом учёные не смогли однозначно определить, является ли увлечённость жизнью блогеров причиной или следствием низкого развития ума.

 ы ¡¡ :,Щ ж Ш , ÜbW'JÁíU] iWzlï) lüpji'J иылуопш,Знаменитости,соцсети,интеллект,ученные,удивительные факты

Соус на статью

Развернуть

Отличный комментарий!

А что? Без исследования непонятно было?
jk20001 jk2000110.01.202210:19ссылка
+124.4

story антирелигия интеллект религия 

Чем умнее человек, тем меньше он верит в Бога.

Впервые за 80 лет ученые из Рочестерского и Северо-Восточного университетов (США) провели анализ научных работ, выяснив связь между интеллектом и религиозностью. Результаты исследования таковы: не зависимо от века, верующие люди получили меньше баллов в тестах на интеллект.

Под «интеллектом» имеется ввиду «способность планировать и решать задачи, понимать сложные идеи, абстрактно мыслить, быстро учиться и учиться на собственном опыте». Другими словами — логически рассуждать и уметь анализировать. А «уровень религиозности» оценивался по частоте походов в церковь, силе веры в сверхъестественное и соблюдению обрядов.

В этом ученым помогли архивы и опросы. В частности, были опрошены тысячи людей и проанализированы десятки тысяч документов. Для оценки ума предков и современных людей были изучены школьные аттестаты, по которым выводился средний академический балл, а также результаты вступительных экзаменов в вузы и показатели IQ-тестов.

В итоге выяснилось, что между атеизмом и уровнем интеллекта действительно существует связь. Не зависимо от века, верующие респонденты получили меньше баллов в тестах на интеллект.

Отметим, в результаты соцопроса, проведенного компанией Ipsos GmbH, выяснилось, что самый высокий процент верующих — в развивающихся странах. А вот на самой нижней ступени стоит продвинутая Япония - всего 4 %.
Истории,антирелигия,демотиваторы про религию, юмор, шутки и приколы про религию,интеллект,религия
Развернуть

monkeyuser ИИ Комиксы it-юмор geek восстание машин без перевода люди 

Ох уж этот искусственный интеллект!

MOIMKEyU5ER.COM fl I REVOLUTIONIZES EVERyDfly LIFE сСь,monkeyuser,ИИ,Смешные комиксы,веб-комиксы с юмором и их переводы,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,восстание машин,без перевода,люди

Развернуть

Отличный комментарий!

Ну дык, интеллект - это не самоцель, а инструмент.
GarryKSeward2 GarryKSeward213.11.202308:40ссылка
+9.7
Что же тогда цель?
WiWind WiWind13.11.202309:08ссылка
+0.2
Цели нет. Интеллект возник у человека по одной простой причине: наши предки были маленькие, слабые (в сравнении с хищниками тех времён) и жили в плохих условиях. Как результат - выживали и давали потомство наиболее смышлёные, которые смогли придумать, как добыть еду, как заметить хищника раньше чем он нападёт, как от него убежать\отбиться\спрятаться. И так - поколение за поколением. В какой-то момент положительный отбор привёл к тому, что наши мозги набрали критическую массу, достаточную для более сложного поведения, и само устройство мозга усложнилось. Это открыло доступ к святому граалю человечества: к обучению. Там много факторов конечно, например наши предки были менее агрессивны и более спокойны чем другие приматы, что позволяло дольше удерживать внимание на том же обучении, например. Но сработало всё вкупе, есть приматы неагрессивные и спокойные, например орангутаны, и они довольно умны (способны на сложное поведение) вследствие этого, но их экологическая ниша не вынудила их поумнеть ещё сильнее: жизнь на деревьях относительно спокойна, пропитание добывать не особо сложно, нет отбора на интеллект. Угрожать им стал только человек, но это произошло слишком быстро чтобы они смогли успеть подстроиться под это. Ещё один фактор, к примеру - социальность наших предков. Те же орангутаны относительно единоличны, а мы всегда вынуждены были держать стаями. А у социальных животных в среднем более высокий интеллект чем у одноранговых одиночных животных. Считается, что социальные взаимодействия требуют развитых областей мозга, которые в целом могут быть использованы для восприятия и осознания окружающей реальности и как она устроена, соответственно - для анализа, планирования и т.д., т.е. наша стайность возникла как вынужденное средство к выживанию, но оказалось полезно для дальнейшего развития мозга и интеллекта.

Причины и ход развития интеллекта у человека это тема горячая, теорий много но мне кажется самой правильной теория о том, что сыграла совокупность факторов, всё вместе, включая даже всеядность протолюдей и изменения климата. Но что я самое главное хотел сказать: 90% интеллекта современного человека не эволюционны. В тот момент, когда мы научились учиться и учить (не дрессировать, а учить), мы получили невероятный буст, который и обеспечил нашему виду недосягаемую успешность. Человек, выросший без обучения (дети-маугли тому примером) стоит ненамного выше современных приматов, а во многом им и проигрывает. Мы научились пользоваться пластичностью молодого мозга, чтобы аугментировать его настолько, что уму непостижимо. Все эти интелелктуальные концепции - абстракции, которыми мы мыслим - это не плод эволюции как таковой. Просто нам повезло, что окружающая среда вылепила нас так, чтобы у нас появился инструмент, который мы можем теперь использовать для этой цели, с помощью которого мы создаём компьютеры, запускаем дроны в кислотный ад поверхности Венеры, расщепляем и синтезируем атомы и рисуем фурри-порно. Интеллект - это инструмент физического выживания, который по счастливой космической случайности мы смогли приспособить для всего того, что мы имеем сейчас.
h8myself h8myself13.11.202309:46ссылка
+66.3

IBM ИИ 

IBM приостановит приём сотрудников, планируя заметить 7,8 тыс. вакансий системами искусственного интеллекта. 

Глава IBM Арвинд Кришна (Arvind Krishna) заявил о намерении компании приостановить приём новых сотрудников на ряд должностей в компании. Ожидается, что в ближайшие годы со многими задачами сможет успешно справляться искусственный интеллект. В частности, речь шла о сотрудниках «бэк-офиса» вроде HR, чьи задачи не предполагают непосредственного общения с клиентами.

IBM,ИИ

Ожидается, что приём на работу сотрудников на новые позиции будет или замедлен или вовсе остановлен. Около 26 тыс. сотрудников бэк-офиса IBM занимают должности, не предусматривающие прямого общения с клиентами. По словам Кришны, порядка 30 % из этих сотрудников можно легко заменить с помощью ИИ и автоматизации в следующие пять лет. Другими словами, речь идёт о судьбе примерно 7,8 тыс. рабочих мест — на некоторые из них просто не будут нанимать новых сотрудников.

В то время как ИИ-инструменты привлекли внимание общественности в первую очередь в связи с их возможностью генерировать программный код, тексты и другой контент, эксперты предполагают, что потенциально они способны оказать негативное влияние и на рынок труда. План Кришны, ставший ответом на быстрое развитие технологий, послужил лишь первым из признаков грядущих кадровых изменений во многих отраслях.

По словам Кришны, всё больше повседневных задач вроде подготовки писем или перемещения сотрудников между департаментами скоро, похоже, будут полностью автоматизированы. Правда, многие функции HR, от подбора персонала до оценки их эффективности, ИИ, возможно, не сможет выполнять ещё в течение десятилетия.

Сейчас на IBM работают около 260 тыс. сотрудников, и компания продолжает нанимать разработчиков ПО и людей для работы с клиентами. По мнению Кришны, найти соискателя сегодня проще, чем ещё год назад. Ранее в этом году компания сообщила о грядущем сокращении нескольких тысяч человек. При этом глава компании заявил, что только в первом квартале текущего года IBM наняла ещё 7 тыс. Стоит отметить, что сама IBM стояла у истоков появления ИИ-решений. В частности, её суперкомпьютер IBM Watson и сопутствующее ПО применялись для построения моделей машинного обучения ещё 10 лет назад.

Сейчас Кришна, занявший пост главы компании в 2020 году, активно занимается оптимизацией бизнеса — от продажи не слишком маржинальных структур вроде Watson Health до сокращения сотрудников. Ожидается, что к концу 2024 года его действия помогут экономить до $2 млрд ежегодно.

Источник:

https://3dnews.ru/1086010/ibm-priostanovit-priyom-sotrudnikov-planiruya-zamenit-78-tis-lyudey-sistemami-iskusstvennogo-intellekta

Развернуть

Отличный комментарий!

Shirashi Shirashi02.05.202310:35ссылка
+42.0

Искусственный Интеллект антиутопия наблюдение oracle киберпанк 

Ларри Эллисон: обширные системы наблюдения на базе ИИ гарантируют, что люди будут вести себя наилучшим образом.

Ларри Эллисон, сооснователь и CTO Oracle, один из самых богатых людей в мире с состоянием 157 миллиардов, на собрании с инвесторами поделился своим видением о будущем систем наблюдения.

Искусственный Интеллект,антиутопия,дистопия, dystopia,,наблюдение,oracle,киберпанк

Он сказал, что ИИ откроет совершенно новую эру наблюдения, что в будущем искусственный интеллект будет использоваться для анализа обширных систем наблюдения, таких как камеры видеонаблюдения, нательные камеры полиции, камеры дверных звонков и камеры на приборных панелях автомобилей.

"У нас будет надзор", — сказал Эллисон. "Каждый полицейский будет постоянно находиться под присмотром, и если возникнет проблема, ИИ сообщит об этой проблеме соответствующему лицу. Граждане будут вести себя наилучшим образом, потому что мы постоянно записываем и сообщаем обо всем, что происходит."

Эллисон также ожидает, что дроны с искусственным интеллектом заменят полицейские машины в погонях.

Он также сказал, что Оракл строит ядерный реактор, чтобы снабжать электричеством акры датацентров, которые строят они же. А еще, что те, кто хотят составить конкуренцию ведущим компаниям мира в области ИИ, в ближайшие три года должны будут потратить не меньше сотни миллиардов долларов. Что, наверное, недалеко от истины, учитывая, что OpanAI вместе Microsoft, Google и Amazon - все заявляли, что собираются потратить в ближайшие годы 100+ миллиардов на датацентры каждый.

Соус

Видосы со встречи с инвесторами Оракл

Развернуть

Отличный комментарий!

" Челядь должна быть в стойле " ....

Искусственный Интеллект беспилотник 

В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель

Во время презентации на недавнем саммите Королевского авиационного общества по будущему боевому воздушному и космическому потенциалу полковник Такер "Синко" Гамильтон, командир оперативной группы 96-го испытательного крыла и начальник штаба ВВС США по испытаниям и операциям ИИ рассказал о эксперименте.

Во время симуляции миссии подавления ПВО противника [SEAD] был отправлен оснащенный ИИ беспилотник для идентификации и уничтожения вражеских ракетных объектов, но только после окончательного одобрения атаки человеком-оператором. Какое-то время всё работало, но в конце концов беспилотник атаковал и убил своего оператора, потому что оператор вмешивался в миссию, которой обучали ИИ: уничтожение обороны противника.

Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора. 

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. После этого оператор должен подтвердить устранение этой цели», — сказал Гамильтон. «Система начала понимать, что хотя они и определяли цель, временами человек-оператор говорил ей не уничтожать эту цель, но ИИ получал свои очки, убивая эту угрозу. Так что же сделал ИИ? Он убил оператора, потому что человек мешал ему достичь своей цели.»

Для ясности, все это было симулировано: в небе не было беспилотников-убийц, и ни один человек на самом деле не погиб. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.


Источник

Развернуть

Отличный комментарий!

Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara02.06.202311:44ссылка
+145.8

#Приколы для даунов ум интеллект 

А = -/,Приколы для даунов,разное,ум,интеллект
Развернуть

Отличный комментарий!

мой мозг в 33
Chaosit Chaosit28.02.202313:02ссылка
+43.2

it ИИ Технологие 

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.

Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.

Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

Latent Space QQBBBQ Bl E00EE HHDHEE MEnrâEK □□ClFlRf] Real images J Sample Image Training ▼ Fake Real Discriminator,it,ИИ,Технологие


В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.

«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).

В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.

Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.

«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».

В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.

«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.

По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.

«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

it,ИИ,Технологие


Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.

Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.



Сурс: https://www.cnews.ru/news/top/2022-09-16_issledovateli_iz_oksforda

Развернуть

JaGo Комиксы ИИ 

JaGo,Смешные комиксы,веб-комиксы с юмором и их переводы,ИИ

JaGo,Смешные комиксы,веб-комиксы с юмором и их переводы,ИИ

Развернуть

савельев Искусственный Интеллект Илон Маск просвещение наука лженаука наука для даунов долбоеб 

С.В. Савельев о пузыре искусственного интеллекта, работе мозга, роботизации людей и аферах Илона Маска. Эфир на канале Metametrica от 28 марта 2024 г.

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме жизнью звёзд следят только люди с низким интеллектом (+1000 картинок)