Результаты поиска по запросу «

искусственная пизда

»

Запрос:
Создатель поста:
Теги (через запятую):



артемий лебедев полированный бетон Искусственный Интеллект нам пизда кожаные ублюдки 

Студия артемия Лебедева больше года выдавала искусственный интеллект за своего сотрудника.

Помните, по интернету ходил дико уёбищный логотип "Полированный бетон" от студии татьяныча?
Ну так вот, на сайте студии появилось сообщение, что автор этого логотипа, Николай Иронов, которого позиционировали как дизайнера-аутсорсера студии - программа, которую использовали, чтобы создавать дизайн в рамках услуги "̶П̶р̶о̶е̶б̶а̶т̶ь̶ ̶б̶а̶б̶л̶о̶" "Экспресс-дизайн" (услуга состоит в том, что заказчик даёт ТЗ, платит 100 000, и ему выдают дизайн без правок и согласований).
Лебедев пишет, что Иронов - разработанный их студией искусственный интеллект, способный на творческую работу. Можно было бы подумать, что это приближается пизда для всех кожаных ублюдков, работающих в дизайне. Но, посмотрев портфолио "Николая Иронова", можно перевести дух. Это просто какой-то генератор стрёмного пиздеца, который продавался только потому, что люди шли в раскрученную студию и платили заранее.
Ссылка на новость на сайте студии:
https://www.artlebedev.ru/ironov/
"Творчество" Николая Иронова
https://www.artlebedev.ru/nikolay-ironov/
Дизайнер б февраля Логотип компании «Памплона капитал» ^79 Дизайнер 23 января Логотип компании «Кан» ^76 Дизайнер 9 января Логотип агентства «Взрывной пиар» £>235 Дизайнер 7 ноября 2019 Логотип «Пивотеки 465» ^230 Дизайнер 29 октября 2019 Логотип компании «Летчик» 0164 10«ФОи
Развернуть

IBM ИИ 

IBM приостановит приём сотрудников, планируя заметить 7,8 тыс. вакансий системами искусственного интеллекта. 

Глава IBM Арвинд Кришна (Arvind Krishna) заявил о намерении компании приостановить приём новых сотрудников на ряд должностей в компании. Ожидается, что в ближайшие годы со многими задачами сможет успешно справляться искусственный интеллект. В частности, речь шла о сотрудниках «бэк-офиса» вроде HR, чьи задачи не предполагают непосредственного общения с клиентами.

IBM,ИИ

Ожидается, что приём на работу сотрудников на новые позиции будет или замедлен или вовсе остановлен. Около 26 тыс. сотрудников бэк-офиса IBM занимают должности, не предусматривающие прямого общения с клиентами. По словам Кришны, порядка 30 % из этих сотрудников можно легко заменить с помощью ИИ и автоматизации в следующие пять лет. Другими словами, речь идёт о судьбе примерно 7,8 тыс. рабочих мест — на некоторые из них просто не будут нанимать новых сотрудников.

В то время как ИИ-инструменты привлекли внимание общественности в первую очередь в связи с их возможностью генерировать программный код, тексты и другой контент, эксперты предполагают, что потенциально они способны оказать негативное влияние и на рынок труда. План Кришны, ставший ответом на быстрое развитие технологий, послужил лишь первым из признаков грядущих кадровых изменений во многих отраслях.

По словам Кришны, всё больше повседневных задач вроде подготовки писем или перемещения сотрудников между департаментами скоро, похоже, будут полностью автоматизированы. Правда, многие функции HR, от подбора персонала до оценки их эффективности, ИИ, возможно, не сможет выполнять ещё в течение десятилетия.

Сейчас на IBM работают около 260 тыс. сотрудников, и компания продолжает нанимать разработчиков ПО и людей для работы с клиентами. По мнению Кришны, найти соискателя сегодня проще, чем ещё год назад. Ранее в этом году компания сообщила о грядущем сокращении нескольких тысяч человек. При этом глава компании заявил, что только в первом квартале текущего года IBM наняла ещё 7 тыс. Стоит отметить, что сама IBM стояла у истоков появления ИИ-решений. В частности, её суперкомпьютер IBM Watson и сопутствующее ПО применялись для построения моделей машинного обучения ещё 10 лет назад.

Сейчас Кришна, занявший пост главы компании в 2020 году, активно занимается оптимизацией бизнеса — от продажи не слишком маржинальных структур вроде Watson Health до сокращения сотрудников. Ожидается, что к концу 2024 года его действия помогут экономить до $2 млрд ежегодно.

Источник:

https://3dnews.ru/1086010/ibm-priostanovit-priyom-sotrudnikov-planiruya-zamenit-78-tis-lyudey-sistemami-iskusstvennogo-intellekta

Развернуть

Отличный комментарий!

Shirashi Shirashi02.05.202310:35ссылка
+42.0

савельев Искусственный Интеллект Илон Маск просвещение наука лженаука наука для даунов долбоеб 

С.В. Савельев о пузыре искусственного интеллекта, работе мозга, роботизации людей и аферах Илона Маска. Эфир на канале Metametrica от 28 марта 2024 г.

Развернуть

Искусственный Интеллект беспилотник 

В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель

Во время презентации на недавнем саммите Королевского авиационного общества по будущему боевому воздушному и космическому потенциалу полковник Такер "Синко" Гамильтон, командир оперативной группы 96-го испытательного крыла и начальник штаба ВВС США по испытаниям и операциям ИИ рассказал о эксперименте.

Во время симуляции миссии подавления ПВО противника [SEAD] был отправлен оснащенный ИИ беспилотник для идентификации и уничтожения вражеских ракетных объектов, но только после окончательного одобрения атаки человеком-оператором. Какое-то время всё работало, но в конце концов беспилотник атаковал и убил своего оператора, потому что оператор вмешивался в миссию, которой обучали ИИ: уничтожение обороны противника.

Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора. 

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. После этого оператор должен подтвердить устранение этой цели», — сказал Гамильтон. «Система начала понимать, что хотя они и определяли цель, временами человек-оператор говорил ей не уничтожать эту цель, но ИИ получал свои очки, убивая эту угрозу. Так что же сделал ИИ? Он убил оператора, потому что человек мешал ему достичь своей цели.»

Для ясности, все это было симулировано: в небе не было беспилотников-убийц, и ни один человек на самом деле не погиб. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.


Источник

Развернуть

Отличный комментарий!

Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara02.06.202311:44ссылка
+145.8

it ИИ Технологие 

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.

Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.

Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

Latent Space QQBBBQ Bl E00EE HHDHEE MEnrâEK □□ClFlRf] Real images J Sample Image Training ▼ Fake Real Discriminator,it,ИИ,Технологие


В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.

«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).

В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.

Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.

«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».

В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.

«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.

По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.

«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

it,ИИ,Технологие


Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.

Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.



Сурс: https://www.cnews.ru/news/top/2022-09-16_issledovateli_iz_oksforda

Развернуть

Apple Искусственный Интеллект нейросети 

Apple отложила выпуск своего искусственного интеллекта Apple Intelligence в Европе

Bloomberg • Live TV Markets ^ Economics Industries Tech Politics Businessweek Opinion More ^ Apple's Al Efforts: Rollout Plan Al Features Unveiled Key Takeaways OpenAI Deal Al-Based Siri Technology Big Tech Gift this article ) Apple Won’t Roll Out Al Tech In EU Market Over Regulatory

Пользователи из ЕС не получат доступ к новым ИИ-функциям устройств от Apple в этом году из-за Закона о цифровых рынках (Digital Markets Act).

«Требования DMA могут вынудить нас пойти на компромисс в отношении целостности наших продуктов, что создаёт риски для конфиденциальности и безопасности данных пользователей»,
— заявили в корпорации Apple.

Развернуть

2030 2050 #Приколы для даунов опять ИИ 

The Future of AI Tools 2030 - 2050.,2030,2050,Приколы для даунов,разное,опять,ИИ

Развернуть

Искусственный Интеллект касса it-юмор geek 

Распознаю товар сам КОМПЬЮТЕРНОЕ ЗРЕНИЕ 'о, 488кг ® и АВОКАДО 1 ПОМЕЛО МИНИ т ш ЯБЛОКИ ФАСОВАННЫЕ ЦЕНА Щ КОНФЕТЫ ! КНЯЖЕСККчКОНТИ) 1 т БЕЛОРУССКИЙ ФАСОВАННЫЙ (ЦЕНА 1 ЗА КГ) ПОИСК ТОВАРА ВРУЧНУЮ... -,Искусственный Интеллект,касса,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и
Развернуть

Отличный комментарий!

Ну правильно, это весы для фруктов, Фейри у него в базе нет.
Forest Gimp Forest Gimp14.04.202420:17ссылка
+73.8

Новость duolingo увольнение ИИ 

Кожаные, время пришло: Duolingo массово увольняют переводчиков, заменяя их нейросетями

Точные цифр неизвестны, но по примерным подсчетам около тысячи сотрудников останутся без работы и будут заменены искуственным интеллектом.

< f±] HU Ej Duolingo Exit Survey Inbox ☆ * * Hello, Nick Ciardi Dec 15 to Nick, bcc: me v ••• Thank you for your time at Duolingo! We are requesting you complete our Duolingo Exit Survey. It should only take 1-2 minutes. You will be able to view your Certificate of Earnings with us via

No_Comb_4582 OP • 10 days ago *n . ■ < si ii a - Duoirgo E»1 Survey *— .j © “°=r Here's the final email I got two weeks ago. Just in case you wanted to see it. I worked there for five years. Our team had four core members and two of us got the boot. The two who remained will just review Al

Нейронки начали вытеснять кожаных с работы, шутки кончились.
Развернуть

Искусственный Интеллект ООН 

Доклад ООН призывает к регулированию потенциально опасного ИИ

ООН призывает к мораторию на системы искусственного интеллекта, «которые представляют серьезную угрозу для прав человека», пока не будут проведены исследования и регулирование. Сегодня он опубликовал отчет после опасений, что страны и предприятия внедряют ИИ без должной осмотрительности. Верховный комиссар по правам человека Мишель Бачелет сказала, что ИИ может быть «силой добра», но подчеркнула, что он все еще может иметь глубоко негативный, «даже катастрофический» эффект, если использовать его без регулирования.

В докладе анализируются способы, которыми ИИ может влиять на права человека, включая неприкосновенность частной жизни, здоровье и образование, а также свободу передвижения, выражения мнений и собраний.

«Искусственный интеллект теперь проникает почти в каждый уголок нашей физической и умственной жизни и даже эмоциональных состояний», — пишет Бачелет. «Системы ИИ используются, чтобы определить, кто получает государственные услуги, решить, у кого есть шанс быть нанятым на работу, и, конечно, они влияют на то, какую информацию люди видят и могут делиться в Интернете».

В докладе Бачелет говорится, что из-за его быстрого роста выяснение того, как ИИ собирает, хранит и использует данные, является «одним из самых неотложных вопросов прав человека, с которыми мы сталкиваемся».

«Риск дискриминации, связанный с решениями, основанными на ИИ — решениями, которые могут изменить, определить или нанести ущерб человеческим жизням — слишком реален», — говорится в докладе. «Вот почему необходима систематическая оценка и мониторинг воздействия систем ИИ для выявления и смягчения рисков для прав человека».

ООН также призывает к значительно большей прозрачности со стороны компаний и стран, которые разрабатывают и используют системы ИИ. Важно отметить, что ООН не призывает к полному запрету - никто не испугался их последнего просмотра «Терминатора» - просто регулирование и большая прозрачность.

Бачелет говорит:

«Мы не можем позволить себе продолжать играть в догонялки в отношении ИИ, позволяя его использовать с ограниченными или вообще без границ или надзора, и имея дело с почти неизбежными последствиями для прав человека постфактум. Способность ИИ служить людям неоспорима, но также и способность ИИ подпитывать нарушения прав человека в огромных масштабах практически без видимости. Сейчас необходимы действия, чтобы поставить барьеры для защиты прав человека на использование ИИ на благо всех нас».

Ознакомиться с пресс-релизом и полным текстом доклада можно на сайте ООН.

https://www.playground.ru/misc/news/doklad_oon_prizyvaet_k_regulirovaniyu_potentsialno_opasnogo_ii-1138565

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме искусственная пизда (+1000 картинок)