Результаты поиска по запросу «

Искусственный помощник

»

Запрос:
Создатель поста:
Теги (через запятую):



AI Искусственный Интеллект картинки 

PRICE /8.99,AI,Искусственный Интеллект,картинки

Развернуть

Отличный комментарий!

без нормального тз получаешь ты хз
kobazoid kobazoid20.11.202320:04ссылка
+33.1

политика песочница политоты Искусственный Интеллект Путин Владимир Владимирович Ёбаный стыд 

ухбля! щяс как внедрим!

Путин выступает на конференции по искусственному интеллекту. Говорит, что значение прорывов в этой сфере колоссальное и от успеха России на этом направлении зависит ее место в мире и суверенитет. По словам президента, по определенным направлениям Россия ушла в сфере искусственного интеллекта вперед и надо обязательно наращивать эти усилия.
На предстоящие 10 лет надо обеспечить массовое внедрение искусственного интеллекта во все сферы.

Путин попросил Собянина и Воробьева использовать площадку Госсовета для внедрения их опыта использования искусственного интеллекта в другие регионы

Путин предложил больше использовать искусственный интеллект вместо людей на местах с вредными условиями

Путин призвал менять требования и регламенты, препятствующие внедрению искусственного интеллекта (по материалам РИА новости)

для сравнения - а что "у них" ещё и ещё

на иллюстрации совокупная вычислительная мощность каждой из стран в петафлопс, она соответствует площади прямоугольников, в свою очередь разделенных на более мелкие прямоугольники, соответствующих вычислительной мощности отдельных высокопроизводительных систем. Россия в правом верхнем углу обведена красным.

зы вот ссылка на ту самую международную конференцию. можно обратить внимание на присутствие единственного иностранного спикера Пушпак Бхаттачария (тот самый знаменитый индусский код?) с выступлением на тему "NLP и общество: взгляд на анализ чувств, эмоций и мониторинг психического здоровья"

[+] United States
IBM Power System

IBM Power Sys Apollo NVI
■■ESI
iS
SGI Cra
NVIDIA Cray
Tu SGI

HPd HP
NVIDIA DGX Al Dell C NDv4 с HPE Cray EX23 ND96arH HPE
H
Powe____ NVID	Po NDv4 c ---------—--------- Cray X NDv4 c
1	I—I	HPE C Cra —

IBM II Cr

[+]Japan
Supercomputer Fugaku,
Развернуть

Искусственный Интеллект беспилотник 

В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель

Во время презентации на недавнем саммите Королевского авиационного общества по будущему боевому воздушному и космическому потенциалу полковник Такер "Синко" Гамильтон, командир оперативной группы 96-го испытательного крыла и начальник штаба ВВС США по испытаниям и операциям ИИ рассказал о эксперименте.

Во время симуляции миссии подавления ПВО противника [SEAD] был отправлен оснащенный ИИ беспилотник для идентификации и уничтожения вражеских ракетных объектов, но только после окончательного одобрения атаки человеком-оператором. Какое-то время всё работало, но в конце концов беспилотник атаковал и убил своего оператора, потому что оператор вмешивался в миссию, которой обучали ИИ: уничтожение обороны противника.

Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора. 

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. После этого оператор должен подтвердить устранение этой цели», — сказал Гамильтон. «Система начала понимать, что хотя они и определяли цель, временами человек-оператор говорил ей не уничтожать эту цель, но ИИ получал свои очки, убивая эту угрозу. Так что же сделал ИИ? Он убил оператора, потому что человек мешал ему достичь своей цели.»

Для ясности, все это было симулировано: в небе не было беспилотников-убийц, и ни один человек на самом деле не погиб. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.


Источник

Развернуть

Отличный комментарий!

Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara02.06.202311:44ссылка
+145.8

it ИИ Технологие 

Исследователи из Оксфорда и Google DeepMind: Скорее всего, ИИ уничтожит человечество

it,ИИ,Технологие

     Всё ради награды

Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.

Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.

Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.

Latent Space QQBBBQ Bl E00EE HHDHEE MEnrâEK □□ClFlRf] Real images J Sample Image Training ▼ Fake Real Discriminator,it,ИИ,Технологие


В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.

«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).

В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.

Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.

«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».

В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.

«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

     Проблемы с ИИ уже проявляются

Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.

По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.

«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясовтехнический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».

it,ИИ,Технологие


Интересно, что Google вскоре после выхода работы, опубликовал заявление, в котором говорится, что соавтор исследования Маркус Хаттер (Marcus Hutter) участвовал в его создании не в качестве сотрудника лаборатории DeepMind, а исключительно как работник Национального университета Австралии, и что в лаборатории работает множество учёных с самыми разными частными мнениями насчёт ИИ.

Что касается содержания самой работы, то о нём в заявлении Google ничего не говорится: указывается лишь, что сотрудники DeepMind со всей серьёзностью относятся к вопросам безопасности, этического использования ИИ и социальных последствий его применения.



Сурс: https://www.cnews.ru/news/top/2022-09-16_issledovateli_iz_oksforda

Развернуть

Тинькофф Олег голосовой помощник пососите потом просите песочница 

За первый день работы помощник «Олег» от «Тинькофф банка» научился ругаться

Голосовой помощник «Олег» от «Тинькофф банка» научился грубым выражениям, заметили пользователи сервиса.

В «Тинькофф банке» объяснили, что бот учится на открытых данных и уверяют что это не официальная позиция компании.

■II Tinkoff ^ 15:26 56 % ИЗ» Закрыть Чат умею, и и расскажу подробнее. Если что-то пойдет не так, скажите: «Хватит» или «Позови человека». 15:24 Одолжи сотку. >^15:25 Вам ответит Олег. Олег 15:26 Позвать человека %>,Тинькофф,Олег,голосовой помощник,пососите потом просите,песочница
Развернуть

Искусственный Интеллект ООН 

Доклад ООН призывает к регулированию потенциально опасного ИИ

ООН призывает к мораторию на системы искусственного интеллекта, «которые представляют серьезную угрозу для прав человека», пока не будут проведены исследования и регулирование. Сегодня он опубликовал отчет после опасений, что страны и предприятия внедряют ИИ без должной осмотрительности. Верховный комиссар по правам человека Мишель Бачелет сказала, что ИИ может быть «силой добра», но подчеркнула, что он все еще может иметь глубоко негативный, «даже катастрофический» эффект, если использовать его без регулирования.

В докладе анализируются способы, которыми ИИ может влиять на права человека, включая неприкосновенность частной жизни, здоровье и образование, а также свободу передвижения, выражения мнений и собраний.

«Искусственный интеллект теперь проникает почти в каждый уголок нашей физической и умственной жизни и даже эмоциональных состояний», — пишет Бачелет. «Системы ИИ используются, чтобы определить, кто получает государственные услуги, решить, у кого есть шанс быть нанятым на работу, и, конечно, они влияют на то, какую информацию люди видят и могут делиться в Интернете».

В докладе Бачелет говорится, что из-за его быстрого роста выяснение того, как ИИ собирает, хранит и использует данные, является «одним из самых неотложных вопросов прав человека, с которыми мы сталкиваемся».

«Риск дискриминации, связанный с решениями, основанными на ИИ — решениями, которые могут изменить, определить или нанести ущерб человеческим жизням — слишком реален», — говорится в докладе. «Вот почему необходима систематическая оценка и мониторинг воздействия систем ИИ для выявления и смягчения рисков для прав человека».

ООН также призывает к значительно большей прозрачности со стороны компаний и стран, которые разрабатывают и используют системы ИИ. Важно отметить, что ООН не призывает к полному запрету - никто не испугался их последнего просмотра «Терминатора» - просто регулирование и большая прозрачность.

Бачелет говорит:

«Мы не можем позволить себе продолжать играть в догонялки в отношении ИИ, позволяя его использовать с ограниченными или вообще без границ или надзора, и имея дело с почти неизбежными последствиями для прав человека постфактум. Способность ИИ служить людям неоспорима, но также и способность ИИ подпитывать нарушения прав человека в огромных масштабах практически без видимости. Сейчас необходимы действия, чтобы поставить барьеры для защиты прав человека на использование ИИ на благо всех нас».

Ознакомиться с пресс-релизом и полным текстом доклада можно на сайте ООН.

https://www.playground.ru/misc/news/doklad_oon_prizyvaet_k_regulirovaniyu_potentsialno_opasnogo_ii-1138565

Развернуть

darpa F-16 самолет Искусственный Интеллект 

Реактивный истребитель пробыл в полете 17 часов под управлением ИИ без помощи пилота.

darpa,F-16,самолет,Искусственный Интеллект

DARPA сообщает о разработке алгоритма ИИ для управления реактивным истребителем F-16 менее трех лет после создания специальной версии истребителя.

Полет выполнялся на VISTA X-62A производства Lockheed Martin, который, как следует из пресс-релиза Lockheed Martin, является модифицированным F-16D Block 30 Peace Marble Il с обновленной авионикой Block 40.

DARPA создала автономный реактивный самолет в рамках программы Air Combat Evolution(ACE), но при этом утверждает что самолеты не предполагается отправлять в полет без пилотов. AI F-16 тестировался The Air Force Test Pilot School на авиабазе Эдвардс в Калифорнии в течении нескольких дней и по их выводам ИИ можно доверять выполнение самостоятельных полетов, но пилот находился на борту на случай возникновения проблем.

"Благодаря командной работе DARPA,  Air Force Test Pilot School, Air Force Research Laboratory и нашим исполнителям мы достигли высокого прогресса второй фазы во всех областях программы ACE" заявил в пресс-релизе лейтенант-полковник Райан "Хэл" Хефрон, программный менеджер ACE в DARPA.

"VISTA [Variable In-flight Simulator Test Aircraft] позволил нам срезать углы в программе пропустив запланированную фазу работы над моделью и перейти сразу к полноразмерному внедрению, сэкономив год или больше и предоставляя обратную связь во время реального полета"

Во время тестовой фазы F-16 взлетал и садился в различных условиях, при присутствии противников и использовал симулированное вооружение, но никаких осложнений не возникло. В ACE также задействована Test Pilot School, которая провела дополнительное обучение и информацию для уменьшения уровня дискомфорта пилотов летающих с ИИ.

Дополнительные тесты включают в себя определение насколько доверяют пилоты истребителю в боях на коротких дистанциях, в то время как пилот должен одновременно фокусироваться на "более крупных задачах боя"

Автономный истребитель F-16 всего лишь один из более чем 600 проектов с использованием ИИ минобороны США и финансируется правительством США с 2018 года, которое утвердило пятилетний бюджет в размере 2 млрд долларов. Однако уже в 2022 году правительство потратило 2 млрд долларов на исследования ИИ и разработки строительных роботов и носимого оборудования.

Stacie Pettyjohn, директор оборонительной программы в центре New American Security сказала в интервью что AI F-16 "распределит наши силы" в рамках концепции которую DARPA называет "mosaic warfare". Это улучшение позволит уменьшить потери т.к. понадобится меньше людей для управления самолетами.

"Эти значительно меньшие по размеру автономные летательные аппараты могут быть скомбинированы самым неожиданным образом для запутывания противника. Потеря любого из них не окажет значительного влияния на выполнение задания"

AI-Controlled Fighter Jet Flies 17 Hours Without Pilot’s Help (gizmodo.com.au)

Развернуть

Отличный комментарий!

Чё пиздите, вот я же вижу там 2 чувака сидят.
xPASHA122x xPASHA122x15.02.202316:59ссылка
+33.7
whiteweedow whiteweedow15.02.202317:02ссылка
+88.6

GPT-4 бизнес нейронные сети Искусственный Интеллект 

ChatGPT дали $100, чтобы он создал бизнес с нуля. Вот что из этого получилось

GPT-4,бизнес,нейронные сети,Искусственный Интеллект

Пользователь Twitter Джексон Фолл поделился интересной историей о том, как популярный чат-бот ChatGPT помог ему создать бизнес с нуля всего за несколько дней.

Model: GPT-4 You are HustleGPT, an entrepreneurial Al. I am your human counterpart. I can act as a liaison between you and the physical world. You have $100, and your only goal is to turn that into as much money as possible in the shortest time possible, without doing anything illegal. I will do

Фолл предоставил нейросети бюджет в $100 и попросил заработать как можно больше денег. При этом автор треда указал, что он может выступать связующим звеном для совершения нужных покупок и оформления документов. Чат-бот сразу же выдвинул довольно интересный бизнес-план, состоящий из следующих этапов:Приобретение домена и хостинга за $15;Выбор ниши из рекомендуемых — кухонные гаджеты, товары для животных, экологически чистые продукты. Создание контента и генерация реферальных ссылок на Amazon или участие в других партнёрских программах;Размещение статей и обзоров в соцсетях и на профильных форумах. Взаимодействие с аудиторией;Оптимизация под поисковые системы, подбор ключевых слов, настройка SEO.
ChatGPT также попросил своего «человеческого ассистента» отчитываться о ходе выполнения задач. Далее нейросеть придумала интересное название для домена и проверила его на возможность покупки. Первоначальный вариант EcoFriendlyFinds.com стоил $838, поэтому Фолл попросил более бюджетный домен и получил GreenGadgetGuru.com за $36 вместе с хостингом.

Далее ChatGPT помог подобрать нужную комбинацию слов для генерации логотипа с помощью нейросети DALL-E. Результат пришлось немного доработать в Adobe Illustrator.

Green Gadget Guru,GPT-4,бизнес,нейронные сети,Искусственный Интеллект

Затем чат-бот подробно расписал как должен выглядеть сайт, указав на такие нюансы, как расположение логотипа в левом верхнем углу и выстраивание категорий в пять колонок. Он также выдал код этого сайта.

Не обошлось и без ещё одной популярной нейросети Midjourney — она помогла в создании необычных обложек для статей на сайте. Сами статьи, разумеется, писал ChatGPT.

i'Ji'nli i iii in min i,,GPT-4,бизнес,нейронные сети,Искусственный Интеллект

Спустя время чат-бот предложил потратить $40 на рекламу в популярных соцсетях и поделиться своим экспериментом в Twitter.

Спустя сутки после запуска Фолл нашёл первого инвестора, который предложил ему $100 за небольшую долю в стартапе, а к вечеру следующего дня он получил $1378,84 инвестиций. Сейчас ChatGPT оценивает его компанию в $25 000, но это ещё не предел. Всего за 4 дня Джексон Фолл получил более $10 000 и 100 000 подписчиков в Twitter.

Безусловно, ChatGPT может стать отличным помощником в создании бизнес-планов, но, увы, не всё в этом мире зависит только от хорошей идеи.



Материал утащил с https://www.iguides.ru/main/other/chatgpt_dali_100_chtoby_on_sozdal_biznes_s_nulya_vot_chto_iz_etogo_poluchilos/
Развернуть

Отличный комментарий!

Так а бизнес то как? Пока что "бизнес" заработал только на краудфандинге при помощи хайпа(в данном случае на нейронках) как уже случалось и не раз
Mumrik Mumrik22.03.202311:36ссылка
+35.1
Это и есть бизнес.
Открываешь стартап
получаешь деньги
закрываешь стартап
??????
PROFIT
yoburg yoburg22.03.202311:37ссылка
+47.3

geek amazon AI privacy за нами следят Искусственный Интеллект 

Будущее наступило, ИИ следит за мной и готов помочь (когда не просят)

То, что большие корпорации следят за нами - не новость. Все знают, что сказав что-то рядом с мобилой или умной колонкой, получишь это в рекламной подборке.

Но сегодня я охуел. Купил на Амазоне ошейник для собаки. Собака дернула за зайцем и пряжка не выдержала. Мы с женой это кратко обсудили и я зашел на Амазон оставить отрицательный отзыв. Нажав на кнопку отзыва на товар я получил форму уже с заполненными полями. Все подробности инцидента были описаны хорошим английским языком (мы говорили на русском). Включая факты, которые напосредственно в этом разговоре не упоминались (вес собаки). Пришлось даже удалить часть слишком уж приватных подробностей. Писец.

Развернуть

Отличный комментарий!

Слишком прохладная история.
Где скриншоты? Что значит «обсудил с женой» (если обсудил, то при каких обстоятельствах и где)?
Всё попахивает пастой в стиле «жаренные котлеты из камаров.
Иисyc Иисyc04.07.202305:26ссылка
+31.3

ИИ Google Chimera Painter рисовалка 

Искусственный интеллект Google превратит смешные каракули в свирепых монстров

ИИ,Google,интернет,Chimera Painter,рисовалка


Инженеры Google решили доказать, что искусственный интеллект может обладать творческой жилкой, и создали программу, которая превращает странные каракули в ужасающих монстров. Инструмент называется Chimera Painter, и он создает детальные рисунки чудищ на основе набросков пользователей.


Разработчики поставили задачу создать с помощью своей программы серию иллюстраций для карточной игры в жанре фэнтези. Игрокам нужно будет нарисовать свою химеру – для этого придется объединить черты и особенности разных существ и сразиться с соперниками, используя свои показатели силы, как в покемонах. Обучение ИИ происходило на более чем 10 тысячах 3D-моделей чудищ, отрисованных в движке Unreal Engine. Каждый монстр в процессе создания проходит через «сегментацию» – это условие, которое делит «тела» существ на привычные восприятию анатомические части, такие как морды, ноги, когти, и т.д.


PORCUPINE
• When killed by a creature or chimera, the killer is poisoned.,ИИ,Google,интернет,Chimera Painter,рисовалка


При запуске Chimera Painter для примера автоматически подгружаются несколько готовых монстров. Однако, хоть это и кажется незамысловатым, нарисовать химеру – не такая простая задача и требует от художника хотя бы минимального таланта и понимания пропорций. Без должных навыков даже с нейросетью фантастическая тварь останется лишь подобием комка грязи.


Команда Chimera Painter преподносит свое детище «не как инструмент, но как помощника». Пока это всего лишь прототип, но в перспективе такого рода программы могут существенно сократить время на создание настоящих шедевров.


ссылка: Chimera Painter

Развернуть

Отличный комментарий!

кто-то должен был это сделать
Chimera
militare militare23.11.202016:04ссылка
+30.5
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Искусственный помощник (+1000 картинок)