Future of Life Institute

Подписчиков: 0     Сообщений: 1     Рейтинг постов: 16.1

наука много букв роботы geek песочница Future of Life Institute ИИ 

Тысячи ученых со всего мира подписали открытое письмо, опубликованное на сайте Future of Life Institute с просьбой не допустить создание автономного ИИ.


Свою подпись оставили крупнейшие научные светила, включая физика Стивена Хокинга (Stephen Hawking), а также главы лидирующих в области новых технологий предприятий — глава Tesla Илон Маска (Elon Musk) и основатель Apple Стив Возняк (Steve Wozniak).


Из 12 677 подписей 2060 оставили ученые и исследователи непосредственно связанные с разработкой искусственного интеллекта и робототехники.



«Автономное оружие может выбирать и уничтожать цели без вмешательства человека. К примеру, вооруженные квадрокоптеры, которые ищут и уничтожают людей, подходящих под предварительно запрограммированные критерии. Технология искусственного интеллекта достигла точки, в которой постановка на вооружение таких систем возможна в течение нескольких лет, а не десятилетий. Ставки высоки — автономное оружие уже описали, как третью революцию на полях сражений после изобретения пороха и ядерного вооружения», — говорится в письме.



Авторы письма подчеркивают, что в отличие от ядерного оружия разработка автономных систем с ИИ обходится гораздо дешевле. Более того, все необходимое для создания подобных машин уже существует. Дешевизна и эффективность на поле боя позволит таким Терминаторам быстро завоевать черный рынок оружия и стать аналогом автомата Калашникова, распространившегося по всему миру.


Понимая это, военные организации могут бросить все силы и средства на развитие таких технологий, что, по словам авторов письма, неизбежно приведет к гонке вооружений. Эта гонка в свою очередь подтолкнет к созданию все более умных и смертоносных машин, которые будут принимать решения на поле боя самостоятельно без какого-либо контроля со стороны людей.



«Автономное оружие — идеальный инструмент для убийств, дестабилизации жизни наций, подчинения целых народов и избирательного уничтожения этнических групп. Мы считаем, что гонка военных умных вооружений не будет полезна человечеству. Есть много других способов, с помощью которых ИИ может сделать поле боя безопаснее для людей, и особенно мирных граждан»



Ссылка на сайт - http://futureoflife.org/AI/open_letter_autonomous_weapons
наука,много букв,роботы,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор,песочница,Future of Life Institute,ИИ
Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Future of Life Institute (+1 картинка, рейтинг 16.1 - Future of Life Institute)