Результаты поиска по запросу «

Сгенерировано ии

»

Запрос:
Создатель поста:
Теги (через запятую):



ИИ robots песочница нагенерил сам нейронные сети 

ИИ,robots,песочница,нагенерил сам,нейронные сети

Развернуть

элон маск ИИ твиттер 

Почему Маск использует сгенерированные ИИ картинки вместо своих фото?

'-.Л V 1 u ■ у Ш ' \,элон маск,ИИ,твиттер,интернет
элон маск,ИИ,твиттер,интернет
Развернуть

suno ИИ нейросети музыка 

Моя попытка сгенерировать песню в ИИ Suno

Тем кому лень читать, вот сразу пример: https://voca.ro/18CbiIZQynof

Теперь подробнее. Да, результат всратый во многих аспектах. Но это в то же время и лучшее, что удалось сгенерировать за неделю попыток (в день доступно 5 генераций, в каждой генерации 2 варианта). Среднестатический результат намного хуже. 

-

ИИ имеет два режима: генерация случайного текста, и ввод твоего, до которого нейросетка добирает вокал и музыку. Ну или можно просто музыку без лирики делать. Я случайную генерацию не пробовал вообще, так что рассказываю о попытках сгенерировать песню по своему тексту. 

Разбивать текст на куплеты практически бесполезно так как сетка сама случайным образом определяет эти параметры. Может с середины строки перенести в следующую, а может и нормально спеть, как повезёт. Один раз вообще одну строку разбило на целый куплет) Никаких инструментов чтобы маркировать хотя бы "вот тут куплет, а тут припев" - пока не существует. Можно только молиться рандому. 

К музыке меньше всего претензий, её генерирует отлично, всегда разные мотивы даже если не менять стиль. Но есть проблемы с соотношением со словами (в корне которых стоит та же проблема, что и выше). 

С русскоязычными текстами справляется так-сяк, многие слова часто читает неправильно, или с жутким акцентом. Женский голос вроде чуток получше, но мне не везло с рандомизацией куплетов с ним. Англоязычные поёт намного лучше, но там есть анальная цензура, которая не пропустит ничего даже с намёком на депрессивную тематику. 

Может генерировать примерно 2 минуты песни, но при этом есть функция "продолжить генерацию" для создания следующего куска, и бесплатная склейка их воедино. 

А вот куда менее удачная попытка в панк-рок: https://voca.ro/18QqwmjZMXqL

Вердикт: для самого начала в такой сфере - весьма неплохо. Думаю, можно ждать что в будущем появятся более интересные варианты. А пока - развлекайтесь с всрато-песнями) 

Развернуть

фотография Искусственный Интеллект фламинго Miles Astray 

Инцидент, произошедший с фотографом Майлзом Астреем (Miles Astray) на премии 1839 Photography Awards подчеркивает продолжающуюся напряженность между традиционным искусством и искусством, созданным искусственным интеллектом.

фотография,Искусственный Интеллект,фламинго,Miles Astray

Фотография фламинго, сделанная Астреем под названием “F L A M I N G O N E” изначально заняла первое место в категории искусственного интеллекта на конкурсе People's Vote Award и третье место в призах жюри. Его намерением было подчеркнуть непреходящую актуальность и эмоциональную глубину искусства, созданного руками человека, на фоне роста контента, создаваемого искусственным интеллектом.

Однако, обнаружив, что фотография не была создана искусственным интеллектом, организаторы конкурса дисквалифицировали Астрея и удалили его работу с сайта, подчеркнув важность соблюдения критериев категории для честной конкуренции. «В каждой категории есть отдельные критерии, которым должны соответствовать изображения участников», заявили организаторы конкурса. «Его работа не соответствовала требованиям для категории изображений, сгенерированных искусственным интеллектом. Мы понимаем, что в этом была суть, но не хотим помешать другим художникам выиграть в категории ИИ».

фотография,Искусственный Интеллект,фламинго,Miles Astray

Несмотря на дисквалификацию, Астрей посчитал этот результат победой человеческого творчества и выразил надежду, что это приведет к большему признанию ценности искусства, созданного руками человека.

Развернуть

Отличный комментарий!

Чет сама идея выставить настоящее фото в конкурсе ИИ звучит как полноценный спортсмен на параолимпиаде
ButtStrike ButtStrike02.07.202415:09ссылка
+56.2
Скорее как прийти на конкурс двойников Чарли Чаплина будучи Чарли Чаплином.
Anarchy_in_UK Anarchy_in_UK02.07.202415:19ссылка
+53.3
Он приходил, проиграл.
gamambler gamambler02.07.202415:21ссылка
+72.0

AI Искусственный Интеллект картинки 

PRICE /8.99,AI,Искусственный Интеллект,картинки

Развернуть

Отличный комментарий!

без нормального тз получаешь ты хз
kobazoid kobazoid20.11.202320:04ссылка
+33.1

красивые картинки art Искусственный Интеллект сделал сам 

Немного брутализма сгенерированного ии

 г #2? ’ V -{ ¿V 44 ^ S ж& Г ЛХ ^ Т ■ íi *» % - J,красивые картинки,art,арт,Искусственный Интеллект,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам

красивые картинки,art,арт,Искусственный Интеллект,сделал сам,нарисовал сам, сфоткал сам, написал сам, придумал сам, перевел сам

Как обычно - пишите запросы в комментариях.

Развернуть

новости Игры Искусственный Интеллект создание Tencent 

Tencent показала ИИ GameGen-O для создания игр — модель учили на The Witcher 3, GTA V и Cyberpunk 2077

Возможности искусственного интеллекта растут почти угрожающими темпами. Генерация изображений, видеоматериалов и фанатский дубляж — уже привычное дело. Однако Tencent пошла еще дальше и опубликовала проект по широкому применению ИИ в создании игр

Как отмечал официальный сайт (на момент написания новости страница отсутствует), GameGen-O позволяет генерировать много высококачественных элементов, таких как персонажи, динамическая среда, сложные действия и события. Цель проекта заключается в том, чтобы улучшить и упростить процесс создания игр, уменьшая время и затраты на разработку.


Из демонстрации видно, что есть еще много возможностей для совершенствования, но в перспективе это может стать важной вехой в развитии видеоигр. Не только разработчики, но и обычные пользователи смогут использовать этот инструмент, чтобы легко создавать виртуальные миры. Если эта технология будет развиваться, она может оказать значительное влияние на геймдев в целом.

Похоже, Tencent не слишком озабочена вопросом использования контента, защищенного авторским правом. Сайт GamePressure обратился к CD Projekt RED за комментарием по этому поводу. В компании говорят, что изучают этот вопрос, но пока воздерживаются от каких-либо комментариев.

С одной стороны, подобные инструменты ИИ могли бы значительно сократить процесс разработки игр, который в случае AAA занимает много лет. С другой стороны, это может вызвать беспокойство по поводу того, что игры станут более общими и генеративными (хотя иногда люди тоже «успешно» делают это).

V'.и1ЙЯ Æl № í wM чаю Щ Í JNM W' r u L jfe,новости,Игры,Искусственный Интеллект,создание,Tencent
Развернуть

Отличный комментарий!

Ну т.е. нам мало было шлака в необъятных количествах на юнити?

ArtStation Ебала жаба гадюку ИИ MidJourney нейронные сети здравый смысл 

ArtStation не хочет «мешать исследованиям и коммерциализации ИИ» — поэтому арты нейросетей на сайте пока останутся

ArtStation — один из главных сайтов для профессиональных художников, в том числе из игровой индустрии. В конце 2022 года, на фоне того, как в сети стали набирать популярность работы нейросетей вроде Midjourney, пользователи платформы стали всё негативнее реагировать на их публикацию.

Реакция переросла в полноценный протест в декабре, когда сгенерированные нейросетями работы стали появляться на главной странице наряду с работами, на которые художники тратили десятки и сотни часов.

Меня печалит, что арт, сгенерированный ИИ, появляется на главной странице ArtStation. Мне нравится играться с Midjourney как и любому другому, но размещать что-то, что было создано по текстовому описанию рядом с работами, на которые ушли сотни часов и годы опыта, крайне неуважительно.

Разозлённые художники начали публиковать на ArtStation изображение со словами «Нет изображениям, сгенерированным ИИ», и в результате они заполнили галерею последних и обсуждаемых работ.

Community Trending Latest NOTO AI GENERATED IMAGES NOTO AI GENERATED IMAGES All 2 NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED IMAGES NO TO Al GENERATED

ArtStation сначала лишь заявила, что работы нейросетей не нарушают правил площадки, но затем опубликовала FAQ, в котором в компании подробно высказали свою точку зрения на эту ситуацию.

К сожалению для ArtStation, в глазах художников ситуация стала ещё хуже, и многие из них разочарованы в площадке.

"Мы верим, что художники должны сами решать, как используются их работы, но в то же время мы не хотим создавать правила, которые будут мешать исследованиям и коммерциализации ИИ, когда к выбору художников и законе об авторском праве относятся с уважением.Мы верим, что художники должны сами решать, как используются их работы, но в то же время мы не хотим создавать правила, которые будут мешать исследованиям и коммерциализации ИИ, когда к выбору художников и законе об авторском праве относятся с уважением."

ArtStation

В команде ArtStation говорят, что планируют добавить два тега, которые позволят художникам выбрать, позволить или запретить использование их работ для обучения некоммерческих и коммерческих исследований ИИ. При этом по умолчанию включать ничего не будут.

Художники считают, что работы, созданные нейросетями, должны полностью запретить на сайте. Они продолжают протестовать и публиковать изображения, чтобы выразить свою позицию.

ArtStation,Ебала жаба гадюку,ИИ,MidJourney,нейронные сети,здравый смысл
Развернуть

Отличный комментарий!

Ну и нормальное решение, пусть добавят тэг. Разочарованы они, ужас какой
Valderok Valderok15.12.202217:28ссылка
+8.3
НА АРТСТЕЙШЕНЕ ВВОДЯТ ТЕГИ ДЛЯ НЕЙРОАРТОВ
@
С АНАЛЬНОЙ МОДЕРАЦИЕЙ, РАЗУМЕЕТСЯ
@
НЕДОВОЛЬНЫЕ ОТКРЫВАЮТ СВОЙ РАЗДЕЛ, ГДЕ МОЖНО НЕ ЛЮБИТЬСЯ С ПРОСТАНОВКОЙ ТЕГОВ ДА И ВООБЩЕ ЧЕГО ЛИБО
@
ОДНАКО ВОЗВОДЯТ ЭТО В АБСОЛЮТ И НАЙТИ ЧТО ЛИБО СТАНОВИТСЯ НЕВОЗМОЖНО ЧЕРЕЗ 5 СЕКУНД ПОСЛЕ ПОСТИНГА, ВЕДЬ МАШИНЫ ГЕНЕРЯТ СВОИ ШЕДЕВРЫ ПО НЕСКОЛЬКО ШТУК В СЕКУНДУ, А ПОСТЕРЫ ЗАМЕНИЛИ СЕБЯ БОТАМИ ДЛЯ АВТОЗАЛИВА
@
И ОНИ ЖЕ ВСЁ РАВНО ПРОДОЛЖАЮТ ПОСТИТЬ В ОСНОВНЫЕ РАЗДЕЛЫ
@
ПРИ ЭТОМ КАЖДЫЕ ПАРУ МЕСЯЦЕВ ИДУТ БУРЛЕНИЯ НА ВЕСЬ АРТСТЕЙШЕН ИЗ-ЗА БИТВ МОЧИ И ГОВНА
@
НАЗВАНИЕ РАЗДЕЛА — #АРТ
Инженегр Инженегр15.12.202217:52ссылка
+60.9

Джордж Карлин geek ИИ dudesy stand up песочница видео 

AI сгенерировал и озвучил выступление голосом Джорджа Карлина



Примечательно то что и манера исполнения и построение стендапа и голос близки до степени смешения. 
Но как по мне как-то несмешно. 

Развернуть

политота Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост 

В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира

Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.

ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас

«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах. 

Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями. 

Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду». 

Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов. 

Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.

«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ». 

По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад». 

Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов 

В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей. 

По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».

политота,Приколы про политику и политиков,Индия,страны,Искусственный Интеллект,Deepfake,двойные стандарты,длиннопост

По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого». 

Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей. 

Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах. 

Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует. 

По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью». 

По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг». 

«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут. 

Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается

Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять». 

Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников. 

По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц. 

Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед». 

Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса. 

Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию. 

Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США. 

В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.

https://meduza.io/feature/2024/04/28/v-indii-dipfeyki-i-drugie-ii-tehnologii-ispolzuyut-v-predvybornoy-agitatsii

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме Сгенерировано ии (+1000 картинок)