AI
Подписчиков: 18 Сообщений: 91 Рейтинг постов: 787.6Microsoft bing GPT-4 реклама нужно больше золота habr ИИ AI нейросети технологии gpt
"Microsoft" добавила рекламу в чат-бот "Bing"
"Microsoft" добавила в выдачу чат-бота "Bing" рекламные объявления. Разработчики ИИ пока что экспериментируют с поиском оптимального вида для показа рекламы.

Вице-президент "Microsoft" Юсуф Мехди подтвердил, что компания «изучает возможность размещения рекламы в чат-боте, а некоторые пользователи уже начали видеть рекламные объявления». По его словам, поскольку чат-бот "Bing" находится в стадии тестирования, то возможны некоторые различия в том, как будут выглядеть рекламные ссылки.
«Да, реклама скоро будет отображаться у всех пользователей в чат-боте Bing», — добавила директор по коммуникациям "Microsoft" Кейтлин Роулстон в заявлении для СМИ.
Пользователи сообщили, что в текущем виде рекламные ссылки в выдаче чат-бота выдаются после нескольких предложений в виде цитаты с небольшой заметкой, что это реклама. "Microsoft" пытается показать рекламу в таком виде, чтобы она не была слишком навязчива.
Ранее "Microsoft" сообщила, что хочет разделить доходы от рекламы в чат-боте с партнёрами, чей контент способствовал ответу ИИ. Экспертам непонятно, как в этом случае будет выполняться баланс по показу рекламы, так как постоянное включение рекламы добавит и без того сложную когнитивную нагрузку на пользователя, связанную с определением, можно ли доверять данному ответу чат-бота и переходить на рекламу.
16 марта "Microsoft" открыла доступ к чат-боту поисковика "Bing" на базе GPT-4 без листа ожидания. Теперь любой желающий может зарегистрироваться и опробовать чат-бот. "Microsoft" потратила «сотни миллионов долларов» на создание суперкомпьютера для чат‑бота "OpenAI" "ChatGPT" и чат-бота "Bing". Эти затраты теперь компания планирует частично компенсировать через показ рекламы.
AI Искусственный Интеллект bing Microsoft ChatGPT нейронные сети Кошмар на улице вязов Фильмы
Впервые задал вопрос в ChatGPT Bing и получил очень содержательный ответ с неожиданно нелогичным выводом

Отличный комментарий!
Он женился на женщине по имени Лоретта, и у него родилась дочь Кэтрин[Прим 2]. О том, как зародились садистские наклонности Крюгера, также ничего точно не известно (кроме эпизода из школьной жизни, в котором Фредди достаёт хомячка из клетки школьного зооуголка и убивает животное большим молотком). Вскоре Крюгер начинает похищать и убивать детей — его жертвами становятся малыши, проживающие на улице Вязов, по словам Мардж Томпсон — около 20 детей[2]. Вскоре Лоретта понимает, что её муж и есть маньяк, и женщина сама становится следующей жертвой Крюгера: он задушил мать прямо на глазах у маленькой Кэтрин. Местные власти начинают подозревать Крюгера в причастности к убийствам и забирают Кэтрин в приют, лишив Крюгера родительских прав. В итоге Фреда арестовывают, а его мать, по слухам, покончила с собой, повесившись в одной из башен психиатрической больницы Уэстен-Хиллс вскоре после суда над сыном[Прим 3].
История закончилась трагически — власти вычислили Крюгера, но из-за формальной ошибки следствия его были вынуждены отпустить[Прим 4]. Тогда разъярённые родители убитых им детей нашли его в котельной, где он работал сторожем, и заживо сожгли[1].
Великобритания финансы банк безопасность ИИ AI нейросети технологии habr длиннопост Lloyds Bank Lloyds кибербезопасность
Клиент банка "Lloyds" из Великобритании получил доступ к своему банковскому счету с помощью голосового ИИ
Клиент банка "Lloyds Bank" из Великобритании обнаружил, что может получить доступ к своему банковскому счету с помощью голосового ИИ через идентификацию по "Voice ID".
Пользователь Джозеф Кокс выяснил, что голосовой идентификатор нельзя использовать в качестве безопасного способа для входа в свою банковскую учётную запись. Он смог обмануть систему с помощью бесплатной версии решения от "ElevenLabs" для генерации своего синтетического голоса на основе пяти минут цифровой записи своего настоящего голоса.
Он проводил эксперимент несколько раз, так как изначально система "Lloyd Bank" сообщала, что не может аутентифицировать его голос. После внесения некоторых изменений в настройках "ElevenLabs" для генерации голоса, таких как чтение более длинного текста, чтобы каденции звучали более естественно, его сгенерированный голос успешно обошёл систему безопасности банка.
В итоге Кокс позвонил на автоматическую линию обслуживания банка и начал активировать файлы с генерацией своего голоса. Банк принял его фразу «Проверить мой баланс» и после этого попросил сказать две фразы – назвать свою дату рождения и прочитать «мой голос – мой пароль».
Кокс набрал на клавиатуре нужный текст и запустил генерацию голоса. «Мой голос – мой пароль», — сказал ИИ его голосом. Система безопасности банка потратила несколько секунд на идентификацию этого голосового фрагмента. «Спасибо», — сказал банк, а Кокс попал внутрь своего аккаунта.
«Я не мог в это поверить – это сработало. Я использовал реплику своего голоса с помощью ИИ, чтобы взломать свой банковский счёт. После этого у меня был доступ к информации об учётной записи, включая баланс и список последних транзакций и переводов», — уточнил Кокс.
На веб-сайте "Lloyds Bank" сообщается, что опция "Voice ID" абсолютна безопасна. «Ваш голос подобен отпечатку пальца и уникален для вас», — утверждает банк. — "Voice ID" анализирует более 100 различных характеристик вашего голоса, которые, как и ваш отпечаток пальца, уникальны для вас. Например, как вы используете свой рот и голосовые связки, какой у вас акцент и как быстро вы говорите. Система также распознает вас, если у вас простуда или боль в горле», — уточнено на сайте банка в описании этой технологии.
Представитель "Lloyds Bank" заявил, что опция "Voice ID" обеспечивает высокий уровень защиты, чем традиционные методы аутентификации. По мнению банка, синтетические голоса не так привлекательны для мошенников, как другие методы для компрометации данных клиентов.
В "Lloyds Bank" в курсе об угрозе клиентам от синтетических голосов и там постоянно дорабатывают проверку голоса. В банке сообщили, что голосовая идентификация "Voice ID" уже привела к значительному снижению мошенничества с телефонным банкингом.
Профильные эксперты пояснили, что всем клиентам, использующим голосовую аутентификацию в банках, лучше переключиться на безопасный метод проверки личности, такой как многофакторная аутентификация, как можно скорее. Они опасаются, что репликация голосов в этом году будет одним из векторов атак на учётные записи пользователей в банках, так как злоумышленники в курсе информации о дне рождения жертвы, а получить запись голоса можно также разными способами.
Аналогичную голосовую идентификацию предлагают банки в США, например, "TD Bank" (опция "VoicePrint"), банк "Chase" (также "Voice ID") и "Wells Fargo" (функция "Voice Verification"), которые, согласно описанию, «эффективно защищают личность клиента».
Ранее исследователи с помощью нейросети "elevenlabs.io" и "ChatGPT" рассказали голосом Стива Джобса про "ChatGPT". Особенность "elevenlabs.io" заключается в том, что нейросети достаточного слушать оригинальный голос в течение всего нескольких секунд, чтобы потом воспроизвести его.
В начале января "Microsoft" объявила о создании инструмента "VALL-E" для имитации любого голоса. Этому ИИ достаточно трёхсекундного образца для генерации полноценного голоса человека. Услышав конкретный голос, "VALL-E" создаст аудиозапись того, как человек говорит что-то, причём постарается сохранить даже его эмоциональный тон.
технологии ИИ AI Твич ситком OpenAI ChatGPT Stable diffusion dall-e слава роботам нейронные сети Mismatch Media Nothing Forever
ИИ сам пишет сценарий и "снимает" ситком "Nothing, Forever"
Тысячи зрителей уже несколько недель смотрят бесконечный сериал от ИИ. Нейросети на ходу пишут сценарий, отвечают за режиссуру и генерируют видео.

С середины декабря на платформе "Twitch" идёт трансляция ситкома "Nothing, Forever", основанного на комедийном сериале "Seinfeld" из девяностых. Синопсис у шоу очень простой: четверо главных героев живут в пиксельном Нью-Йорке, попадают в нелепые ситуации и пытаются разобраться со своей жизнью. Вот только практически весь проект создан нейросетями: от сценария до озвучки.
Так, диалоги персонажам прописывает языковая модель от "OpenAI", а за визуальную часть отвечают алгоритмы "Stable Diffusion", "DALL-E" и другие. При этом зрители могут самостоятельно менять повествование, взаимодействуя с ситкомом через чат на "Twitch".
Создатели "Nothing, Forever" из компании "Mismatch Media" придумали «бессмысленный и сюрреалистический» проект ещё в 2019 году, однако реализовать его удалось лишь недавно, на волне взрывного развития нейросетей. По словам авторов, цель у них вполне очевидна: показать зрителям приближающееся будущее – с вечными развлекательными шоу.
Впрочем, на этом экспериментаторы останавливаться не хотят. Уже после "Nothing, Forever" они намерены поднять ставки и взяться за проект «на уровне "Netflix"».
наука и техника технологии ИИ AI ChatGPT OpenAI Образование США длиннотекст длиннопост нейронные сети BFM.ru
Искусственный интеллект выпустился из университета
На юридическом факультете Университета Миннесоты в США провели эксперимент и дали задание чат-боту "ChatGPT" сдать выпускные экзамены по четырем дисциплинам. Проходной балл система набрала, но результаты были не блестящими.

Научные сотрудники юридического факультета Университета Миннесоты в США решили проверить, сможет ли чат-бот "ChatGPT" сдать экзамены наравне со студентами. Это технология, основанная на нейросети "GPT-3,5". Она считается самой сложной и объемной языковой моделью в мире. Ее создала компания "OpenAI". Один из основателей организации – Илон Маск.
Искусственный интеллект набрал проходной балл, но показал далеко не блестящие результаты. Несмотря на это, в некоторых американских школах технологию уже начали запрещать из опасений, что учащиеся будут выполнять задания с ее помощью.
Ученые из университета Миннесоты выбрали четыре дисциплины, по которым нейросеть сдала экзамен. Конституционное право, гражданско-правовые правонарушения, налогообложение и трудовые гарантии и компенсации. Для первых двух предметов нужны знания с первого года обучения. Остальные – это более продвинутые курсы по выбору. Всего чат-бот ответил примерно на 100 вопросов с вариантами ответов и решил 12 задач на рассуждение. Искусственный интеллект получил оценки "хорошо", "хорошо с минусом" и "удовлетворительно с минусом". Это далеко не худшая оценка в образовательной системе США, после нее идут еще две отметки. И, хотя почти во всех испытаниях чат-бот занял предпоследнее или последнее место среди студентов, в теории он мог бы выпуститься из университета, потому что набрал проходной балл. Правда, как отметили авторы исследования, такому студенту, скорее всего, назначили бы академический испытательный срок, чтобы убедиться, что он старается.
Ученые из Университета Миннесоты отметили, что чат-бот "ChatGPT"оказался неспособным провести глубокие причинно-следственные связи. При этом по некоторым критериям написания эссе он справился местами даже лучше студентов. Например, емко пересказал подходящие юридические доктрины, которые не упоминались в вопросах, процитировал факты и решения по прецедентам. Причем речь была хорошо структурирована. Закрытые вопросы с вариантами ответов оказались для нейросети непростыми, но, несмотря на это, технология верно решила 21 из 25 таких заданий на экзамене по конституционному праву.
Некоторые американские школы на этом фоне уже начали бороться с тем, что учащиеся используют искусственный интеллект для написания работ. В частности, государственные школы Нью-Йорка недавно заблокировали доступ к "ChatGPT" на школьных компьютерах, нейросетью нельзя пользоваться и в случае, если ребенок подключен к школьной сети. Причина – сомнение по поводу безопасности и точности контента. Но смысла в запретах нет, такие технологии, напротив, нужно использовать с пользой для образования, уверен методист московской школы "Глория", учитель с 26-летним стажем Сергей Астахов:
«Запретами ничего не добьешься. Так же, как мы перестали запрещать сотовые телефоны, использование компьютеров, потому что это все учимся использовать во благо. Искусственный интеллект в Москве, допустим, уже используется: это цифровые домашние задания в московской электронной школе. Когда ученики дают ответы, искусственный интеллект проверяет и дает тебе тут же обратную связь. Беспокойство существует, что он пишет вступительные испытания, сочинения. Наверное, экзамен уже не должен быть чисто воспроизведением знаний, которые получил студент, а это должен быть какой-то экзамен креативный».
Впрочем, до совершенства тому же чат-боту "ChatGPT" еще далеко. Иногда его ответы абсолютно бессмысленны. Простой пример. Если задать вопрос, почему умер Александр Пушкин, вы получите такой ответ: от туберкулеза, которым заразился в детстве. Также есть версии, что он умер от сильного алкогольного опьянения или от сердечного недуга.
Источник: "BFM.ru", Александр Астахов.
наука и техника технологии нейронные сети ИИ AI Google MusicLM музыка слава роботам
"Google" создала ИИ, который генерирует сложную музыку по текстовым описаниям
"Google" представила систему искусственного интеллекта "MusicLM", которая способна генерировать музыку в любом жанре по текстовому описанию. Однако компания пока не будет открывать доступ к нейросети.

Альтернативы новому ИИ, к примеру, "Riffusion", из-за технических ограничений и относительно небольшого набора данных для обучения не способны создавать сложные композиции.
Однако "MusicLM" обучали на наборе данных из 280 тысяч часов музыки, чтобы научить генерировать песни «значительной сложности» (например, "очаровательный джаз" или "берлинское техно 90-х").

Нейросеть способна уловить такие нюансы описания, как инструментальные риффы, мелодии и настроение. Например, "MusicLM" может сгенерировать мелодию, которая должна вызвать "ощущение пребывания в космосе" или "основной саундтрек аркадной игры".
Исследователи "Google" пояснили, что система может основываться на существующих мелодиях, будь то напевание, пение, насвистывание или игра на инструменте. Более того, "MusicLM" может взять несколько последовательно написанных описаний (например, "время медитировать", "время просыпаться", "время бежать", "время выложиться на 100%"), чтобы создать своего рода мелодическую "историю" продолжительностью до нескольких минут наподобие саундтрека для фильма.
"MusicLM" также можно инструктировать с помощью комбинации изображения и подписи или генерировать звук, который "играет" инструмент определённого типа в определённом жанре. Можно установить даже уровень опыта "музыканта".
Тем не менее, некоторые мелодии имеют искажения как неизбежный побочный эффект тренировочного процесса. Технически "MusicLM" может генерировать вокал, включая хоровые гармонии, но пока они оставляют желать лучшего. Большая часть "текстов" песен варьируется от подобия английского до набора звуков, которые исполняют синтезированные голоса.
Исследователи "Google" отмечают и множество этических проблем, связанных с "MusicLM", включая нарушение авторского права. Во время эксперимента они обнаружили, что около 1% музыки, сгенерированной системой, был просто отрывками из песен, на которых она обучалась.
Между тем модель "Riffusion" открыта под лицензией "Creative ML OpenRAIL-M", допускающей использование в коммерческих целях. Она работает по аналогии с модификацией изображений в "Stable Diffusion". Так, при генерации могут задаваться образцы спектрограмм с эталонным стилем, комбинироваться разные стили, выполняться плавный переход от одного стиля к другому или вноситься изменения в существующий звук для увеличения громкости отдельных инструментов, изменение ритма и т.д.
Отличный комментарий!