Псих, насильник и мошенник — чат-бот Copilot «обвинил» судебного репортера в преступлениях, которые / репортёр :: Microsoft (Майкрософт) :: Copilot :: AI :: новости

новости Copilot AI Microsoft репортёр 

Псих, насильник и мошенник — чат-бот Copilot «обвинил» судебного репортера в преступлениях, которые он освещал

 Передает TheConversation.

Издание отмечает, что немецкий журналист решил ввести свое имя и поиск в Copilot, чтобы посмотреть, как чат-бот воспримет его статьи.

Copilot утверждал, что Бернклау был сбежавшим из психиатрической больницы, осужденным за насилие над детьми и мошенником, наживающимся на вдовцах.

Информация о Бернклау, конечно, не соответствуют действительности и являются примерами «галлюцинаций» генеративного ИИ.

Издание добавляет, что мужчина регулярно освещал судебные процессы по уголовным делам о злоупотреблениях, насилии и мошенничестве, а его работы публиковались в национальных и международных газетах. Статьи журналиста, по-видимому, должны были быть включены в чат-бот, которую он использует по поиску слов, относящиеся к характеру дел.

Поскольку Бернклау провел годы, работая репортером в суде, когда Copilot нашел о нем наиболее вероятные слова, связанные с его именем, то относ их к преступлениям, которые он освещал как репортер. 

Microsoft Copilot,новости,Copilot,AI,Microsoft,Майкрософт,репортёр
Подробнее
Microsoft Copilot
новости,Copilot,AI,Microsoft,Майкрософт,репортёр
Еще на тему
Развернуть

Отличный комментарий!

gwarlock gwarlock20.09.202417:43ссылка
+32.1
чувак грамотно абузит "особое мнение" ИИ

А вот теперь нужно и разобраться. Может "глючит" как раз так называемого "ЖУРНАЛИСТА".

Вот и ответ всем перспективам использования нейросетей в судебном деле.
Был ещё случай, какой-то адвокат в США использовал чатжпт для написании своей речи. В итоге жпт нагаллюционировал несуществующие судебные прецеденты, суд адвоката пропесочил и лишил лицензии за обман суда.
Цензура и ограничения тут не при чём. Проблема фундаментальная, в самой сути LLM (Large Language Models, на которых построены современные генеративные АИ). Их принцип работы -- выдавать текст, _похожий_ на правду, без какой бы то ни было проверки истинности, поэтому при требовании предоставить доказательства они начинают гнать булшит. Хорошая статья на тему: https://link.springer.com/article/10.1007/s10676-024-09775-5?fbclid=IwZXh0bgNhZW0CMTEAAR3thWxJDqLWCQGC_mJD5drBKBVdrndFKhYyDxUgU90KqUnwZoesomq-MV0_aem_ZmFrZWR1bW15MTZieXRlcw
Пример с адвокатом есть в статье. Другой пример когда пытались использовать ЧатЖПТ при написании статей по биологии. Он нагенерил неплохой текст, но когда его попросили предоставить доказательства, дал ссылки на несуществующие статьи.
Нет, не так. Ты назвал чатжпт сломаным из-за того, что он работает именно так, как и замышлялось. Лишь наивные люди и долбоебы, выдумывающие себе что-то не сверяясь с реальностью, ожидают что чатжпт пишет правду, а не ВОЗМОЖНО правду,
Нихера. Определенное отличие copilot -- он указывает линки, откуда взял инфу. Т.е. кожаный мешок может провести факт-чекинг. Но если адвокату было похуй на это, то очень хорошо что он лишился лицензии.
ну и когда начинают?)
А на какую работу нынче ищут насильников?
На журналистов, конечно
- Известный репортер, призер Пулитцеровской премии, журналист - кто ты без этого всего?
- Псих, насильник и мошенник!
*с пафосом супергеройских комиксов* «Самый неуловимый преступник, головная боль всего департамента полиции, гений преступного мира, который держит в страхе весь город. Дело настолько сложное, что было решено подключить к нему ИИ. И что же этот "И-И"? Он обвинил в этих преступлениях нашего непримеримого героя, злейшего врага этого мерзавца, гениальнейшего сыщика-журналиста, который настолько талантлив, что всегда заканчивал обыск на местах преступления ещё до того, как туда поспевала примчаться полиция! Не, ну в представляете какая наглость?!»

Так и у человеков память также работает: "помнится, кого-то он ограбил, или его ограбили... одно точно, мутный персонаж"

Человеки забывают детали\факты, а компьютеры способны неограниченно долго помнить что угодно с абсолютной точностью.
Дело не в памяти, а в том, что нейросеть не понимает о чем, говорит. Это просто примерный набор слов по логическим картам, который должен с наибольшей по мнению алгоритма вероятностью удовлетворять запросам пользователя. Нейросеть не понимает смысла. Это лишь рандомный фарш из базы данных по тегам на основе запрса.
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
steve8708 15h — copilot has had enough today #!/usr/bin/env node "use strict"; console.log^'fijc/c yoi/'| O Q * v 2 likes*9Z vs code + copilot + 1000 extensions vs notepad++</l Tsarathustra © @tsarnick Satya Nadella says Windows PCs will have a photographic memory feature called Recall that will remember and understand everything you do on your computer by taking constant screenshots
подробнее»

не панорама Windows Операционная система Microsoft,Майкрософт

</l Tsarathustra © @tsarnick Satya Nadella says Windows PCs will have a photographic memory feature called Recall that will remember and understand everything you do on your computer by taking constant screenshots
FAULT MONKEyuSER.COM LIE’LL PIX THE ISSUE ONCE COPILOT GOES SOCK ONLINE