Результаты поиска по запросу «
это цп, гугл цп не ищет
»песочница новости meta facebook instagram это точно не панорама
Meta запустила технологию защиты от порномести: нужно отправить свои обнажённые снимки, чтобы они не попали в соцсети
Meta вместе с британской горячей линией Revenge Porn Helpline запустила платформу StopNCII.org. Запуск поддержали более 50 неправительственных организаций по всему миру. Об этом сообщается на сайте компании.
Аббревиатура NCII из названия обозначает «обмен интимными изображениями в интернете без согласия» (non-consensual sharing of intimate images). Meta считает, что публикации таких фотографий могут разрушить жизнь человека.
Компания предложила пользователям, чьи фотографии или видео опубликовали или могут опубликовать в фейсбуке и инстаграме, выбрать файлы, которые система смогла бы оперативно обнаружить. Файлы преобразуют в цифровой отпечаток, который соцсети и будут использовать.
Meta утверждает, что исходное изображение останется на устройстве пользователя, его никуда не загрузят и не будут передавать. Операция хэширования необратимая — по хэшу не получится восстановить оригинальное содержание файла.
Загружать фотографии могут только лица старше 18 лет.
После загрузки фотографий нужно создать уникальный PIN, по которому можно отслеживать статус проверок.
StopNCII.org уточняет, что технология может помочь удалить только фотографии, идентичные исходному файлу. Если к снимку применили фильтр или обрезали, алгоритм может не распознать его. Для таких изображений нужно создавать новую заявку.
Эту технологию Meta тестирует с 2017 года в Австралии. Тогда нужно было отправлять снимки себе в чате Messenger, но их должны были просматривать другие люди — чтобы вручную создать хеш. Руководитель службы безопасности Facebook Антигона Дэвис заявляла, что фотографии видела «только очень маленькая группа из около пяти специально обученных аналитиков». Позже функцию запустили и для пользователей США, Канады и Великобритании.
https://tjournal.ru/tech/485643-meta-zapustila-tehnologiyu-zashchity-ot-pornomesti-nuzhno-otpravit-svoi-obnazhennye-snimki-chtoby-oni-ne-popali-v-socseti
окей Google что за подозрительная хуйня? о времена О нравы!
Пересматривал я значит сегодня "Призрак в доспехах". И увидал как в одном из моментов Татикомы поют песенку "Маленькую девочку в красных башмачках увезли далеко-далеко...", на что один из персонажей строго спрашивает у них о смысле песни. По неграмотности своей, я решил узнать, что это за песня и каков ее смысл я полез в Google. Так вот. Что за подозрительная хуйня, Google?
цп в лс все очень плохо Навигатор игрового мира цп
Анон перебирал старые выпуски журнала «Навигатор игрового мира» и обнаружил, что в выпуске за 2008 год в тексте про винду автор случайно спалил скаченное детское порно.Он заскринил поиск, в недавних файлах которого были видосы с соответствующими названиями. В таком виде журнал ушёл в печать. Были ли для редактора какие-то последствия – неизвестно.
нейросети реддит спиздил сам новости США open source цп
На реддите разгорелся срач из за нейронок и ЦП
Изначально новость вышла arstechnica.com, аналитическое интернет-издание на английском языке, посвящённое информационным технологиям. В которой утверждалось следующие:
«Как генеральные прокуроры наших штатов и территорий, мы глубоко и серьёзно обеспокоены безопасностью детей, находящихся под нашей юрисдикцией», — говорится в письме. «И хотя интернет-преступления против детей уже активно расследуются, мы обеспокоены тем, что ИИ создает новые границы для злоупотреблений, что затрудняет такое преследование».
В частности, технологии синтеза изображений с открытым исходным кодом, такие как Stable Diffusion, позволяют с легкостью создавать порнографию, генерируемую искусственным интеллектом, а вокруг инструментов и дополнений, расширяющих эту возможность, сформировалось большое сообщество . Поскольку эти модели ИИ общедоступны и часто используются локально, иногда нет никаких препятствий, мешающих кому-либо создавать сексуализированные изображения детей, и это вызвало тревогу у ведущих прокуроров страны. (Следует отметить, что Midjourney, DALL-E и Adobe Firefly имеют встроенные фильтры, запрещающие создание порнографического контента.)
«Создавать эти изображения стало проще, чем когда-либо, — говорится в письме, — поскольку каждый может загрузить инструменты ИИ на свой компьютер и создавать изображения, просто введя краткое описание того, что пользователь хочет видеть. И поскольку многие из этих инструментов ИИ имеют «открытый исходный код», инструменты можно запускать неограниченно и без контроля».
На самом же реддите пользователи типично разделились на два лагеря. Первые утверждали что нейросети это зло, и их нужно запретить или ограничить доступ к ним. Другие же утверждали что нейросети это не более чем инструмент, и виновата не техногия, а кто и как eё использует. Примерно после 5 часов прибывания стати модераторы закрыли комменты и начали тереть комментарии.На момент написания этой стати у стати на реддите было 11к up.
Отличный комментарий!