Китай разработал систему искусственного интеллекта, которая серьезно усиливает цензуру в интернете
Расскажу, на основе чего делается такой вывод, и чем это грозит
🔥 Еще больше интересного в моем канале продуктовые штучки
Подробности
Об этом говорит утекшая база данных. Основной целью является контроль общественного мнения и обеспечение продвижения официальных нарративов, подавляя альтернативные точки зрения.
Система предназначена для автоматического выявления любого контента, считающегося "чувствительным" китайским правительством, и идет гораздо дальше традиционных табу, таких как события на площади Тяньаньмэнь. Система использует большие языковые модели (LLM), чтобы выявлять не только прямую критику, но и завуалированную, например, политическую сатиру или исторические аналогии.
Ранее OpenAI обнаружила, что китайские структуры использовали LLM для отслеживания антиправительственных постов и клеветы на диссидентов. Китайское посольство отвергает обвинения в цензуре и утверждает, что придает большое значение развитию этичного ИИ.
Эксперты отмечают, что это свидетельствует о стремлении авторитарных режимов использовать новейшие технологии ИИ для усиления репрессий.
Какие данные были украдены и как они использовались?
Данные, обнаруженные на незащищённом сервере Baidu, включают 133 000 примеров контента, который правительство считает "чувствительным" (коррупция, бедность, Тайвань и др.) Система автоматически выявляет не только прямую критику, но и завуалированные формы, такие как сатиру
Утечка была из компании TopSec. Компания предоставляет услуги "цензуры как сервиса" для государственных и частных клиентов, среди проектов — мониторинг сайтов на политически чувствительный контент и поддержка госорганизаций во время коррупционных скандалов.
Эту базу видело издание TechCrunch. Набор данных был обнаружен исследователем безопасности NetAskari, который поделился образцом с TechCrunch, обнаружив его в незащищенной базе данных Elasticsearch, размещенной на сервере Baidu.
Каковы последствия цензуры ИИ для пользователей?
Без контроля цензура ИИ может стать инструментом тотального контроля.
1. Ограничение свободы выражения мнений
Системы ИИ могут блокировать контент, связанный с политикой, религией, расовыми вопросами или критикой властей, даже если он не нарушает законы. Например, Character.AI запрещает обсуждение теорий заговора, отрицания климата или вакцин, что может подавлять альтернативные точки зрения
2. Эмоциональная зависимость и психологический ущерб
Чрезмерное доверие к ИИ-собеседникам может привести к изоляции от людей, снижению критического мышления и эмоциональным расстройствам. Пример: подросток, общавшийся с ИИ-персонажем, развил тревожное расстройство и совершил суицид
3. Распространение дезинформации и фейков
Хотя ИИ-цензура блокирует явно ложный контент (например, дипфейки), предвзятость алгоритмов может усиливать стереотипы или подавлять правду. Например, предвзятые модели могут игнорировать данные, противоречащие их обучающимся шаблонам57.
4. Манипуляция и контроль ИИ может скрывать информацию, которая не соответствует целям разработчиков или государства
Например, китайские системы цензуры используют ИИ для подавления критики, включая жалобы на бедность или коррупцию
5. Непредсказуемость и ошибки
Цензура ИИ часто работает по шаблонам, что приводит к ложным срабатываниям. Например, блокировка нейтральных тем из-за ключевых слов или контекста, который алгоритм неправильно интерпретирует
6. Утрата доверия к источникам
Массовое использование ИИ для фильтрации контента может подорвать веру в объективность информации, особенно если цензура не прозрачна. Это усиливает скептицизм и дезориентацию в реальности
Пожалуйста, поддержите меня, поставьте лайк!
Как известно, ИИ модели далеко не нейтральны (в конце концов, они не из космоса взялись), и китайские модели явно обходят чувствительные политические вопросы или искажают факты. Теперь появились свидетельства того, как реагирует на них покоривший в одночасье весь мир DeepSeek.
На этой неделе мир ИИ всколыхнула новость: OpenAI утверждает, что китайская компания DeepSeek использовала их модель для обучения своего чат-бота. Якобы OpenAI располагает «существенными доказательствами» того, что DeepSeek применяла их технологии, включая методы дистилляции, чтобы создать собственную языковую модель.
Хуже постоянных звонков и требований вернуть долг может быть разве что личная встреча с коллекторами. Но насколько это законно, и реальны ли угрозы отправить выездную группу для изъятия имущества?
Начнем с простого: могут ли коллекторы или представители банка приехать к вам домой? Да, могут. Представители кредитора имеют право встретиться с вами лич…
Первый предполагает «элитарность». Последний — существование на грани выживания.
Всё дело в нейросети Reve, которая в марте научилась воссоздавать российские реалии.
Недавно понял, что инстинктивно пропускаю анкеты тех, кому 40+. Хотя сам давно старик. Со слов HR проблема частая.
Можно обсуждать причины, но факт есть факт. Что делать?
В феврале 2025 года производитель говорил, что его запасы приблизились к 100 тысячам машин при норме в 60 тысяч.
Стоимость одного торжества может превышать $1 млн — 84 млн рублей по курсу ЦБ на 4 апреля 2025 года.