Технологии vs. безопасность: проблема доверия к ИИ
Пользуетесь нейросетями? Да конечно пользуетесь 🙂. По данным опроса, проведенного порталом Hi-Tech Mail в мае 2025, 60% россиян положительно относятся к использованию ИИ.
Многие уже привыкли по всем вопросам соваться не в Google, а в ChatGPT. Чат-боты находят нам информацию в сети, ставят диагноз по симптомам (иногда более эффективно, чем врачи) и выполняют кучу других услуг. Некоторые люди даже превратили их в своих эмоциональных партнеров.
Свыше 70% российских айтишников используют нейросети в работе не реже раза в неделю, 62% из них оценивают свой уровень доверия к ИИ как высокий.
Но готовы ли вы столкнуться с темной стороной нейросетей? А придется (скорее всего, уже не раз пришлось 😉). И с этим надо что-то делать.
Индустрия дипфейков
«Искусство по-прежнему в большом долгу» (c). Модели часто галлюцинируют, выдают желаемое за действительное и просто выдумывают данные. Увы, они умеют это делать очень убедительно — и подставляют доверившегося пользователя. Но злого умысла тут нет — всего лишь сырость технологии.
Хуже, когда ИИ сознательно используется для обмана и манипуляций. Пресса часто пишет о мошенничествах с использованием Voice cloning и росте киберпреступности. Слово «дипфейк» давно закрепилось в нашем словаре. И применение дипфейков расширяется, а выявить их оказывается весьма сложно даже с помощью нейросетей. Это вам не студента с фальшивой курсовой заловить.
Вот несколько свежих скандалов.
💥 В Великобритании адвокаты использовали в судебных процессах фальшивые дела, сфабрикованные нейросетями, и ссылались на них как на реальные прецеденты.
💥 Во время протестов в Кении летом 2024 года DFRLab выявила операцию по оказанию влияния. В соцсетях разошлись сгенерированные ИИ «фото», на которых демонстранты шли с российскими флагами, а молодые люди одного пола целовались между собой. Поднялся шум, но нашлись несколько энтузиастов, разоблачивших фейк.
💥 Обратный пример. Во время недавних беспорядков в Лос-Анджелесе нейросети провалили факт-чекинг: приняли за фейк опубликованные губернатором Калифорнии фото солдат Национальной гвардии, спящих на полу зданий, взятых ими под охрану. На самом деле фотографии реально были сделаны на месте событий репортером San Francisco Chronicle, и газета подтвердила подлинность снимков.
Тревожные тренды
KeepNet публикует пугающую статистику: в 2023 году количество инцидентов, связанных с фишингом и мошенничеством с использованием дипфейков, выросло на 3000%. Наиболее целевой сектор — онлайн-СМИ. И как видим, даже продвинутые ИИ-модели часто не могут достоверно распознать подделку или же подтвердить подлинность «абсолютно реалистичных» изображений и видео.
Развивается тенденция использования инструментов ИИ околоправительственными структурами разных стран для поддержки ИПСО в различных частях света. Можно говорить о возникновении целой индустрии, направленной на подтасовку реальности и манипуляции с сознанием.
Тренд неприятный, особенно на фоне того, что разработчики AI всё активнее внедряются в структуры власти. Например, в США OpenAI и Anthropic, которые когда-то позиционировали себя как ответственные и осторожные исследователи, теперь увеличивают персонал и бюджеты на лоббирование в Вашингтоне, добиваясь новых госконтрактов. И вообще администрация Трампа делает большую ставку на ИИ, хотя технология, как мы видим, вызывает большие вопросы.
🤷♂ ИИ — это инструмент, который едва появился, но уже угрожает выйти из-под контроля. Мы можем не заметить, как окажемся под властью одновременно Скайнета и Матрицы: жизнь в вымышленном мире, которым управляет неуправляемый ИИ. Пока процесс не зашел слишком далеко, необходимы барьеры, способные защитить человека и общество от киберунижения. Работа в этом направлении ведется, и давайте поговорим о ней.
Как защититься от фейков ИИ?
Угроза со стороны дипфейков и прочих ИИ-манипуляций заставляет искать надежные методы обнаружения сгенерированного нейросетями контента и защиты от него. Методы можно разделить на институциональные и технологические, и в первой группе ключевую роль играет концепция ответственного ИИ.
RAI (Responsible AI)
Ответственный ИИ — принцип проектирования, разработки, внедрения и управления ИИ, который защищает права человека и поддерживает принципы этики. Все участники ИИ-экосистемы должны взять на себя ответственность за соблюдение требований RAI.
Идея поддерживается правительствами и сообществом. Коалиция C2PA, куда вошли Google, Amazon, Microsoft, OpenAI и другие гиганты индустрии, установила порядок маркировки происхождения цифрового контента с помощью водяных знаков (watermarks). Метаданными маркируется как сгенерированный контент, так и подлинный (скажем, фотография в момент съемки). Это действительно может облегчить работу журналистов и экспертов.
Вводится госрегулирование, принимаются законы о безопасности ИИ, международные организации вырабатывают рамочные документы, где формулируются ключевые аспекты RAI. Действует независимый проект Independent RAI Market Research.
Но институциональный подход имеет ряд проблем:
• маркировка ИИ-контента усложнена из-за конфликта технологий и интересов разных платформ;
• водяные знаки могут быть легко удалены или использованы, чтобы пометить подлинный контент как подделку. Уже есть целый «черный рынок» таких услуг;
• RAI предполагает добрую волю участников, но злоумышленникам плевать на принципы RAI — им как раз и нужно, чтобы фейковый контент принимался за подлинный. И вскрыть их работу можно только техническими средствами.
Технологические решения
В последние годы сформировались два основных технических подхода к распознаванию лже-контента:
1 На основе происхождения — анализируются метаданные на предмет признаков манипуляции. Проверяются не только водяные знаки, но и временные метки, история редактирования и GPS-координаты.
Минусы: для получения достоверных выводов требуется доступ к подлинным образцам медиаконтента. Это может быть затруднительно, особенно когда фейки распространяются в реальном времени.
2 На основе выводов — анализируется сам медиаконтент на предмет артефактов и несоответствий. Ирония в том, что разоблачить ИИ, особенно в реальном времени, можно только с помощью ИИ.
Криптобезопасники применяют весь спектр наработок в области машинного обучения и IT.
🔸 NLP: при анализе текстовых новостей ИИ использует передовые алгоритмы обработки естественного языка, анализируя структуру текста, семантику и источник информации для выявления признаков дезинформации.
🔸 RAG: нейросети сверяют данные с надежными базами и проверенными источниками, чтобы подтвердить факты, представленные в новостях.
🔸 Компьютерное зрение: модель анализирует лицо на каждом фрейме видеозаписи и оценивает выражение лица, изменения в освещении и окклюзии (изменения цвета кожи или ее отражающей способности при движении крови по венам), из чего делает вывод о подлинности человека на видео.
🔸 Компьютерный слух: модель учитывает широкий спектр параметров человеческого голоса, от акустических до гидродинамических, которые не учитываются при обучении моделей-симуляторов. По отсутствию или искажению этих параметров на записи определяется фейк.
Некоторые исследовательские группы работают «на опережение», не только создавая механизмы выявления дипфейков, но и занимаясь их классификацией. Так возникают датасеты для обучения новых моделей борьбе с фейками.
На рынке уже представлено довольно много программ, позволяющих детектировать поддельный контент с точностью 97-98%. Но в условиях, когда дипфейк-алгоритмы свободно доступны в виде мобильных приложений и веб-сервисов, угроза исходит не столько от техники их создания, сколько от природной склонности людей верить в то, что они видят и слышат.