Нейросети и личные данные: как обезопасить себя?

Недавно дочитала книгу «Сценарии будущего» Руслана Юсуфова — местами прямо мурашки по коже. Книга описывает вполне реальные сценарии развития технологий: слежку, манипуляции, утечку данных и управление людьми с помощью алгоритмов. И это не фантастика, а логичная цепочка, основанная на сегодняшних трендах.

И сразу вспоминается, как мы сами, «играясь» с нейросетями, порой забываем о цифровой гигиене. Загружаем личные или коммерческие данные без лишних раздумий — а потом удивляемся, когда всё это внезапно всплывает в общей базе изображений.

Пример из Sora

Sora — это платформа для создания видео (а теперь ещё и изображений). По умолчанию она включает две функции:

  • Публичная лента: ваши публикации (фото, видео) автоматически попадают в общий «каталог».
  • Дообучение модели: сгенерированные данные могут использоваться для улучшения алгоритма.

Если вы не отключите эти опции, любой эксперимент с брендом, аватаром или заказчиком может внезапно оказаться у всех на виду.

Нейросети и личные данные: как обезопасить себя?

Как отключить

  1. Перейдите в «Общие настройки» (Settings).
  2. Найдите «Опубликовать для изучения» и «Улучшайте модель для всех».
  3. Снимите оба ползунка, чтобы скрыть ваши генерации и исключить их из обучения.

Это особенно важно, если вы создаёте коммерческие материалы или конфиденциальные макеты (например, для внутренней презентации).

ChatGPT

  • В разделе «Управление данными» (Настройки профиля) можно отключить «Обучение модели», чтобы ваши диалоги не использовались для дообучения.
  • Имеет смысл удалять истории разговоров, если в них содержится конфиденциальная информация.

По умолчанию ChatGPT может сохранять диалоги и собирать их для аналитики и улучшения качества ответов. Если речь идёт о конфиденциальных данных, лучше не загружать их в принципе — или загружать с пониманием того, что всё это может быть обработано третьими лицами.

Нейросети и личные данные: как обезопасить себя?

Claude

У Claude (Anthropic) более мягкая политика конфиденциальности: они не используют ваши данные для обучения без явного разрешения. Но диалоги всё равно сохраняются, и если вы хотите удалить их из базы, лучше регулярно чистить историю.

Почему это не паранойя

Мы живём в эпоху, когда нейросети стремительно ворвались в нашу жизнь. Привычная «защита личного пространства» может легко дать сбой: ведь фото или бренд-концепт, загруженные в нейросети, могут стать частью публичного датасета.

Особенно аккуратными стоит быть, если вы:

  • Создаёте видео или визуальные материалы для клиентов: логотипы, коммерческие макеты, уникальные стили.
  • Создаёте тексты с личными историями, которые не должны «уйти в массы».
  • Тестируете нейросети на своих аватарах или реальных фотографиях.

Что сделать прямо сейчас

  1. Зайдите в настройки всех основных нейросетей, которые вы используете (Sora, ChatGPT, Claude и др.).
  2. Отключить публичный доступ к вашим генерациям и сбор информации для обучения.
  3. Удалять диалоги или изображения, которые не должны «жить в сети».
  4. По возможности воздерживайтесь от загрузки строго конфиденциальных данных (паролей, договоров, финансовых документов).

Итог

Уже не кажется фантастикой, что наш контент может быть использован для дообучения чужих алгоритмов, а конфиденциальная идея — всплыть в общем доступе. Минимальная цифровая гигиена — например, отключение публичных режимов и функции дообучения — убережёт вас от неприятных сюрпризов.

Больше о работе с нейросетями в моем Телеграм канале.

Начать дискуссию