Нейросети и личные данные: как обезопасить себя?
Недавно дочитала книгу «Сценарии будущего» Руслана Юсуфова — местами прямо мурашки по коже. Книга описывает вполне реальные сценарии развития технологий: слежку, манипуляции, утечку данных и управление людьми с помощью алгоритмов. И это не фантастика, а логичная цепочка, основанная на сегодняшних трендах.
И сразу вспоминается, как мы сами, «играясь» с нейросетями, порой забываем о цифровой гигиене. Загружаем личные или коммерческие данные без лишних раздумий — а потом удивляемся, когда всё это внезапно всплывает в общей базе изображений.
Пример из Sora
Sora — это платформа для создания видео (а теперь ещё и изображений). По умолчанию она включает две функции:
- Публичная лента: ваши публикации (фото, видео) автоматически попадают в общий «каталог».
- Дообучение модели: сгенерированные данные могут использоваться для улучшения алгоритма.
Если вы не отключите эти опции, любой эксперимент с брендом, аватаром или заказчиком может внезапно оказаться у всех на виду.
Как отключить
- Перейдите в «Общие настройки» (Settings).
- Найдите «Опубликовать для изучения» и «Улучшайте модель для всех».
- Снимите оба ползунка, чтобы скрыть ваши генерации и исключить их из обучения.
Это особенно важно, если вы создаёте коммерческие материалы или конфиденциальные макеты (например, для внутренней презентации).
ChatGPT
- В разделе «Управление данными» (Настройки профиля) можно отключить «Обучение модели», чтобы ваши диалоги не использовались для дообучения.
- Имеет смысл удалять истории разговоров, если в них содержится конфиденциальная информация.
По умолчанию ChatGPT может сохранять диалоги и собирать их для аналитики и улучшения качества ответов. Если речь идёт о конфиденциальных данных, лучше не загружать их в принципе — или загружать с пониманием того, что всё это может быть обработано третьими лицами.
Claude
У Claude (Anthropic) более мягкая политика конфиденциальности: они не используют ваши данные для обучения без явного разрешения. Но диалоги всё равно сохраняются, и если вы хотите удалить их из базы, лучше регулярно чистить историю.
Почему это не паранойя
Мы живём в эпоху, когда нейросети стремительно ворвались в нашу жизнь. Привычная «защита личного пространства» может легко дать сбой: ведь фото или бренд-концепт, загруженные в нейросети, могут стать частью публичного датасета.
Особенно аккуратными стоит быть, если вы:
- Создаёте видео или визуальные материалы для клиентов: логотипы, коммерческие макеты, уникальные стили.
- Создаёте тексты с личными историями, которые не должны «уйти в массы».
- Тестируете нейросети на своих аватарах или реальных фотографиях.
Что сделать прямо сейчас
- Зайдите в настройки всех основных нейросетей, которые вы используете (Sora, ChatGPT, Claude и др.).
- Отключить публичный доступ к вашим генерациям и сбор информации для обучения.
- Удалять диалоги или изображения, которые не должны «жить в сети».
- По возможности воздерживайтесь от загрузки строго конфиденциальных данных (паролей, договоров, финансовых документов).
Итог
Уже не кажется фантастикой, что наш контент может быть использован для дообучения чужих алгоритмов, а конфиденциальная идея — всплыть в общем доступе. Минимальная цифровая гигиена — например, отключение публичных режимов и функции дообучения — убережёт вас от неприятных сюрпризов.
Больше о работе с нейросетями в моем Телеграм канале.