Эпоха Shadow AI: почему сотрудники не ждут разрешения на использование нейросетей
Сегодня российский корпоративный сектор активно применяет ИИ. По данным CNews, около 40% компаний задействует машинный интеллект для решения ежедневных задач. При этом, сотрудники часто делают это в обход корпоративных правил, создавая значительные риски информационной безопасности.
Мы все сегодня становимся свидетелями того, как в корпоративном секторе к проблеме Shadow IT (неавторизованное использование сотрудниками ПО, оборудования и облачных сервисов без контроля и ведома ИБ-подразделения) добавилось (а кое-где и выросло до серьезных масштабов) Shadow AI.
На практике это означает, что сотрудники массово несут корпоративные данные в публичные нейросети. Чаще всего они хотят работать эффективнее, выполнять задачи быстрее (пишут письма заказчикам, тексты презентаций, новости на сайт, коммерческие предложения, делают «выжимки» из отчетов, а также создают небольшие чат-боты, инструменты для работы и т.д.). Конечно, таким образом многие часы сокращают до нескольких минут. Но на практике это создает головную боль для служб ИБ.
Какие инструменты используются (Топ Shadow AI)
Чаще всего сотрудники применяют общедоступные версии популярных сервисов, регистрируясь через личные почтовые ящики:
- Генерация текста и кода: обычно это ChatGPT (OpenAI), DeepSeek, Gemini (Google), встречается и Claude (Anthropic). Разработчики часто используют GitHub Copilot (иногда покупая подписку самостоятельно);
- Перевод и редактура: DeepL и Grammarly (для проверки английского);
- Работа с документами: сервисы вроде ChatPDF или плагины для браузеров, которые «читают» и делают саммари больших отчетов;
- Встречи и созвоны: это боты, такие как Otter.ai, MyMeet.ai, Fireflies.ai — созданные для того, чтобы «сидеть» на созвонах онлайн, записывать их и делать расшифровку (транскрибацию).
Зачем это сотрудникам
Мотивация проста: скорость и снятие рутины. Сотрудники используют AI, чтобы:
- Быстро написать или переписать письмо («сделай более вежливо/официально»)
- Написать Excel-формулу или SQL-запрос, не гугля документацию полчаса
- Сократить длинную переписку, документацию, выделить главное из отчета, технического задания
- Сделать «черновик» презентации или отчета
- Перевести документы, тексты
Главное преимущество в том, что с AI сотрудник делает за 15 минут то, на что раньше уходил час. Это снижает выгорание от механической работы.
Проблемы и риски для бизнеса
Главная проблема — утечка данных. Публичные модели (бесплатные версии ChatGPT и др.) по умолчанию могут использовать данные из диалогов для дообучения своих моделей. Вот основные риски, которые несет с собой Shadow ИИ:
- Утечка коммерческой тайны: сотрудник загружает в чат-бот стратегию продаж или финансовый отчет с просьбой «проанализируй», а потом эти данные уходят на серверы вендора;
- Утечка ПДн (персональных данных): HR загружает резюме кандидатов, юрист — договоры с фамилиями клиентов;
- Галлюцинации и ошибки: иногда персонал слепо доверяет ответу AI, не проверяя его, что нередко приводит к ошибкам в коде или юридически неверным формулировкам в письмах;
- Проблемы с авторством: до сих пор вопрос авторства кода или текстов, созданных AI, находится в серой зоне.
Кейс
Самый громкий кейс произошел с Samsung в 2023 году. Инженеры компании загрузили исходный код проприетарного ПО в ChatGPT для поиска багов и оптимизации, а также протоколы совещаний. Фактически, секретные данные утекли в OpenAI. После этого Samsung временно запретил использование генеративного ИИ на корпоративных устройствах.
Варианты регулирования
Регулированием Shadow ИИ российские компании пока занимаются слабо. Крупные стараются управлять процессом, оплачивая Enterprise-версии (например, ChatGPT Enterprise или Microsoft Copilot), в которых галочка «обучение на данных пользователя» отключена юридически, т.е. информация не покидает периметр организации.
Есть и те, кто запрещает, но это не особо эффективно. Также стараются рекомендовать для конкретных задач определенные ИИ, а для каких-то запрещать полностью (финансовые данные, сведения о контрагентах и партнерах и т.д.). В крупных банках, например, блокируют доступ к доменам OpenAI, Midjourney и др. на уровне корпоративного прокси. Но это никак не защищает от того, что персонал открывает тот же ChatGPT на личном смартфоне и перепечатывает/фотографирует данные.
Можно также использовать для снижения рисков подход, называемый Светофором. В соответствии с ним, вся информация делится на категории:
- Красная зона: запрещено загружать персданные, финансовые показатели, код ядра, пароли;
- Желтая зона: можно использовать для генерации идей, драфтов писем, перевода обезличенных текстов;
- Зеленая зона: внутренние, развернутые on-premise модели (например, Llama 3 на своих серверах).
Прогноз
Бороться с Shadow AI запретами бесполезно. Скорее всего, со временем организации пойдут по пути, аналогичному легализации персональных мобильных устройств и введут новую концепцию BYOAI (Bring Your Own AI), но с жесткими политиками DLP (систем предотвращения утечек информации). DLP-системы научатся распознавать, когда сотрудник пытается вставить в форму ChatGPT конфиденциальный документ, и будут блокировать это действие.
Также можно ожидать, что компании будут создавать свои корпоративные ИИ (например, как обертку над API OpenAI или локальную модель), чтобы дать сотрудникам безопасную альтернативу.
В любом случае, если не предоставить сотрудникам безопасный и легальный инструмент, они будут использовать небезопасный, потому что вкус кратного роста продуктивности они уже почувствовали.