Привет! На связи WPP.DIGITAL — IT-агентство, которое создает полезные цифровые продукты. За 2024 год к нам шесть раз обращались клиенты с идеей внедрить открытый ИИ в продукт. Четверо из них не задумывались, что такая интеграция может быть небезопасной. Мы предложили им внедрить собственную LLM, взвесив все риски. Делимся этими рисками в статье.
так а что делать с сотрудниками, которые для работы нейросети используют и никого об этом не предупреждают? сейчас же каждый второй пишет письма и скармливает важную информацию, потому лень нормально формулировать мысли
Тут видим 3 пути:
1. Смириться и принять, что в цифровой век все использует нейросети и передают друг другу данные. В этой ситуации нейросеть ничем не отличается от друга, которому ваш сотрудник доверил решение части рабочей рутины или просто пришел за консультацией. Такую утечку практически невозможно контролировать;
2. Поставить белый список и блокировать доступ ко всем ресурсам, кроме избранных. Такие «драконовские» меры безопасности все равно не спасут от «слива» данных в разрешенную внутри компании нейросеть (которую используют на платной основе и официально);
3. Приставить к сотрудникам специального человека, который будет бить их за слив данных.
По-настоящему реалистичен для большинства компаний только первый вариант.
не спасет на 100% но можно делать виртуальное рабочее место на него трекер, те чтобы не копипастилось, от совсем тупых спасет, но учитывая что гптшки навострились фотки разбирать те тупо фотнуть экран с мобилы, могут вполне нафотать секреты )