Алгоритмическое управление численностью персонала: тренды, подходы и реальные кейсы. Протокол чёрный ящик. ИИ для сокращения.
Современные компании всё активнее внедряют алгоритмические системы управления кадрами, рассчитывая на «объективность» и эффективность ИИ. Такие системы собирают детальные цифровые данные о сотрудниках – от активности в Jira и Slack до анализа речи на Zoom-конференциях – и выносят кадровые решения «чёрным ящиком», снимая личную ответственность руководителей.
Исследования подтверждают, что подобные практики кардинально меняют рабочую среду: с одной стороны, обещая рост эффективности, с другой – вызывая рост выгорания и тревоги среди сотрудников. Таким образом, за лозунгом «всё по цифрам» может скрываться глубокая деморализация команды.
Протокол «чёрный ящик»: перевод ответственности на ИИ
Чтобы снять ответственность с менеджеров и избавиться от субъективности, компании применяют схему «чёрного ящика», где руководитель лишь задаёт правила, а за решения отвечает ИИ. Типичный процесс выглядит следующим образом:
Шаг 1 – Data Lake ИИ подключается ко всем сервисам компании (Jira, Slack, Zoom, Office 365 и т.д.) и агрегирует поведение и результаты сотрудников. Эффективность оценивается не по ощущениям менеджера, а по «цифровому следу» каждого человека.
Шаг 2 – Базовое нормирование (Baseline) Алгоритм вычисляет средний KPI или «среднюю продуктивность» по команде. Всё, что отклоняется ниже медианы более чем на установленный процент, попадает в зону риска. Это создаёт конкуренцию между сотрудниками, а не с планом работы.
Шаг 3 – Коэффициент ценности (Value Score) Каждому работнику ежедневно присваивается некий общий балл (например, от 0 до 100) по закрытой формуле. Сотрудники не знают, какие именно параметры влияют на их балл – таким образом избегается «накрутка» показателей.
Шаг 4 – Автоувольнение (Kill Switch) Если оценка сотрудника падает ниже порога (например, 35/100) несколько месяцев подряд, система автоматически генерирует уведомление об увольнении, одновременно блокируя корпоративные аккаунты.
В таких системах руководитель выступает лишь в роли наблюдателя: все решения принимает безликий алгоритм.
Метрики работы через призму ИИ
ИИ-системы оценивают сотрудников по сложным комбинированным метрикам, которые условно делятся на «примитивные» количественные параметры и «продвинутые» интеллектуальные метрики.
Таким образом формируется комплексный «индекс эффективности»: сотрудник становится лишь суммой цифровых показателей.
Прозрачности в подобных системах нет. Сотрудник видит лишь «тепловую карту» своей активности и абстрактные диаграм
мы, однако точные алгоритмы принятия решений не раскрываются.
Психологические ходы и PR: «обвинить можно только ИИ»
Ключевым элементом схемы является полное деперсонифицирование процесса увольнения.
- Деперсонификация процесса Уведомления об увольнении исходят с безличных адресов. В письмах отсутствуют имена HR или пояснения – только графики падения продуктивности.
- Миф об объективности Внутри компании транслируется нарратив: «система показывает отрицательный ROI, и мы вынуждены освободить ресурсы», что полностью снимает вину с руководства.
- Анонимизированный профиль При попытке выяснить причину сотруднику демонстрируют «тепловую карту активности» и сравнение с неким «идеальным профилем».
Плюсы для бизнеса и критерии сокращения
Сторонники алгоритмического управления персоналом выделяют несколько ключевых выгод для бизнеса:
- Снижение ФОТ Алгоритм позволяет оправдывать массовые увольнения (10–20% штата) без обвинений в произволе.
- Борьба с «тихим увольнением» Система выявляет сотрудников, которые формально находятся «онлайн», но не демонстрируют реальных результатов.
- Исключение кумовства Алгоритму безразличны личные связи, симпатии и неформальные договорённости.
- Критерии увольнения Приоритет на сокращение получают так называемые «Имитаторы», «Токсичные активы» и «Устаревшие кадры», не использующие новые инструменты и подходы.
Реальные кейсы увольнений по алгоритму
Заключение
Алгоритмическое управление персоналом – это новый виток развития корпоративных технологий. С одной стороны, компании видят в нём способ устранить субъективные «человеческие» ошибки и существенно сократить фонд оплаты труда. С другой – он порождает серьёзную этическую дилемму: готовы ли мы оставить судьбу людей на откуп «чёрного ящика»?
Практика показывает, что большинство организаций используют ИИ прежде всего как инструмент оптимизации, зачастую умалчивая о его рисках. В перспективе компании могут столкнуться с ростом внутреннего недовольства и юридическими претензиями, поскольку формулировки вроде «невовлечённость» или «ниже медианы» не закреплены в трудовом законодательстве.