Как искусственный интеллект дискриминирует кандидатов и на ком лежит ответственность
Сейчас на зарубежных порталах всё чаще вирусятся темы, где ИИ обвиняют в дискриминации кандидатов — по расовому признаку, полу и возрасту. Например:
- Amazon закрыла внутренний инструмент для оценки резюме после того, как выяснилось, что он занижал рейтинг кандидаток только из-за упоминаний «женских колледжей» или «women’s club» в резюме.
- iTutorGroup в США автоматически отказывала женщинам старше 55 лет и мужчинам старше 60. В итоге компания заплатила компенсацию и пересмотрела процессы найма.
- Владельцы Нельзяграма столкнулась с судебными исками из-за того, что алгоритмы рекламы вакансий сами решали, кому их показывать, и системно уводили объявления от женщин и представителей меньшинств.
Но больше всего зацепило недавнее судебное разбирательство.
Предвзятость алгоритма стала причиной иска
Федеральный суд США рассматривает дело Mobley против Workday. Истцы утверждают, что технология скрининга HRTech-решения Workday отсеивала возрастных кандидатов по сотням заявок — зачастую за минуты, ещё до участия человека.
В 2025 году ИИ встроен во все этапы найма: 87% работодателей в США используют его для оценки кандидатов. Но законы не успевают за скоростью автоматизации. Дело поставило перед судами новый вопрос:
Если алгоритм определяет результаты трудоустройства, можно ли привлечь к ответственности не только работодателя, но и создателя системы?
В чём обвиняют Workday
Дерек Мобли, опытный специалист с дипломом колледжа Морхаус и стажем в финансах, IT и клиентском сервисе, подал более 100 заявок через платформу Workday. Его отклоняли каждый раз — часто за минуты, иногда среди ночи, без единого интервью.
К делу присоединились ещё 4 истца старше 40 лет. Они описывают похожие автоматические отказы.
Суть иска — disparate impact: даже если система не имела намерения дискриминировать, её алгоритмы фактически исключали возрастных кандидатов.
Workday утверждает, что отвечает лишь за платформу, а решения принимают клиенты. Но суд посчитал иначе: дело продолжается как коллективный иск, и обвинения в системной дискриминации остаются в силе.
Почему это важно для России
Я наблюдаю похожие истории и у нас. Российские кандидаты постоянно жалуются на моментальные отказы после отклика на джоб-бордах.
Почему так происходит:
Джоб-борды дают клиентам доступ к API: с его помощью можно автоматизировать проверку резюме по ключевым словам и параметрам. Формально сортировка по полу и возрасту запрещена, но технически реализуема.
Кто несёт ответственность?
Я задал этот вопрос нашему CPO, Стасу Субботину. Делюсь его ключевыми мыслями:
- Большие языковые модели обучаются на корпусах языка. Их чистота и объективность — зона ответственности разработчиков. Модель должна быть нейтральной к расе, полу и политике.
- Модель можно дообучить под задачи заказчика. В таком случае именно заказчик отвечает за результат.
- Модель реагирует на промпты. Если в запросе указать «отсеивать кандидатов после 30», возникает вопрос: должна ли система следовать инструкции или отказаться? Разработчики уже создают «гардрейлы» — механизмы, которые блокируют ответы по темам терроризма или ненависти. В найме должны быть такие же ограничения, чтобы ИИ не дискриминировал кандидатов по полу, возрасту и другим параметрам.
Мы в Подборе и Щавеле уверены: ответственность должна быть разделённой. И вендоры, и клиенты обязаны контролировать, как технологии влияют на рынок труда.
В наших продуктах мы выступаем как промпт-инженеры и составители корпуса для обучения модели. Мы оцениваем навыки кандидата независимо от его возраста и пола.
Напишите в комментариях, сталкивались ли вы или ваши кандидаты с подобными ситуациями. И кто, по вашему мнению, должен нести ответственность за дискриминацию?