Как искусственный интеллект дискриминирует кандидатов и на ком лежит ответственность

Сейчас на зарубежных порталах всё чаще вирусятся темы, где ИИ обвиняют в дискриминации кандидатов — по расовому признаку, полу и возрасту. Например:

  • Amazon закрыла внутренний инструмент для оценки резюме после того, как выяснилось, что он занижал рейтинг кандидаток только из-за упоминаний «женских колледжей» или «women’s club» в резюме.
  • iTutorGroup в США автоматически отказывала женщинам старше 55 лет и мужчинам старше 60. В итоге компания заплатила компенсацию и пересмотрела процессы найма.
  • Владельцы Нельзяграма столкнулась с судебными исками из-за того, что алгоритмы рекламы вакансий сами решали, кому их показывать, и системно уводили объявления от женщин и представителей меньшинств.

Но больше всего зацепило недавнее судебное разбирательство.

Предвзятость алгоритма стала причиной иска

Федеральный суд США рассматривает дело Mobley против Workday. Истцы утверждают, что технология скрининга HRTech-решения Workday отсеивала возрастных кандидатов по сотням заявок — зачастую за минуты, ещё до участия человека.

В 2025 году ИИ встроен во все этапы найма: 87% работодателей в США используют его для оценки кандидатов. Но законы не успевают за скоростью автоматизации. Дело поставило перед судами новый вопрос:

Если алгоритм определяет результаты трудоустройства, можно ли привлечь к ответственности не только работодателя, но и создателя системы?

В чём обвиняют Workday

Дерек Мобли, опытный специалист с дипломом колледжа Морхаус и стажем в финансах, IT и клиентском сервисе, подал более 100 заявок через платформу Workday. Его отклоняли каждый раз — часто за минуты, иногда среди ночи, без единого интервью.

К делу присоединились ещё 4 истца старше 40 лет. Они описывают похожие автоматические отказы.

Суть иска — disparate impact: даже если система не имела намерения дискриминировать, её алгоритмы фактически исключали возрастных кандидатов.

Workday утверждает, что отвечает лишь за платформу, а решения принимают клиенты. Но суд посчитал иначе: дело продолжается как коллективный иск, и обвинения в системной дискриминации остаются в силе.

Почему это важно для России

Я наблюдаю похожие истории и у нас. Российские кандидаты постоянно жалуются на моментальные отказы после отклика на джоб-бордах.

Почему так происходит:

Джоб-борды дают клиентам доступ к API: с его помощью можно автоматизировать проверку резюме по ключевым словам и параметрам. Формально сортировка по полу и возрасту запрещена, но технически реализуема.

Кто несёт ответственность?

Я задал этот вопрос нашему CPO, Стасу Субботину. Делюсь его ключевыми мыслями:

  • Большие языковые модели обучаются на корпусах языка. Их чистота и объективность — зона ответственности разработчиков. Модель должна быть нейтральной к расе, полу и политике.
  • Модель можно дообучить под задачи заказчика. В таком случае именно заказчик отвечает за результат.
  • Модель реагирует на промпты. Если в запросе указать «отсеивать кандидатов после 30», возникает вопрос: должна ли система следовать инструкции или отказаться? Разработчики уже создают «гардрейлы» — механизмы, которые блокируют ответы по темам терроризма или ненависти. В найме должны быть такие же ограничения, чтобы ИИ не дискриминировал кандидатов по полу, возрасту и другим параметрам.

Мы в Подборе и Щавеле уверены: ответственность должна быть разделённой. И вендоры, и клиенты обязаны контролировать, как технологии влияют на рынок труда.

В наших продуктах мы выступаем как промпт-инженеры и составители корпуса для обучения модели. Мы оцениваем навыки кандидата независимо от его возраста и пола.

Напишите в комментариях, сталкивались ли вы или ваши кандидаты с подобными ситуациями. И кто, по вашему мнению, должен нести ответственность за дискриминацию?

2 комментария