ИИ может дискриминировать кандидатов и работников. Часть штатов запрещают такую практику

Издание WP освещает изменение законодательства во многих штатах США в части использования работодателями ИИ инструментов при принятии решений о найме или других HR решениях с персоналом. В Калифорния с октября вступили в силу новые рекомендации к закону о защите против дискриминации: кандидат и работник защищены от дискриминации вследствие применения «автоматизированных систем принятия решений». Теперь работники имеют больше возможностей бороться против использования ИИ на рабочем месте. Окружной суд рассматривает иск от 2023 года об использовании ИИ инструмента отбора резюме Workday. Адвокат потерпевшего: все больше штатов стараются принять новое законодательство о дискриминации с помощью ИИ, и исход иска в Калифорния может определить, как суды будут принимать решения по аналогичным кейсам. Юристы считают, что новое законодательство направлено на привлечение работодателей к ответственности за использование «черного ящика» ИИ и необходимость открыть содержимое этого ящика. Работодатели, применяющие ИИ в HR процессах, должны доказать, что ПО протестировано на предвзятость. «Самая большая проблема для работодателей – это то, что они должны знать, во что ввязываются. Этот ИИ инструмент должен выполнять свою функцию правильно и постоянно проходить аудит».

Derek Mobley подал резюме на 80 вакансий за последние несколько лет. Каждый раз он получал отказ.

Derek – афроамериканец старше 40ка. Он рассказал, что у него появились беспокойство и депрессия, и он знает основную причину отсутствия у него предложений о работе: работодатели используют ПО Workday. В суде штата Калифорния был подан групповой иск. Истцы заявили, что ПО Workday дискриминирует их в процессе найма.

В иске от 2023 года в окружной суд штата Derek заявил, что Workday предоставляет работодателями инструмент скрининга резюме, который выдает субъективные суждения при отсмотре резюме кандидатов на работу. В иске утверждается, что Workday разрешает пред-отбор кандидатов из защищенных законом категорий. Дело находится на рассмотрении в федеральном суде. Workday заявляет, что иск – это ложь, и инструмент найма с ИИ не принимает решений о найме, и инструмент не тренировали на выявление защищенных категорий.

ИИ и автоматизированные системы все чаще становятся предметом рассмотрения штатов в делах о дискриминации работников. Калифорния – последний из штатов, принявший законодательство, позволяющее работникам оспаривать решения ИИ и автоматизированных систем. Другие штаты уже приняли аналогичные законы, например, штат Нью-Йорк, Иллинойс, Колорадо. В Колорадо новое законодательство вступает в силу со следующего года. Адвокат Derek Mobley: все больше штатов стараются принять новое законодательство, и исход дела Derek Mobley может определить, как суды будут принимать решения по аналогичным кейсам.

Michael Manoukian, партнер Lathrop GPM в офисе San Jose: «Чем больше работодатель, тем больше у него риск. Мы можем увидеть поток исков против компаний, использующих такие инструменты».

В штате Калифорния новые рекомендации о применении законодательства о борьбе с дискриминацией из-за ИИ вступили в силу в октябре.

Законодательство о защите работников от дискриминации с помощью ИИ принимается во многих штатах

Многие штаты защищают работников от харассмента и дискриминации на рабочем месте. Здесь имеется ввиду дискриминация на основе расы, цвета кожи, инвалидности, религии, пола или сексуальной ориентации. Новые рекомендации в Калифорния уточняют, что кандидат и работник защищены от дискриминации вследствие применения «автоматизированных систем принятия решений». Подразумевается, что это любая система с применением ИИ, алгоритмов машинного обучения, статистики или других инструментов обработки данных, которые принимают решение или способствуют принятию решения человеком.

Michael Manoukian: «Существует огромное количество инструментов, которые используют работодатели в течении всего жизненного цикла работника в организации: найм, адаптация, оценка, увольнение, расторжение трудового договора. Юридическая система пытается догнать компании, которые используют эти инструменты».

Юридическая фирма Saul Ewing: Департамент гражданских прав штата Калифорния ввел эти рекомендации, так как ИИ и другие автоматизированные системы принятия решений все больше используются в трудовых отношениях для принятия решений. Эти системы могут «усилить существующие предрассудки».

Alexander Reich, партнер Saul Ewing в Чикаго: «Законодательство пытается внести больше решений человека в процесс найма. ИИ и системы трекинга могут помочь повысить производительность, но они могут и усилить дискриминацию».

Регулирование, принятое в Калифорнии, Нью-Йорке и Колорадо может дать работникам больше переговорной силы с работодателями, если они подозревают дискриминацию при использовании ПО.

Alexander Reich: кандидаты и работники в Калифорнии, которые считают, что с ними обошлись несправедливо из-за использования автоматизированных систем принятия решений, могут заполнить заявку в Департаменте гражданских прав и также потребовать работодателя предоставить документы. Государственная служба рассмотрит заявку и примет решение о начале расследования.

Адвокат Derek Mobley: в этой сфере много «серых пятен», которые выплывут в суде

Например, будут точно споры о том, что считать автоматизированной системой принятия решений, какие данные должны быть сохранены, если речь идет о предвзятости ИИ, как сотрудник может доказать дискриминацию, как работодатель может защищаться. Alexander Reich: если средний менеджмент использует ИИ для оценки сотрудников, то какой негативный эффект это оказывает, и какие основания у сотрудника подозревать, что такая практика незаконна и его дискриминирует.

Компании будут нести ответственность за использование ИИ в решениях, связанных с персоналом

Работники должны представить достаточно доказательств для начала расследования. Если они это сделают, то для неподготовленного работодателя это будет означать большие проблемы.

Michael Manoukian: «Если работник считает, что это незаконно, то работодатель должен себя защитить».

Компании, использующие автоматические системы принятия решений хотя бы в части своих HR процессов должны хранить все записи, привлекать третьих партнеров, регулярно аудировать свои инструменты и понимать, как работает проприетарное ПО и лицензии.

Alexander Reich: «Самая большая проблема в том, что работодатель должен знать, во что они ввязываются. Этот инструмент должен выполнять свою функцию правильно и постоянно проходить аудит».

Это означает, что работодатель должен проводить аудит всего ПО, который находится в использовании, проверить, что вендоры проверили ПО на ИИ предвзятость. Также в договорах с поставщиком ПО должна быть прописана ответственность за нарушение нового законодательства. ПО должно быть протестировано на предмет наличия каких-либо эффектов, указанных в законе, перед тем как внедрить его на рабочих местах.

Юристы: новое законодательство направлено на привлечение работодателей к ответственности за использование «черного ящика» ИИ и необходимость открыть этот ящик

Scott Jang, партнер юридической фирмы Jackson Lewis из Сан-Франциско: «Законодательство признает тот факт, что ИИ сегодня – это черный ящик. Законодатели давят на работодателей и требуют их взять на себя ответственность раскрыть, что находится в этом черном ящике».

Работодатели также должны предоставить четкую документацию всех решений по персоналу за последние четыре года. Если такой документации нет, то компании должны создать и четко сообщить применяемые ИИ политики.

Хотя ИИ вызывает наибольшее беспокойство, работодатели не должны упускать из виду другие автоматизированные системы принятия решений, например, приложения по отслеживанию заявок кандидатами. Эти приложения также могут основываться на предвзятостях. Alexander Reich: например, работодатель может использовать фильтр, чтобы отсеивать большой пул кандидатов и исключить беременных женщин.

Юристы: любые фильтры в автоматизированных системах принятия решений в части персонала- риск предвзятости

Alexander Reich: «Я бы с осторожностью относился к использованию любых фильтров, если компания передает принятие решений ПО. Необходимо проверить, что не возникнет непредсказуемых последствий в виде исключения из пула определенной категории людей».

В своем иске Derek Mobley надеется получить возмещение по зар.плате и другого ущерба, которые возникли из-за дискриминации. Он также рассчитывает, что Workday изменят и исключат повторения этой практики. ИИ система Workday и средства скрининга основываются на алгоритмах и вводе данных от людей, которые часто предвзяты. Суд в 2024 году отклонил жалобу Derek, что Workday «намеренно дискриминировала его». В 2025 году суд выдал предварительное разрешение на коллективный иск от физических лиц, затронутых этой практикой.

Иск: инструменты подобные Workday «позволяют работодателям намеренно или ненамеренно дискриминировать физических лиц по расе и/или инвалидности при принятии решений о найме. Нет никакой бизнес потребности в такой практике».

Ссылка на статью:

Начать дискуссию