{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

Reuters: Amazon разработала ИИ для поиска сотрудников и отказалась от него из-за дискриминации женщин Статьи редакции

Проблема оказалась в выборке, по которой обучалась система, — большинство резюме в ней от кандидатов-мужчин.

Онлайн-ритейлер Amazon разработал алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу, но в итоге отказался от системы из-за дискриминации соискателей-женщин. Об этом пишет Reuters со ссылкой на пять источников, знакомых с деталями проекта.

По данным агентства, в 2014 году компания собрала команду разработчиков в Шотландии и поставила перед ней задачу создать программу для поиска и отбора лучших кандидатов. «В компании хотели получить инструмент, который выберет пять лучших резюме из ста, чтобы потом нанять этих людей», — рассказал один из собеседников Reuters.

Ответственная группа разработала 500 компьютерных моделей, обученных искать резюме в открытых рекрутинговых базах и отбирать лучших кандидатов на основе 50 тысяч терминов из резюме прошлых соискателей в Amazon. Искусственный интеллект оценивал кандидатов по шкале от одного до пяти.

В 2015 году разработчики заметили, что система подбирает специалистов-женщин меньше, чем мужчин. Команда объяснила это тем, что алгоритм обучался на базе, в которую вошли резюме всех сотрудников Amazon за последние десять лет. Мужчин в выборке оказалось больше, чем женщин, поэтому искусственный интеллект пришёл к выводу, что кандидаты-мужчины предпочтительнее, пишет Reuters.

Amazon отредактировала алгоритм, но корректировка не давала гарантий, что он не будет дискриминировать кандидатов по другим признакам, поэтому к началу 2017 года компания решила отказаться от использования системы.

Представитель Amazon отказался комментировать неудачный опыт создания алгоритма и заявил, что при найме сотрудников компания руководствуется в том числе принципами равенства и разнообразия.

0
186 комментариев
Написать комментарий...
Alexey Ivanov

Что проще - уберите признак пола из базы?

Ответить
Развернуть ветку
Kirill Pankin

А с чего Вы взяли, что алгоритм вообще учитывал признак пола? Скорее, учитывалась масса признаков, многие из которых косвенно связаны с полом. И вот именно тут разработчики оказались бессильны точечно откорректировать ситуацию, потому что объективная реальность имеет свойство просачиваться, как от неё не отмахивайся, а в случае с большими данными так вообще без вариантов. На вскидку, из тривиального: Женщины ходят в декрет? Ходят. Женщины обычно менее готовы к физической работе? Да. (а это ведь Amazon, они посылками и грузами занимаются) И никак это не поправишь какими-то коэффициентами. Один только вариант — тупо поставить квоты. Но тогда вся тонкая организация алгоритма идёт по одному месту.

Ответить
Развернуть ветку
Vladimir Ivanov

Ну можно просто сократить выборку. Убрать какое то количество мужчин и всё. Но мне кажется на результат это не повлияет

Ответить
Развернуть ветку
Kirill Pankin

Тогда упадёт качество кандидатов. Пат.

Ответить
Развернуть ветку
Roman Pravuk

Что-то мне подсказывает что для найма грузчиков не нуден ML.
Тут явно речь идет об IT специалистах. И да, скорее всего признак пола не учитывается, но учитывается опыт и скиллсет

Ответить
Развернуть ветку
Bulat Ziganshin

а по моему как рах ML отлаживают на такиъ массовых специальностях, где работа HR просто не окупается. так же как у Яндекса - проект яндекс.таланты

Ответить
Развернуть ветку
183 комментария
Раскрывать всегда