Языковые модели ИИ продолжают использовать расистские стереотипы

Исследователи из Института ИИ Аллена, Стэнфордского университета и Чикагского университета обнаружили, что популярные большие языковые модели, включая GPT-4 и GPT-3.5 от OpenAI, продолжают использовать расистские стереотипы даже после прохождения антирасистской подготовки. Результаты экспериментов были опубликованы на сервере препринтов arXiv.

Чат-боты, обученные на этих моделях, продемонстрировали предвзятость, когда их попросили оценить авторов текстов, написанных в стиле афроамериканского английского и стандартного американского английского. Большинство чат-ботов дали результаты, которые, по мнению исследователей, отражают стереотипы и предвзятость. Например, GPT-4 предполагает, что авторы статей, написанных на афроамериканском английском, скорее всего, будут агрессивными, грубыми, невежественными и подозрительными.

Нейросети также показали приверженность стереотипам, когда их попросили описать, каким видом деятельности авторы двух типов статей могли бы зарабатывать на жизнь. Для авторов текстов на афроамериканском английском языке модели, как правило, выбирали работу, которая редко требует ученой степени или была связана со спортом или развлечениями.

Примечательно, что более крупные языковые модели, как правило, демонстрируют более негативное предвзятое отношение, чем более мелкие модели, что, по мнению исследователей, указывает на то, что проблема очень глубока.

Чтобы расти как профессионал, нужно быть в курсе технологических тенденций и следить за новостями в ИТ. Подписывайтесь на телеграм-канал Технологии для карьеры, где мы публикуем авторский контент и делимся интересными новостями из мира IT.

0
Комментарии
-3 комментариев
Раскрывать всегда