OpenAI использовали кенийских рабочих, для фильтрации потенциально опасного контента в ChatGPT

OpenAI использовали кенийских рабочих, для фильтрации потенциально опасного контента в ChatGPT

В опубликованном в среду расследовании Time сообщается, что OpenAI, компания, стоящая за ChatGPT, платила кенийским работникам менее 2 долларов в час за то, что они просеивали десятки тысяч строк текста, чтобы сделать чат-бота более безопасным для использования.
Перед работниками была поставлена задача маркировать и отфильтровывать токсичные данные из обучающего набора данных ChatGPT, их заставляли читать графические детали контента, такие как сексуальное насилие над детьми, скотоложество, убийство, самоубийство, пытки, членовредительство и инцест, сообщает Time.
Популярность ChatGPT резко возросла после того, как в конце ноября OpenAI запустила чат-бота на основе машинного обучения. Миллионы людей были впечатлены продвинутыми навыками письма и использовали приложение для самых разных целей, от написания новостных статей до сценариев к фильмам.

Но бот не всегда был таким красноречивым. Его предшественник, GPT-3, часто выдавал сексистские, насильственные и расистские тексты, поскольку модель обучалась на наборе данных, который был взят из миллиардов интернет-страниц. Чтобы запустить ChatGPT, OpenAI нужно было найти способ быстро отфильтровать все токсичные высказывания из своей базы данных.

OpenAI сотрудничает с компанией Sama, партнером по маркировке данных из Сан-Франциско, который утверждает, что предоставляет развивающимся странам "этичную" и "достойную цифровую работу", для обнаружения и маркировки токсичного контента, который может быть использован в качестве данных для фильтрации ChatGPT. Sama наняла специалистов по маркировке данных в Кении для работы от имени OpenAI, сыграв важную роль в обеспечении безопасности чатбота для публичного использования.

Несмотря на их неотъемлемую роль в создании ChatGPT, работники сталкивались с изнурительными условиями и низкой оплатой труда. Один кенийский рабочий, который отвечал за чтение и маркировку текста для OpenAI, рассказал TIME, что "он страдал от повторяющихся видений после прочтения графического описания секса мужчины с собакой в присутствии маленького ребенка".

Работники получали зарплату от 1,32 до 2 долларов в час в зависимости от стажа и результатов работы.

Теперь многие эксперты в области ИИ хотят привлечь внимание к человеческому труду, который лежит в основе систем машинного обучения, чтобы меньше внимания уделять инновациям, а больше - тому, как этично включить людей в процесс.

Это включает в себя обеспечение большей прозрачности в отношении людей, улучшение условий труда и создание возможностей для работников, помимо маркировки и модерации данных.

Эксплуатация работников при создании ChatGPT напоминает нам о том, как далек этот инструмент от волшебства, и просит нас пересмотреть, насколько сильно мы должны восхвалять данные инновации.

44
1 комментарий

У корпораций ничего не меняется , раньше использовали рабский труд для пошива одежды , теперь делают это в сфере IT

1
Ответить