{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

OpenAI использовали кенийских рабочих, для фильтрации потенциально опасного контента в ChatGPT

В опубликованном в среду расследовании Time сообщается, что OpenAI, компания, стоящая за ChatGPT, платила кенийским работникам менее 2 долларов в час за то, что они просеивали десятки тысяч строк текста, чтобы сделать чат-бота более безопасным для использования.
Перед работниками была поставлена задача маркировать и отфильтровывать токсичные данные из обучающего набора данных ChatGPT, их заставляли читать графические детали контента, такие как сексуальное насилие над детьми, скотоложество, убийство, самоубийство, пытки, членовредительство и инцест, сообщает Time.
Популярность ChatGPT резко возросла после того, как в конце ноября OpenAI запустила чат-бота на основе машинного обучения. Миллионы людей были впечатлены продвинутыми навыками письма и использовали приложение для самых разных целей, от написания новостных статей до сценариев к фильмам.

Но бот не всегда был таким красноречивым. Его предшественник, GPT-3, часто выдавал сексистские, насильственные и расистские тексты, поскольку модель обучалась на наборе данных, который был взят из миллиардов интернет-страниц. Чтобы запустить ChatGPT, OpenAI нужно было найти способ быстро отфильтровать все токсичные высказывания из своей базы данных.

OpenAI сотрудничает с компанией Sama, партнером по маркировке данных из Сан-Франциско, который утверждает, что предоставляет развивающимся странам "этичную" и "достойную цифровую работу", для обнаружения и маркировки токсичного контента, который может быть использован в качестве данных для фильтрации ChatGPT. Sama наняла специалистов по маркировке данных в Кении для работы от имени OpenAI, сыграв важную роль в обеспечении безопасности чатбота для публичного использования.

Несмотря на их неотъемлемую роль в создании ChatGPT, работники сталкивались с изнурительными условиями и низкой оплатой труда. Один кенийский рабочий, который отвечал за чтение и маркировку текста для OpenAI, рассказал TIME, что "он страдал от повторяющихся видений после прочтения графического описания секса мужчины с собакой в присутствии маленького ребенка".

Работники получали зарплату от 1,32 до 2 долларов в час в зависимости от стажа и результатов работы.

Теперь многие эксперты в области ИИ хотят привлечь внимание к человеческому труду, который лежит в основе систем машинного обучения, чтобы меньше внимания уделять инновациям, а больше - тому, как этично включить людей в процесс.

Это включает в себя обеспечение большей прозрачности в отношении людей, улучшение условий труда и создание возможностей для работников, помимо маркировки и модерации данных.

Эксплуатация работников при создании ChatGPT напоминает нам о том, как далек этот инструмент от волшебства, и просит нас пересмотреть, насколько сильно мы должны восхвалять данные инновации.

0
1 комментарий
Nakatomi

У корпораций ничего не меняется , раньше использовали рабский труд для пошива одежды , теперь делают это в сфере IT

Ответить
Развернуть ветку
-2 комментариев
Раскрывать всегда