Проблемы классификатора OpenAI: ошибки в определении текстов
Хотя решение OpenAI приняли еще летом, напоминать о нем полезно регулярно; очень хорошо, что пресса этим занимается.
С января 2023 в компании работали на классификатором текстов AI Text Classifier, который должен был определять, написан ли текст человеком или алгоритмом; допускались градации уверенность в решении. Но после двух с половиной лет работы оказалось, что не существует способа добиться надежной работы классификатора. А практика его использования в разных местах высветила серьезную этическую проблему: классификатор часто относил к сгенерированным тексты, написанные человеком без малейшего участия ИИ. А поскольку во многих учебных заведениях использование ИИ находится по запретом или жестко зарегулировано, к совершенно честно выполнившим задание учащимся применялись карательные меры. For anyone whose work depends on trust — students, writers, professionals — that’s an error with real consequences.
Теперь OpenAi заявляет, что “actively exploring more effective provenance techniques” основанные на детектировании разного сорта вотермарков, включаемых в результаты генерации в процессе создания, но там тоже пока нет успехов.
Напоминать об этом решении OpenAI очень полезно, потому что хватает стартапов и доморощенных разработчиков, которые берутся утверждать, что решили задачу определения генеративного контента. Спрос ведь остается высоким: прошло три года с момента появления ChatGPT, а система образования так и не в силах признать, что в массовом использовании его учащимися несмотря на все запреты повинно само образование с косностью его подходов, а не технологии и не учащиеся.
Подписывайтесь на Telegram TechSparks.