Новый инструмент от OpenAI заставит студентов вновь писать работы самостоятельно?

Более половины студентов использует ChatGPT, что становится проблемой для преподавателей и отражается на качестве образования. В OpenAI недавно заявили, что разработали методику, которая позволяет с точностью 99,9% распознать использование ИИ. Однако многие специалисты скептически относятся к новому продукту.

Железо пишет

Согласно исследованию Стэнфордского университета, до 70% студентов используют ИИ для выполнения своих работ. Вернее сказать: поручают ChatGPT выполнение заданий. Да, генеративные сети не совершенны, и могут допускать ошибки, но студенту который не идет на красный диплом, куда проще сдать работу чат-бота, пусть и с ошибками, но зато “на троечку”.

Если еще 5-10 лет назад главной проблемой был плагиат, то теперь генеративные нейросети могут создавать уникальный контент, а распознать кто это написал: человек или машина, становится все сложней.

Факты - вещь упрямая

Над проблемой работает масса компаний и периодически выходят громкие заявления о ее решении. Однако “воз и ныне там”. Теперь и в OpenAI заявили о появлении некой методики с результативностью почти 100%.

Впрочем, эффективность нового инструмента сразу вызвала сомнения. Потому как OpenAI не раскрывает на каких принципах основывается процесс определения авторства.

При этом, специалисты уверены, что эти принципы не базируются на определении фактологических ошибок. Известно, что все генеративные нейросети грешат фабрикацией данных, а именно фактчекинг - основная проблема студенческих работ выполненных с помощью ChatGPT.

Водяные знаки

Впрочем, на своем портале OpenAI приоткрывает завесу тайны новой модели, утверждая, что проводит анализ контента используя: классификаторы, водяные знаки и метаданные для обнаружения продуктов, созданных ИИ. Однако, если с классификаторами и метаданными более-менее понятно, то что такое водяные знаки в цифровом выражении и как они функционируют не расшифровывается.

Допустим, нейросеть может эффективно определять рерайт, но как быть с переведенным текстом? Тут сложнее. Причем самое интересное, что нейросеть одного разработчика не может эффективно определять работу другого. Например, если студент поручает выполнение работы Perplexity, то модель OpenAI вряд ли определит ее как продукт нейросети.

Об этом написал пользователь на Reddit:

Вы можете просто скопировать текст и вставить его в другую программу, там перевести на любой другой язык, а затем сделать обратный перевод.

В общем, проявив немного усердия, студенты по-прежнему смогут выдавать работу нейросети за свою. Другое дело - будет ли она соответствовать требованиям ВУЗа, потому как от ошибок, порой нелепых, чат-боты по- прежнему не застрахованы.

Тысячелетняя борьба

Конечно, технологии развиваются и лет через 5-10 нейросети выйдут на совершенно другой уровень, но избавятся ли они от досадных ошибок? Определенно нет, потому как даже профессоры и академики порой совершают нелепые ошибки.

Да и подобие здравого смысла, который не позволит на вопрос: Сколько камней мне нужно есть? Дать ответ: по меньшей мере один маленький камень, ежедневно - Как недавно выдал ИИ–подбор в Google - у него вряд ли появится.

Борьба за чистоту обучения ведется еще со времен Древней Греции. Спустя столетия проблема никуда не делась, ну а кто из нас не пользовался шпаргалками или не списывал? :) Просто наступила другая эпоха - цифровая, и шпаргалки вышли на новый уровень.

33
Начать дискуссию