«Использовать ИИ, чтобы найти его же следы, — это какое-то технологическое суеверие»: Министерство науки и технологий КНР указало на ошибки ИИ-детекторов при проверке академических работ
Там говорят, что не стоит «полностью доверять» результатам нейросетей.
Источник: The Burlingame B
- В преддверии защиты дипломов Министерство науки и технологий КНР предупредило, что некоторые ИИ-детекторы могут ошибаться при проверке работ.
- Чиновники отметили неизбежность таких случаев, потому что нейросети специально «стараются писать» как люди — следуя присущей им логике изложения и «стандартам», в том числе тем, что есть и в академическом письме. В пример привели эссе вековой давности, которое, по мнению проверочных сервисов, на 60% сгенерировано ИИ.
- Некоторые китайские университеты установили «норму ИИ», о которой студенты должны сообщить при сдаче работы: сгенерированный нейросетями контент не должен превышать 20-40% от всего объёма.
- Другие чётко обозначили, когда можно использовать нейросети: например, Фуданьский университет разрешает их студентам для поиска источников, статистического анализа и помощи при написании кода. В остальном, особенно при создании исследований и дипломных работ, ИИ запрещён.
- Студенты из разных стран также жалуются на неточность ИИ-детекторов и антиплагиат-сервисов на базе нейросетей, результаты которых могут влиять на оценки и приводить к отчислению. Чтобы доказать, что они не использовали нейросети, студентам теперь приходится «документировать» ход работы: через скриншоты или запись экрана, историю правок в Google Docs или даже историю поиска браузера.
16 комментариев