«Использовать ИИ, чтобы найти его же следы, — это какое-то технологическое суеверие»: Министерство науки и технологий КНР указало на ошибки ИИ-детекторов при проверке академических работ

Там говорят, что не стоит «полностью доверять» результатам нейросетей.

Источник: The Burlingame B
Источник: The Burlingame B
  • В преддверии защиты дипломов Министерство науки и технологий КНР предупредило, что некоторые ИИ-детекторы могут ошибаться при проверке работ.
  • Чиновники отметили неизбежность таких случаев, потому что нейросети специально «стараются писать» как люди — следуя присущей им логике изложения и «стандартам», в том числе тем, что есть и в академическом письме. В пример привели эссе вековой давности, которое, по мнению проверочных сервисов, на 60% сгенерировано ИИ.
  • Некоторые китайские университеты установили «норму ИИ», о которой студенты должны сообщить при сдаче работы: сгенерированный нейросетями контент не должен превышать 20-40% от всего объёма.
  • Другие чётко обозначили, когда можно использовать нейросети: например, Фуданьский университет разрешает их студентам для поиска источников, статистического анализа и помощи при написании кода. В остальном, особенно при создании исследований и дипломных работ, ИИ запрещён.
  • Студенты из разных стран также жалуются на неточность ИИ-детекторов и антиплагиат-сервисов на базе нейросетей, результаты которых могут влиять на оценки и приводить к отчислению. Чтобы доказать, что они не использовали нейросети, студентам теперь приходится «документировать» ход работы: через скриншоты или запись экрана, историю правок в Google Docs или даже историю поиска браузера.
3
2
1
16 комментариев