Антиплагиат устарел: как искусственный интеллект меняет правила проверки академических работ
Системы проверки академических текстов на оригинальность давно являются неотъемлемой частью образовательного процесса, но за годы их использования сама логика проверки заметно исказилась — всё чаще авторы упираются в формальный барьер, который нужно «пройти», чтобы их работа была принята.
Почему эта модель устарела и какой подход может прийти ей на смену — рассказывает Юрий Викторович Чехович, кандидат физико-математических наук, эксперт в области академической этики, машинного обучения и ИИ, заведующий лабораторией №42 в ИПУ РАН, основатель сервиса интеллектуальной проверки академических работ Domate.
✔ Подписывайтесь на канал Юрия Чеховича, чтобы следить за трансформацией науки и образования под влиянием ИИ.
Большинство классических решений, включая широко известную систему антиплагиата, исторически создавались как заградительный механизм, ориентированный прежде всего на проверяющих. Их задача проста: зафиксировать совпадения и выдать процент оригинальности. Однако в условиях активного использования ИИ этот подход не просто перестал быть эффективным — он стал проблемным.
Почему «процент оригинальности» устарел?
Сегодня «процент оригинальности» воспринимается как универсальная метрика, хотя на практике он почти ничего не говорит о качестве текста. На итоговую цифру влияет слишком много факторов: неполнота баз данных, устойчивые научные формулировки, корректность цитирования, особенности перевода, алгоритмические ошибки и даже формат файла. В результате самостоятельная добросовестная работа может получить низкий процент, а тщательно отредактированный ИИ-текст — высокий. Это подрывает доверие к проверке как таковой.
И здесь возникает парадокс: проверка текста превращается в своеобразный «бег с препятствиями», где цель — не создать качественную работу, а формально преодолеть порог «оригинальности». Это демотивирует добросовестных студентов и провоцирует на поиск обходных путей. Алгоритм, оценивающий лишь совпадения, не может обеспечивать справедливость оценки: самостоятельная работа может получить низкий процент, а грамотно скомпилированный или обработанный ИИ-текст — высокий. В результате теряется доверие ко всему процессу.
Мы, команда Domate, считаем, что хороший отчёт о проверке — это не цифра того или иного процента, а инструмент, который помогает сделать текст лучше, объяснит, что именно нужно поправить: где добавить ссылку, где сократить цитату, а где заменить прямое заимствование аккуратным пересказом.
Именно в таком ключе мы развиваем наш сервис и к такому формату отчёта стремимся прийти в самое ближайшее время. Мы делаем акцент не на том, чтобы уличить автора, а на том, чтобы помочь ему. Нам видится, что студенты, преподаватели и искусственный интеллект должны работать вместе, не превращая обучение в соревнование «как обойти систему».
Как работает сервис интеллектуальной проверки «Думейт»?
Принцип работы Domate строится на многоэтапном анализе текста, который выходит далеко за рамки классического поиска заимствований. На первом этапе система извлекает из загруженного файла не только сам текст, но и структуру документа — оформление, разметку, элементы цитирования. Далее этот массив данных параллельно анализируют несколько десятков алгоритмических модулей, каждый со своей специализацией. На завершающем этапе результаты работы модулей объединятся в отчёт об оценке работы.
Отдельный вызов для подобных систем — стремительное развитие генеративных моделей. Если ещё пару лет назад алгоритмически сгенерированные тексты было относительно легко распознать, то сегодня нейросети научились достаточно точно имитировать человеческий стиль письма. Поэтому детекция ИИ — это не поиск «особенного признака», а работа с вероятностями и совокупностью косвенных маркеров.
Современные детекторы, включая «Думейт», анализируют текст сразу по нескольким направлениям. Алгоритмы обращают внимание на нетипичную лексику, редкие для живой речи слова или, например, избыточное количество глаголов или прилагательных. Также учитываются синтаксические и стилистические особенности: перегруженные конструкции, неестественный порядок слов, чрезмерно длинные предложения, которые особенно часто встречаются в академических текстах, сгенерированных ИИ.
При этом важно понимать: абсолютного критерия, позволяющего со стопроцентной точностью утверждать, что текст написан машиной, нет — и, скорее всего, никогда не будет. Детектор может лишь показать, что определённые фрагменты статистически похожи на сгенерированные тексты, но и это не 100% гарантия.
Одной из наиболее показательных зон анализа в академических работах остаётся библиография. ИИ нередко уходит в «галлюцинации» и генерирует ложные источники, ссылаясь на несуществующие статьи, книги или исследования. Обнаружение таких фиктивных ссылок — один из самых надёжных индикаторов машинной генерации. Сейчас в Domate уже разрабатывается отдельный функционал проверки библиографий, который будет встроен в единый отчёт по работе.
На фоне повсеместного использования нейросетей сам по себе ярлык «ИИ-текст» постепенно теряет смысл. Гораздо более ценным становится глубокий анализ содержания: выявление логических разрывов, слабой аргументации, стилистических повторов, некорректного парафраза и проблем с источниками. Такая аналитика полезна и автору, и проверяющему, потому что работает на качество текста, а не на формальное наказание.
Кто сегодня главный пользователь академических ИИ-сервисов
Сервис изначально создавался для вузов и исследовательских институтов — именно там сегодня острее всего стоит вопрос академической добросовестности в эпоху генеративного ИИ. Однако на практике его функционал оказался востребован гораздо шире: им интересуются научные издательства, библиотеки и даже коммерческие организации, которым важно понимать происхождение и качество текстов.
При этом говорить о жёстком запрете ИИ в академической среде не приходится. Система образования скорее ищет баланс между использованием новых инструментов и сохранением базовых принципов науки и обучения. Да, пока что нет единого регламента: каждый вуз формирует собственные правила игры. Есть примеры осторожной интеграции ИИ-технологий в учебный процесс — в том числе в НИУ ВШЭ и Московском городском педагогическом университете, где экспериментируют с легальными форматами применения нейросетей.
Студенты осваивают ИИ-инструменты быстрее, а преподавателям приходится реагировать уже на сложившуюся реальность — сегодня они часто оказываются в роли догоняющих. По данным исследований 2025 года, более 80% российских студентов регулярно используют нейросети в учёбе, и этот показатель продолжает расти. Среди преподавателей уровень вовлеченности ниже, но всё равно достаточно высок: свыше 70% используют ИИ как минимум раз в неделю.
На этом фоне возникает и обратная реакция в среде преподавателей — речь о так называемых «AI-веганах», которые принципиально отвергают любые ИИ-технологии. Впрочем, это скорее индивидуальная позиция, чем массовый тренд: большая часть академического сообщества признаёт, что полностью игнорировать нейросети невозможно.
Ключевой вопрос сегодня не столько в самом факте использования ИИ, сколько в границах допустимого. Потенциал этих технологий в образовании и науке огромен, но требует понятных правил и этических стандартов. Само по себе применение ИИ при подготовке письменной работы не является нарушением. Проблемы начинаются тогда, когда алгоритмы подменяют самостоятельную мысль, искажают данные, приводят к плагиату или фальсификации результатов. В этих случаях речь идёт уже не о тонкой этической грани, а о прямом академическом мошенничестве.
Наибольшие ожидания сегодня связаны с развитием адаптивного обучения. В перспективе ИИ сможет персонализировать образовательный процесс: подстраивать программу под конкретного студента, регулировать сложность и темп обучения, отслеживать пробелы в понимании и возвращаться к сложным темам. Пока это скорее концепция и пилотные проекты, чем повседневная практика, но именно в этом направлении, вероятно, будет развиваться образование в ближайшие годы.
Чего ждать в будущем от команды разработчиков сервиса domate?
Domate не ограничивается детекцией участия нейросетей в создании текста. Сервис позволяет автору прозрачно обозначить использование ИИ, а проверяющему — объективно оценить вклад человека в итоговый результат. Это снижает уровень напряжения, убирает конфликтную составляющую и превращает проверку из карательной процедуры в конструктивный диалог. Такой подход особенно важен в условиях массового распространения ИИ-инструментов. Простые запреты здесь не работают — нейросети уже стали частью учебной и исследовательской практики.
Отказ от устаревшей модели «найти и наказать» в пользу сотрудничества стал нашим ключевым отличием от аналогичных решений на рынке. Мы создаём среду, в которой технологии работают на развитие навыков, а не на формальный контроль. В долгосрочной перспективе такой подход повышает качество академических работ и укрепляет доверие между студентами, преподавателями и институтами.
В течение этого года команда активно развивала продукт, фокусируясь на скорости изменений и удобстве пользователей. Комфортная работа с системой — один из ключевых приоритетов для нас. В первом квартале следующего года мы планируем несколько крупных релизов, которые расширят аналитические возможности сервиса и усилят его роль как инструмента поддержки авторов и проверяющих.
👉 Подписывайтесь на канал Юрия Чеховича, чтобы следить за трансформацией науки и образования под влиянием ИИ.