Этика в эпоху алгоритмов: почему научной среде пора выработать правила игры
Массовое внедрение ИИ в образовании и науке принесло не только новые возможности, но и новые риски. Где проходит граница между нормальным использованием технологий и ситуацией, когда студент или исследователь перестаёт учиться и начинает имитировать работу?
Об этом мы поговорили с Юрием Чеховичем, кандидатом физико-математических наук, экспертом по академической этике и машинному обучению, заведующим лабораторией №42 ИПУ РАН и основателем сервиса проверки академических текстов domate.
✔ Подписывайтесь на канал Юрия Чеховича, чтобы следить за трансформацией науки и образования под влиянием ИИ.
Сегодня понятие «этичное использование ИИ» остаётся размытым. Этика — это по сути механизм саморегуляции профессионального сообщества, который защищает его от деградации и размывания норм. Для сферы образования эта функция критична: если уровень требований к студенту падает, падает и качество его знаний.
Людям свойственно упрощать любую задачу, особенно умственную. Если можно переложить часть работы на внешние инструменты, будь то калькулятор, поисковая система или нейросеть, большинство так и сделает. И именно здесь возникает главный конфликт: если формально студент не списывал и не покупал текст, значит, и правил он не нарушал. Однако благодаря нейросетям он может решать учебные задачи обходным путём, не включая собственную голову и не приобретая нужных компетенций.
Ситуацию осложняет ещё и отсутствие единых норм использования ИИ. Профессиональное сообщество просто не успевает за скоростью изменений. В итоге университеты по-разному трактуют допустимые границы использования искусственного интеллекта, а исследователи вынуждены балансировать между удобством и риском подорвать доверие к академическим результатам.
Нужны собственные правила работы с ИИ — и формировать их нужно уже сейчас
Создание норм этичного использования искусственного интеллекта в образовании — не абстрактная дискуссия, а практическая необходимость. В ближайшие годы университетам и экспертному сообществу придётся сформировать такой же устойчивый свод правил, аналогичный существующим нормам академической добросовестности.
Мы давно привыкли к тому, что списывать, просить кого-то сдать экзамен «за тебя» или добывать ответы на тесты заранее — недопустимо. Эти нормы формировались десятилетиями и стали частью профессиональной культуры. С ИИ произойдёт примерно то же самое: появятся понятные рамки, которые отделят помощь в обучении от подмены самого образовательного процесса.
Один из возможных вариантов решения этического вопроса заключается в фиксации допустимого инструментария для каждого задания. Точно так же, как в школьных задачах иногда ставят условия вроде «решить без калькулятора», в вузах могут появиться формулировки вроде: «разрешено использовать интернет», «ИИ запрещён» или «использование генеративных моделей допускается, но не для финального вывода». Такой подход создаёт прозрачные правила и при этом чётко обозначает границы приемлемого.
Но одних формальных требований мало. Чтобы технологии не подрывали сам смысл обучения, университетам, вероятно, придётся менять сам формат работы. Например, двигаться в сторону «перевёрнутого класса», где студенты изучают теорию дома, в том числе с помощью ИИ, а практические задачи выполняют в аудитории под наблюдением преподавателя. Это снижает риск недобросовестного использования алгоритмов и помогает студентам учиться работать с ИИ осознанно.
Что касается научных журналов, они тоже адаптируются под новую реальность и вырабатывают собственные стандарты этичного обращения с искусственным интеллектом. Многие сегодня требуют от авторов указывать, какие ИИ-инструменты использовались и на каких этапах — это повышает прозрачность научного процесса и защищает результаты от манипуляций.
При этом ряд практик остаётся под запретом. Например, ИИ нельзя использовать для рецензирования научных статей — это связано не только с риском ошибок, но и с угрозой утечки неопубликованных рукописей во внешние сервисы.
Отдельной дискуссии заслуживает вопрос: можно ли считать обманом и нарушением академической этики использование искусственного интеллекта без указания этого факта? Если журнал обнаруживает подобное, он вправе отклонить рукопись или отозвать уже опубликованную работу. Такие случаи фиксируются в международных базах ретракций, например Retraction Watch или eLIBRARY.
Важно понимать: сам факт использования ИИ — не основание для отзыва статьи. Проблемой он становится только тогда, когда приводит к искажению данных, плагиату или манипулированию выводами. В этом случае речь идёт не просто об этике, а о полноценном академическом нарушении — и публикация справедливо подлежит пересмотру.
Где граница допустимого использования ИИ? И кто отвечает за её нарушение?
Этические риски особенно заметны там, где автор поручает ИИ не вспомогательные операции, а полноценные исследовательские задачи, например формирование списка литературы или обзор источников. В этом случае важна не столько технология, сколько степень участия самого исследователя.
Если ИИ помогает разложить найденные публикации по темам — это техническая поддержка. Но когда модель «с нуля» генерирует список источников, а автор даже не проверяет, существуют ли они на самом деле, речь идёт о нарушении академической добросовестности.
Поэтому важным критерием этичности по-прежнему является личная ответственность автора. Он обязан проверить каждую ссылку, убедиться в её подлинности, релевантности и актуальности. По сути, автор несёт ответственность за любую информацию, которую включает в собственную работу, даже если она получена при помощи алгоритмов.
И если ответственность автора при использовании ИИ понятна, с разработчиками алгоритмов ситуация куда сложнее. Нейросети склонны к галлюцинациям — они могут выдавать убедительные, но полностью вымышленные данные. Однако привлечь создателей моделей к юридической ответственности практически невозможно. Их роль скорее лежит в плоскости этики и репутации.
Это связано с тем, как устроены генеративные модели. Они запрограммированы всегда давать ответ — отказ в их логике просто не предусмотрен. Поэтому, если ИИ не хватает данных, система не сообщает об этом, а достраивает ответ самостоятельно. Фактически — придумывает. Именно такая архитектура и порождает проблему: ответ модели выглядит правдоподобным даже тогда, когда он целиком ошибочен.
Многие компании понимают проблему и стараются её решать. Например, создатели ChatGPT ограничили возможности модели в сфере медицины и права. Ограничения не были навязаны регуляторами — это внутренняя попытка снизить риски, а также признание того, что последствия ошибок в таких областях особенно чувствительны.
Что будет, если закрывать глаза на этику в контексте использования ИИ?
Последствия могут оказаться гораздо серьёзнее, чем кажется на первый взгляд. Если студенты станут повсеместно решать задания с помощью нейросетей, не включая собственную голову, качество образования начнёт стремительно проседать. Сначала это почувствуют сами студенты и преподаватели — навык мыслить исчезнет, а любой вопрос станет решаться «подсказкой из чата».
Но удар по науке будет ещё сильнее. Научная среда во многом держится на доверии, и если в сообществе станет нормой плагиат, небрежное цитирование или манипуляции с текстами — система ценностей рассыплется. Одни начнут оправдывать нарушения ради скорости, другие — просто покинут академическую область, не желая работать в среде, где стандарты перестали что-то значить.
Это запустит цепную реакцию, ведущую к деградации научной среды и снижению достоверности научных результатов. Поэтому, хотя объективно измерить качество научных работ сложно, этика остаётся тем фундаментом, без которого невозможно сохранить доверие к науке как к институту.
Как авторам работать с ИИ этично
Первое простое правило — критически относиться к результатам модели и всегда перепроверять факты, особенно если вы заходите в незнакомую область. Нейросети уверенно «выдумывают» данные, и это легко пропустить — поэтому не доверяйте ИИ слепо.
Но этичное использование нейросетей касается не только фактчекинга. В работе важно задавать себе вопрос: уместно ли применение ИИ на данном этапе? Если задание предполагает самостоятельную работу, использование алгоритма — нарушение академической честности.
Есть простой тест: если, презентуя свою работу преподавателю или научному руководителю, вы можете спокойно сказать «Да, я использовал ИИ», и это вписывается в контекст задачи, значит, всё в порядке. Если же факт применения приходится скрывать — вероятно, имеет место обман.
Будущее ИИ — за этичным подходом, а не запретами
Культура работы с искусственным интеллектом будет развиваться через институционализацию и чёткие этические рамки, а не через ограничения. В ближайшие годы будет сформирован свод правил, регулирующих использование ИИ в образовании и науке. Изменения затронут не только нормы поведения, но и сами образовательные практики: форматы заданий, взаимодействие студентов и преподавателей. Наверняка структуру учебных программ тоже придётся адаптировать под новую реальность. Возможно, это станет самым серьёзным вызовом за всю историю системы образования и науки — остаётся надеяться, что она готова с ним справиться.
✔ Подписывайтесь на канал Юрия Чеховича, чтобы следить за трансформацией науки и образования под влиянием ИИ.