Стоит ли передать ИИ рутинную работу? Не так быстро
South China Morning Post, старейшее гонконгское издание, публикует результаты исследования двух профессоров из Университета Гонконга и Американского университета в Вашингтоне. Профессоры задались вопросом, как повлияет на производительность труда передача генеративному ИИ рутинных задач. Они предположили, что такой аутсорс задач должен быть похож по эффектам на другой аутсорс, и изучили результаты работы группы поддержки опен сорс ПО. Для облегчения работы поддержки задача выявления багов была передана краудсорсинговой платформе, где обнаружение бага вознаграждалось. Ожидалось, что поддержка будет работать эффективнее, так как с нее сняли рутинные задачи. Однако, все получилось наоборот. Поддержка стала находить меньше багов и предлагать меньше улучшений. Выяснилось, что поиск багов- это еще и обучение и формирование навыков для более сложных задач. Профессоры делают вывод, что применение ИИ в компаниях должно быть обдуманным. Повышение производительности труда окажется краткосрочным, а потеря навыков работников из-за невозможности обучаться в процессе работы окажет долгосрочный негативный эффект.
Кроме того, профессоры призывают к ограничению использования генеративного ИИ в учебе. Ведь если ученики не будут выполнять домашние задания сами, то они не сформируют навыки, позволяющие им двигаться дальше, потеряют способность мыслить логически и проверять свои выводы фактами. Профессоры предлагают переосмыслить вопрос: «Зачем тратить время на рутинную работу, если ее может сделать ИИ?» Это опасное рассуждение, так как мы выполняем работу не только для того, чтобы показать результат, а также для того, чтобы обучаться. Такое обучение создает основу для появления новых навыков.
Исследователи заново открыли истину: обучение на рабочем месте. Видимо, адепты применения генеративного ИИ для передачи ему рутинных задач предполагают, что обучение – это что-то отдельное от работы. Работники пройдут какие-то образовательные курсы и сразу начнут выполнять сложные интеллектуальные или менеджерские задачи, а рутинные операции будет выполнять алгоритм. Однако сложно представить себе опытного хирурга или архитектора, которые не прошли путь от интерна до профессионала, не набив шишек на выполнении простых, рутинных задач. Компании ценят именно опытных профессионалов, имеющих в опыте достаточно ошибок, чтобы уметь их видеть и избегать, а также обучать новичков. Вероятно, евангелистам ИИ предстоит еще узнать много прописных истин, прежде чем они предложат рынку действительно полезный инструмент.
Может показаться, что передача рутинных задач генеративному ИИ, как например ChatGPT, может увеличить производительность.
Однако, на деле это ограничивает обучение навыкам, которое происходит, когда человек выполняет определенные задачи. Решение о применении ИИ необходимо принимать взвешенно и обдуманно.
Генеративный ИИ, особенно ChatGPT, открыл поле возможностей для создания нового контента. Фактически, сгенерированный ИИ контент настолько хорош, что иногда кажется, что он написан человеком.
Например, исследование, проведенное университетами США и опубликованное в мае, выявило, что, отвечая на случайно выбранные вопросы пациентов из соц.сети, ChatGPT превзошел ответы врачей по качеству информации и эмпатии. Компания OpenAI заявила, что GPT4 (самая последняя версия алгоритма) может войти в топ10 лучших результатов по сдаче теста SAT (вступительный тест на чтение в институтах США) и устном тесте GRE для поступления в аспирантуру и экзамене для адвокатов.
Ожидается, что этот инструмент будет развернут в коммерческих компаниях и других организациях, чтобы увеличить производительность труда работников. Школы и преподаватели также хотят его применять. Многие университеты в США разрешили студентам использовать инструменты генеративного ИИ для выполнения студенческих работ. Некоторые местные университету дают бесплатный доступ к ChatGPT, поощряя студентов использовать его в учебе.
Ограничения генеративного ИИ
Однако, генеративный ИИ имеет свои ограничения. Контент, создаваемый генеративным ИИ является результатом модели LLM, а не логических рассуждений на основе фактов. Генеративный ИИ время от времени «галлюцинирует», что приводит к неверным и ведущим к ошибкам результатам. «Галлюцинации» могут быть следствием недостаточной тренировки модели, так называемой ошибки «предубеждения» и некорректных предположений. В июне прошлого года два юриста в США были оштрафованы за использование ChatGPT, так как они ссылались не несуществующие дела. Юристы заявили, что они не знали, что ChatGPT может генерить ошибки.
Что будет с людьми, если они не перестанут тренировать свою способность делать логические рассуждения и искать факты для своих выводов?
Этот кейс затронул важный вопрос: как генеративный ИИ повлияет на способности человека, когда люди просто перестанут развивать способность строить логические суждения и проверять факты, создавая контент?
Передача работы генеративному ИИ похожа на передачу работы в аутсорс. Таким образом, можно сделать вывод о влиянии применения генеративного ИИ, анализируя последствия аутсорсинга.
Исследование Kai-Lung Hui и Jiali Zhou: аутсорс поиска уязвимостей для Python привел к снижению производительности труда поддержки Python
Kai-Lung Hui, профессор бизнеса и декан бизнес школы науки и технологии при Университете Гонконга, и Jiali Zhou, профессор ИТ в Kogod школе бизнеса при Американского университета в Вашингтоне, провели исследование о том, как краудсорсинговая программа Internet Bug Bounty (IBB) повлияла на язык программирования Python. IBB выдавала вознаграждение людям, нашедшим уязвимости в опенс сорс ПО. Эта программа работала отдельно от официальной поддержки Python, то есть сотрудники поддержки вознаграждения за выявление багов не получали.
Ожидалось, что IBB облегчит работу службе поддержки Python, предоставит им больше времени на выполнение других задач и тем самым увеличит их производительность труда.
К своему удивлению, исследователи выявили, что получилось совсем наоборот. Официальная поддержка Python не только выявила меньшее количество багов после окончания программы IBB, но и сделала гораздо меньше улучшений в Python. Это означает, что производительность работы службы поддержки снизилась после того, как функция поиска багов была отдана на аутсорсинг.
Исследователи выделили несколько причин, приведших к снижению производительности труда, среди которых потеря мотивации вследствие отсутствия вознаграждения по программе IBB. Была обнаружена огромная разница между количеством багов, выявленных службой поддержки до введения программы IBB, и после ее введения. Разница была еще очевиднее, когда отчеты о багах и улучшения программы были связаны между собой.
Человек учится, выполняя любые задачи, даже рутинные, и это обучение формирует навык для решения более сложных задач в будущем
Исследователи опросили сотрудников службы поддержки Python, большая часть которых заявила, что обнаружение уязвимостей помогала им учиться и находить идеи для улучшения программы. Это значит, что, выполняя задачу по поиску багов, они не только вносили вклад в решение этой задачи, но и учились.
Этот эффект обучения при выполнении задачи разъясняет многие вещи. Получается, то обучение и другие навыки могут пострадать, если люди будут использовать генеративный ИИ. Краткосрочный эффект в производительности труда может быть нивелирован снижением производительности в долгосрочной перспективе. Хуже того, приобретаемые во время обучения навыки, могут быть ключевыми для выполнения будущих задач, включая высокоинтеллектуальные задачи.
Так стоит компаниям применять генеративный ИИ?
Во-первых, необходимо разграничить цели: организация стремится повысить производительность труда или обучить и развивать работников? В большинстве случае производительность труда может оказаться приоритетом, и компании могут решить применять генеративный ИИ. Но даже в этом случае, стоит понимать, что применение ИИ снизит возможности обучения работников выполнять свои задачи.
Во-вторых, необходимо провести анализ задач, насколько они связаны между собой. Инструменты генеративного ИИ могут оказаться полезнее для задач, которые минимально связаны с другими задачами. Для связанных между собой задач применение ИИ требует переосмысления.
В-третьих, компания должна обеспечить больше обучения, если решила применять генеративный ИИ. Если позволить работникам использовать генеративный ИИ без обучения, то их способности могут разрушиться со временем.
В учебе использование ИИ должно быть ограничено: иначе студенты потеряют способность рассуждать логически и создавать новое
В школе приоритет необходимо отдавать обучению, а не производительности труда. Нам необходимо предотвратить неконтролируемое использование генеративного ИИ. Если ученики не будут делать домашнюю работу сами и будут аутсорсить ее алгоритму, то они потеряют способность логически рассуждать, придумывать новые идеи и создавать новые знания.
Выполнение работы- это не только результат, это еще обучение и формирование новых навыков
Нам стоит переосмыслить вопрос: «Зачем тратить время на рутинную работу, если ее может сделать ИИ?» Это опасное рассуждение, так как мы выполняем работу не только для того, чтобы показать результат, а также для того, чтобы обучаться. Такое обучение создает основу для появления новых навыков.
Увлекаясь идеей генеративного ИИ, не стоит заблуждаться, что только производительность труда имеет значение. Обучение само по себе очень важно, а возможно и более важно.