ИИ познаётся в сравнении. Один приём, который помогает не бояться ИИ

Недавно я проводил лекции по ИИ для педагогов и работников ФНС России — суммарно на почти 400 человек. Лейтмотивом вопросов, которые мне задавали, был страх: что ИИ уничтожает целые профессии, что ИИ — это опасность для персональных данных, что ИИ делает людей глупее, давая неверную информацию.

Я придумал один приём, чтобы успокоить тех, кто боится 👇

Приём называется «а с чем мы сравниваем?». Сейчас покажу, как он сработал на трёх примерах.

ИИ убивает целые профессии... но профессии исчезали и раньше

Полезно помнить, что профессии исчезают и трансформируются в истории: кузнецы, переплётчики, какие-то другие ремесленные профессии стали нишевыми.

Если сравнить, изменилась только скорость перемен. Цифровизация и ИИ ускоряют трансформацию профессий за годы, а не десятилетия, но сами изменения те же самые: люди переквалифицируются, учатся новым функциям, часть задач отдаётся инструментам. В итоге панику вызывают не сами изменения, а их скорость.

Вопрос, который действительно нужно себе задать, не «заменит ли меня ИИ?», а «что я хочу оставить за собой, а что можно отдать ИИ?» Потому что пока с этим проблемы.

📄 Про это писал в другой статье


Скармливать чувствительные данные ИИ небезопасно... но сколько мы уже скормили другим сервисам?

Один из частых страхов: «если я загружу в чат-GPT корпоративный файл, это утечёт».

Большие языковые модели действительно могут непреднамеренно «воспроизводить» часть тренировочных данных или выдавать выводы о частях персональной информации при определённых условиях — и это предмет серьёзных исследований.

Но с чем мы сравниваем? Сколько данных мы сливаем на Гугл- и Яндекс-диски, в Айклауд, в конце концов — в сервисы по редактированию pdf-файлов? Эти последние иногда плохо справляются с корректной «редакцией», данные, которые кажутся скрытыми, остаются в файле, а оригиналы сохраняются на серверах.

Счётчик обработанных файлов в одном из сервисов конвертации
Счётчик обработанных файлов в одном из сервисов конвертации

Вопрос не в том, что ИИ небезопасен для персональных данных, а в том, насколько эффективно работают корпоративные протоколы безопасности и политики обработки персональных данных. Причиной утечки может стать и чат-GPT, и сотрудник, который годами не обновляет пароль.

ИИ ошибается и делает людей глупее... но разве ИИ обучается сплошь на гениях?

Во время лекции я спросил один из чат-ботов, является ли президент «государственным символом». Модель ответила утвердительно — но по Конституции формально есть только три государственных символа: герб, флаг и гимн. Вся аудитория ожидала, что ИИ ответит правильно и не ожидала ошибки.

Почему так? Модель обобщает и опирается на неформальные смыслы, а не на правовую дефиницию. А неформальные смыслы формируются обычными пользователями, две трети которых (из аудитории моей лекции) тоже не знают правильного ответа на этот вопрос. Так получаются «галлюцинации», неточные выводы.

То есть ИИ не глупый, а такой же, как среднестатистический пользователь. Он не знает всего, ошибается и не может написать поэму уровня Пушкина — как и большинство из нас.

Классическая иллюстрация этой истории из фильма «Я, робот»
Классическая иллюстрация этой истории из фильма «Я, робот»

Вопрос не в том, опасно ли доверять ИИ «думать за нас», а в том, опасно ли нам отключать собственную голову и критическое мышление. Потому что, если двигаться в этом направлении, в «оглупении» будет виноват совсем не ИИ.

Самое главное: не сравнивать ИИ со своими фантазиями о нём

Страхи вокруг ИИ — понятны, но часто они подпитываются не реальными фактами, а неудачными сравнениями или их отсутствием. При этом в этих страхах находят отражение реальные проблемы — но виноват в них не ИИ, а то, как с ним работают люди.

Что я советую, чтобы решать эти проблемы и не бояться:

  • Изучать инструменты: как работают модели, что такое промт и какие данные куда утекают.
  • Согласовывать с ИТ и службой безопасности правила загрузки данных во внешние сервисы, оформлять внутренние процессы, использовать новые архитектуры и подходы к приватности.
  • Проводить фактчекинг: проверять результаты ИИ, особенно для официальных документов и финансовых вычислений.
  • Развивать свои сильные стороны, которые не заменит ИИ: критическое и стратегическое мышление, эмпатию, навыки фасилитации, дизайн сложных контекстов.

В конечном итоге ИИ — это инструмент усиления человеческих возможностей, а не их замены.

Начать дискуссию