Почему ИИ может навредить работе бизнеса: три ошибки во внедрении

Используете генеративный ИИ в работе? Разбираем три ошибки компаний, которые внедряют этот мощный инструмент. Рассказываем, что случается с ИИ-моделью, которую не контролирует человек; из-за чего в компании может произойти утечка данных и чем наряду с экспертизой важна обратная связь.

Итак, чего избежать, чтобы внедрить генеративный ИИ правильно и не потерять коллег, деньги и репутацию.

Ошибка 1. Человек не перепроверяет ИИ

Из-за этой ошибки легко пропустить два серьёзных недостатка генеративного ИИ: предвзятость и «галлюцинации». Оба подрывают доверие и к самому инструменту, и к бренду, если бренд позволяет ИИ «говорить» от своего имени. Обе проблемы без человека не решить.

Искусственный интеллект перенимает предвзятость из данных, пока обучается. Если набор данных не отличается разнообразием, содержит предвзятую информацию, то модель ИИ возьмётся распространять это.

<p>Наглядно о предвзятости <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.bloomberg.com%2Fgraphics%2F2023-generative-ai-bias%2F&postId=1145493" rel="nofollow noreferrer noopener" target="_blank">рассказали Bloomberg</a>. Скриншот из материала дополнен переводом. На нём показаны «средние лица»: соединение всех сгенерированных изображений на основе расположения глаз, носа и рта</p>

Наглядно о предвзятости рассказали Bloomberg. Скриншот из материала дополнен переводом. На нём показаны «средние лица»: соединение всех сгенерированных изображений на основе расположения глаз, носа и рта

Если раньше, скажем, Google предлагал мужчинам вакансии с высокими зарплатами почти в шесть раз чаще, чем женщинам, сейчас в СМИ говорят, например, о темнокожих немецких солдатах Второй мировой и других итогах попыток ограничить распространение предвзятостей.

Ещё генеративные модели могут «галлюцинировать»: выдавать информацию с мелкими фактическими неточностями или полностью сфабрикованную.

<p>В ответе на вопрос о польских политиках ChatGPT путает имя: оппонентом Юзефа Пилсудского был <b>Роман </b>Дмовский. А в ответе на вопрос о выдуманном событии ИИ не пытается нас поправить и говорит о пирамидах в Британском музее</p>

В ответе на вопрос о польских политиках ChatGPT путает имя: оппонентом Юзефа Пилсудского был Роман Дмовский. А в ответе на вопрос о выдуманном событии ИИ не пытается нас поправить и говорит о пирамидах в Британском музее

Как избежать ошибки. Пусть команда специалистов оценивает данные для обучения генеративного ИИ и проверяет результаты его работы. Можно обратиться к опыту компаний, которые разрабатывают «пакеты знаний»: проверенные и промаркированные экспертами наборы обучающих данных.

Ошибка 2. Штат не обучают работать с ИИ

Если сотрудники не применяют ИИ там, где это делают конкуренты, компания теряет производительность. Если штат применяет ИИ неправильно, возрастает риск репутационных и финансовых потерь.

Не владеющие инструментом теряют эффективность. Зачастую они опасаются, что их в работе заменит ИИ. Кроме того, чем больше людей осваивает работу с ИИ, тем быстрее из конкурентного преимущества этот навык переходит в состояние базового, что тоже беспокоит работников.

Те же, кто осваивает ИИ, не всегда пользуются им во благо бизнеса. 15% сотрудников регулярно загружают в ChatGPT данные о компании, из этого 43% — это внутренние данные, 31% — исходный код и 12% — персданные.

По данным Menlo Security, в начале 2024 года 55% случаев защиты от потери персданных были связаны с попытками пользователей ввести личные данные на сайтах генеративного ИИ. 40% эпизодов защиты пришлись на конфиденциальную документацию. Количество попыток загрузки файлов увеличилось на 80%. Всё это говорит о том, что риски утечек информации растут.

Как избежать ошибки. Регулярно обучайте штат работать с ИИ так, чтобы это приносило пользу и было безопасно. Сотрудники должны понять, на что способен ИИ, и получить представления о промпт-инжиниринге, чтобы определять, нормально ли ИИ работает или сбоит. В перспективе генеративный искусственный интеллект сможет помогать сотрудникам быстрее восполнять пробел в знаниях, чтобы адаптироваться на новом месте или вливаться после большого перерыва.

<p>В своем исследовании Menlo Security <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.menlosecurity.com%2Fpress-releases%2Fmenlo-security-reports-that-55-of-generative-ai-inputs-contained-sensitive-and-personally-identifiable-information&postId=1145493" rel="nofollow noreferrer noopener" target="_blank">также показали</a>, насколько много компаний внедрило политики безопасности для работы с ИИ</p>

В своем исследовании Menlo Security также показали, насколько много компаний внедрило политики безопасности для работы с ИИ

Ошибка 3. Компания не собирает обратную связь и экспертизу о работе ИИ

ИИ не всегда может оказаться эффективным, этичным и удобным для пользователя: клиента или сотрудника.

Обратная связь поможет узнать пользовательский взгляд, исправить недочёты и адаптировать инструменты искусственного интеллекта к актуальным сценариям использования.

Команда из экспертов по искусственному интеллекту, разработчиков, создателей контента и представителей службы поддержки клиентов предложит разнообразные варианты, как внедрять и совершенствовать системы искусственного интеллекта с технической точки зрения.

Как избежать ошибки. Проводите опросы, бета-тестирования, пилотные сессии. Создавайте выделенные каналы связи, чтобы собирать обратную связь и с её помощью совершенствовать сервис. Соберите экспертную команду внутри штата или обратитесь к сторонним консультантам, чтобы не повторять ошибок предшественников и грамотно встроить ИИ в работу.

44
3 комментария

Наверное, ChatGPT нашёл творения Midjourney :D

1

Разве не любой ИИ — генеративный?