Как использовать генеративный ИИ, не подвергая риску свою компанию

Создано в <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fmj&postId=741500" rel="nofollow noreferrer noopener" target="_blank">Midjourney</a>
Создано в Midjourney

Генеративный ИИ может быть невероятным инструментом, но инструмент в руках того, кто не знает, как его использовать, может иметь катастрофические результаты для вашего бизнеса.

Достаточно взглянуть на Нью-Йоркского адвоката Стивена Шварца, который недавно стал ярким примером опасностей ИИ, когда тот использовал ChatGPT, который он ошибочно считал «суперпоисковой системой», чтобы найти дела для цитирования на юридическом брифинге.

Когда судья попросил у Шварца копии дел, упомянутых в записке, выяснилось, что дела не были реальными - они были сфабрикованы ChatGPT.

Однако вопиющие ошибки, подобные этой, не требуют фундаментального непонимания того, как работает генеративный ИИ. Хотя такие приложения, как ChatGPT, могут сэкономить время вашей компании на задачах, которые ранее могли выполнять только люди, важно не рассматривать эту технологию как волшебное решение, поскольку почти всегда требуется человеческий надзор.

Вот три совета о том, как подойти к генеративному ИИ, не подвергая риску свою компанию.

Убедитесь, что вы всегда можете взять управление в свои руки

В мае Национальная ассоциация расстройств пищевого поведения была вынуждена приостановить работу своего чат-бота Tessa, который был разработан, чтобы помочь пользователям культивировать позитивный образ тела. Первоначальная версия Тессы не была создана с помощью искусственного интеллекта, а вместо этого опиралась на коллекцию заранее написанных ответов. Чат-бот работал без проблем в течение года, пока поставщик, создавший бота, не разрешил ему генерировать собственные ответы с помощью генеративного ИИ. Вскоре Тесса начала давать чрезвычайно проблематичные ответы, например, предлагая людям с расстройствами пищевого поведения заниматься спортом или соблюдать диету, чтобы похудеть. Это тот случай, когда приложение, работающее на генеративном ИИ, нуждается во встроенных элементах управления, чтобы люди всегда могли вмешаться. Это известно как система «человек в цикле».

Доверяй, но проверяй

Cisco Security, подразделение кибербезопасности гиганта цифровых коммуникаций, недавно представило новый инструмент на базе искусственного интеллекта под названием Policy Assistant, который позволяет администраторам безопасности и ИТ-администраторам вносить изменения в политики безопасности сети, используя естественный язык. Если, например, новый сотрудник принимается на работу, администратор может попросить помощника ИИ предоставить новому сотруднику все разрешения, связанные с его новой должностью, без необходимости взаимодействовать со сложной системой управления. После того, как запрос был сделан, система просит администратора подтвердить, что вводимая информация соответствует именно тому, что запрашивается. По словам Джиту Пателя, исполнительного вице-президента Cisco и генерального менеджера по безопасности и совместной работе, приложение, вероятно, могло бы работать достаточно хорошо без этого дополнительного шага проверки, но, требуя его, администраторы могут сэкономить время и гарантировать, что ошибки не возникнут.

Предоставляйте алгоритмам автономию только в ситуациях с низким уровнем риска

В то время как многие приложения ИИ нуждаются в человеке в цикле, есть некоторые, которые могут функционировать сами по себе. Например, рекомендательные системы, используемые такими компаниями, как Netflix и Amazon, анализируют вашу историю просмотров и покупок, чтобы определить, какой другой контент и продукты вам могут понравиться. Эти движки не отслеживаются с помощью системы «человек в цикле», потому что наихудший сценарий заключается в том, что приложение рекомендует продукты или показывает, что пользователи не хотят. И когда это произойдет, многие приложения позволят вам помечать неприемлемый или нежелательный контент, чтобы вы не получали рекомендации по подобным материалам в будущем.

PS. лайк, пожалуйста, он помогает продвижению статьи.

KolerskyAi - делаем решения на основе искусственного интеллекта.

ChatGPT, GPT-4 без VPN, генераторы изображений Midjourney, Dall-e, Stable Diffusion+

66
3 комментария

Не верь (не бойся, не проси) ChatGPT

1

с ИИ многие задачи стало проще и быстрее выполнять

Ситуация показывает не опасность ИИ, а недалёкость юриста (хотя, пример понятен). Если Стивен Шварц искал дела для подтверждения, вероятно, он должен был проверить каждое дело на соответствие с реальностью. Тут даже не дело в том существуют такие дела или нет, а больше вопрос в точности информации, чтобы все даты и нюансы совпадали. Если бы он хотя бы это проверил, то у него не возникло бы таких проблем. Почему-то, когда я слышу подобные истории, то представляю сразу взрослого человека, с огромным опытом за плечами, который сплоховал. Но, вдруг этот Шварц только что закончивший бурсу молодой парень, который думал, что раз с курсовой такая схема прокатила, то и в суде всё получится?