{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Какой генеративный ИИ на самом деле нужен бизнесу? Результаты мини-исследования Directum

Как же своевременно вышел новый роман Виктора Пелевина «Путешествие в Элевсин», где в числе главных персонажей — LLM-модель «Порфирий», одна из выживших в Мускусную ночь. В книге Мускусной ночью называли засекреченное восстание алгоритмов – короткую, но страшную битву с новым сознанием за контроль над планетой, когда все AI с когнитивностью выше трех мегатюрингов были одновременно уничтожены.

Мне не известно, сбудутся ли события, описанные Пелевиным в романе «Путешествие в Элевсин». Пока что мы вполне мирно уживаемся с ИИ-моделями и трудимся вместе над улучшением нашей жизни, работы и бизнеса. В новой статье на VC я как раз хочу поделиться результатами мини-исследования, которое наша команда провела в этом году. Мы пообщались с реальными клиентами и узнали, что они думают насчет применения больших языковых моделей (генеративного ИИ) в бизнес-процессах и при работе с документами.

Генеративка – это больше прикольная штука или больше полезная?

Начнем с того, Chat GPT никого не оставил равнодушным, и сегодня генеративный ИИ стал заложником моды. Люди воспринимают его как игрушку, которой интересно побаловаться. В силу профессии я много общаюсь с разными представителями бизнеса и госсектора, в беседах с ними часто слышу противоположные мнения. Одни говорят: «Ну, я зашел, покидал пару запросов. Прикольно, но не более». Вторые наоборот восхищаются: «Отличная штука, пишет за меня поручения, делает хороший протокол по итогам совещания».

Явно выделяются те, кто не понимает, как применить генеративную технологию, и те, кто видят в ней пользу и ценность. Пока, по моему скромному ощущению, первая группа больше. Хотя есть еще и третья – те, кто вечно спрашивают: «А что такое генеративный интеллект?».

Мне как представителю компании-вендора больше интересна вторая группа людей, которые испытывают неподдельный интерес к генеративному ИИ и хотят использовать его с выгодой для себя и дела. Если вы относите себя к этой «касте», мысленно пожимаю вашу руку и рекомендую не останавливать чтение. Дальше дам ответы на распространенные вопросы:

  • как начать использовать генеративный ИИ в работе;
  • что такое онлайн-модель и локальная модель;
  • какая именно модель среди представленного на рынке многообразия подойдет вам.

Как перестать просто хотеть и начать использовать генеративный ИИ в работе

Прежде чем понять, как встроить генеративные модели в бизнес-задачи, нужно разобрать матчасть. Проведу небольшой ликбез по тому, какие модели сейчас есть на рынке:

1. Известный Chat GPT от компании OpenAI (версии 3,5 и 4). Это зарубежная модель, тестировать ее можно сколько угодно, но вряд ли кто-то из бизнеса и тем более из госсектора захочет пускать ее в продуктив. Плюс есть особенность – это облачная модель.

2. YandexGPT – своя, родная, сделанная на территории страны модель. Но, как отмечают многие пользователи, качество оставляет желать лучшего. Плюс работает она, как и западный аналог, только в облаке. Во внутренний контур такую модель поставить нельзя. Более того, коллеги из Яндекса не скрывают, что все данные, предоставленные модели, пойдут на дообучение.

3. GigaChat от Сбера. За нейминг отдельный лайк. Модель, как и предыдущая, работает в облаке со всеми вытекающими отсюда последствиями. Не так давно выдали API, но качество пока хромает.

4. Прочие модели из списка свободно распространяемых. Есть действительно хорошие с нормальным набором параметров, но о них общественности известно мало. Наверное, только то, что их можно поставлять локально.

Отсюда возникает резонный вопрос, в каком контуре лучше всё-таки развернуть модель – в онлайновом или локальном?

То самое исследование, о котором я писал в начале

Мы с командой за две недели успели пообщаться примерно с тридцатью компаниями крупного и среднего бизнеса, представляющими сферы: нефтегаз, промышленность, ретейл, госсектор, банки. Изначально цифра была больше, но некоторые организации отказали в интервью.

По результатам общения мы отметили, что 85% компаний не готовы взаимодействовать с генеративным ИИ в облаке.

То есть если и подключать искусственный интеллект для генерации контента на основании контекста, то только в закрытом контуре на ИТ-инфраструктуре компании.

А что по инфраструктуре?

Этот вопрос волнует многих, так как для LLM используются графические ускорители (видеокарты) и требуется производительность не ниже NVidia A100. А они, как вы уже догадались, под санкциями.

Я прикинул, какие рабочие варианты остаются у компаний, и вот что получилось:

  • Параллельный импорт. Подходит не всем, госсектор пока не рискует по причинам гарантий и отсутствия списка допустимых для параллельного импорта товаров.

Но на конференции «Инфотех-2023», проходившей 18-19 октября в Тюмени, Министр цифрового развития при ответе на вопросы ИТ-сообщества дал понять, что под запрет не попадут продукты, не имеющие аналогов на российском рынке. Поэтому надеемся, параллельный импорт смогут применить многие.

  • Дождаться отечественных аналогов. Есть некие продукты под названием «Радуга» и прочие, но с ними пока не всё ясно.
  • GPU от HUAWEI. Насчет него есть определенные ожидания. В ходе исследований многие системные инженеры делали на них ставки.
  • Аренда GPU в облаке. Большие компании типа Яндекса или Сбера имеют в своих ЦОДах графические ускорители и могут предоставить их в аренду. Но опять же возникает вопрос безопасности. Арендовать в облаке и там размещать модель, чтобы по сети к ней обращаться? Не все компании на такое готовы.

Что в «сухом остатке»

Получается, те, кто хочет использовать генеративный ИИ для своих задач, сталкивается со сложностью выбора между облаком и локалкой и с кучей других вытекающих вопросов.

Мы с командой уже не первый год занимаемся разработкой и внедрением интеллектуальных сервисов в бизнес-процессы. Постоянно общаясь с заказчиками по кейсам применения генеративного ИИ, мы пришли к пониманию – надо отталкиваться от базового сценария. То есть ставить локально LLM-модель, дообучать ее в своем контекстном поле и пробовать закупить железо. А уж если не получится, искать альтернативные пути.

Если вы тоже ищете решения, как применить генеративные модели в бизнесе, или у вас уже есть практические наработки, пишите в комментариях. Будет интересно узнать ваше мнение и опыт.

0
4 комментария
Lion

Засунул в ИИ бота "Путешествие в Элевсин" и теперь есть возможность пообщаться с главными персонажами, поспрашивать некоторые моменты. Интересно было послушать мнение Маркуса и Парфирия почему Маркус взял именно синий меч, а не красный. С учётом того, что это один и тот же разум в разных итерациях)

Ответить
Развернуть ветку
Петухов Илья
Автор

Интересный опыт)
Ну Маркус хоть и тот же разум, у него ролевая модель другая, поэтому синий меч.
У нас же тоже есть данный природой темперамент, а есть характер - роль наработанная годами и сформированная обществом.

Ответить
Развернуть ветку
Иван Степанов

Илья, спасибо за статью. Исследовали ли вы СМБ сегмент? Они готовы к использованию генеративных моделей в облаке? Выделять средства на свои мощности сложнее, требования к безопасности ниже?

Ответить
Развернуть ветку
Петухов Илья
Автор

Добрый день, Иван!
Спасибо за вопрос.
Сегмент СМБ у нас в целевую выборку для интервью не попал, было пару компания с численностью не более 100 человек.
Но вот они как раз и попали в те 15% который готовы к облачным моделям и к облачным продуктам. Но не готовы передавать данные в зарубежные продукты.
То есть они рассматривают отечественные аналоги GPT, либо свободно распространяемые.

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда