На российском рынке уже есть профессиональные системы управления знаниями (KMS), которые помогают не только безопасно хранить корпоративные знания, но и быстро доставлять их до сотрудников. Например, Minerva Knowledge. Одно из ключевых преимуществ платформы — виджет Minerva Copilot, который встраивается в любую систему компании и в зависимости от контекста подсказывает ответы с помощью генеративного ИИ. Он обучается исключительно на корпоративной информации и формирует точные и релевантные ответы. Это возможно в том числе благодаря тому, что контент в Minerva Knowledge структурирован по методологии Minerva Result, поэтому разобраться в нём может как реальный, так и «цифровой» сотрудник.
В теории оч круто, но на практике писать собственных ии-агентов и размещать на своих серверах могут не далеко лишь все, как грицца.
Понятно, что крупные компании работают на своих серваках, но есть впечатление, что 90% арендуют облачные решения. Поэтому вопросы с безопасностью будут всегда.
Плюс не совсем понял понял, как связано галлюцинирование и внутренняя база. ИИ галлюцинирует потому, что неправильно обрабатывает входящую инфу. То, что его загрузят другой входящей инфой не изменит процесс ее обработки. Мб, ошибаюсь, тогда поправьте)
Никита, спасибо за комментарий)
Решение между облаком и своими серверами — это всегда про соотношение рисков и затрат. Крупные и средние компании чаще выбирают коробочные решения — это выгоднее, чем потерять данные. Кейс, который мы описываем в статье, как раз ориентирован на такие компании.
Для малого бизнеса облако проще и дешевле. Но опять же важно оценивать риски — если потеря данных будет слишком «дорогой», экономия с облаком выглядит нецелесообразно.
Что касается галлюцинаций, они могут происходить не только из-за технических нюансов, но и из-за источника, в котором хранятся знания компании. Так что всё упирается в качество данных. Если база знаний устарела, есть пробелы или противоречия, модель начнёт путаться и выдавать ошибки, даже если сама работает правильно. Например, если в базе знаний есть несколько разных инструкций на одну задачу, ИИ может выбрать неправильный вариант.
Даже если модель подсветит ненадёжные места, всё равно потребуется человек, который сможет с этим разобраться. А это уже повышает требования к тем, кто будет пользоваться ИИ.
обложка хорошо раскрывает суть
Ставь лайк, если тоже матерился на чатжпт и называл его тупым и говорил «да что ж ты русских слов ни ... не понимаешь, ...!»
А вот если бы писали чёткие промпты...
Интересно, а какие галлюцинации видит ИИ, это можно визуализировать?
Человеческому зрению такое не под силу 😅
«Галлюцинации» — это просто ошибки, когда ИИ не хватает данных или контекста.