Сегодня мы выпускаем открытую бету FractalGPT - агента QA системы по документам, которая по многим параметрам превосходит в фактологии и точности ответов не только ChatGPT, но и решения на векторных базах данных. Система работает нативно на русском языке. В этой бете FractalGPT мы создали демо-продукт, отвечающий про нейросети, машинное обучение и…
У вас опен сорс решение? Или в чем продукт? Как им пользоваться? Можно своб llm сделать вашим подходом?
Решение не полностью опен-сорс - часть ядра закрытая, тк там наше ноу-хау, алгоритмы и модели.
Позже откроется спецификация для ИИ Агентов - юзеры смогут создать своего Агента, который выполняет конкретную задачу, и да, там будет возможность обучить свою LLM.
в чем продукт
- Продукт в том, что например вы изучаете нейросети, программирование или иную отрасль - и вдруг оказывается, что ваш учитель или преподаватель в универе иногда врет или говорит откровенную ерунду, то чего нет, дает неправильные ответы, да так убедительно, что вы верите и выучиваете это. Что же будет дальше - а понятно что, вы проиграете конкуренцию тому кого нормально учили, тк у вас неверные знания.
Вот тут в статье и описан кейс применения для тех, кто изучает ИИ - а мы знаем что многие используют Чатгпт для изучения чего-либо уже.
Также есть много так называемых "критических" отраслей где ответы по базам знаний обязаны быть точными и без бреда - медицина, право, производство и пр.
Такое решение, которое могло бы гарантировать отсутствие бреда в ответах открывает дорогу GPT моделям в эти критические отрасли - раньше внедрения не могло быть - ну кто захочет пользоваться даже помощником скажем врача, если он дает опасные советы по приему лекарств например - никто.
Ну вот мы показали только QA агента в статье, а раньше показывали других, например мультимодального - который и картинки обсуждать умеет и текстом пишет
Я сейчас проверил как ответит GPT-4, это быстрый тест на тех же вопросах, но брал только те где ChatGPT ошиблась, в одном кейсе на GPT-4 ответ исправился, в одном чуть улучшился, в 2х других нет - остался прежним
Про Тьюринга стал правильно отвечать: (но обращаю внимание что сухость так и осталась)
Если дать ложную информацию в вопросе то GPT-4 так же не ответит на тот вопрос, на который ранее отвечал даже ChatGPT.
В общем тут без изменений
В общем пока что даже использование лучшей на сегодня модели GPT-4 не достигает уровня качества нашего решения
про термин карусель ошибок даже в кавычках не отвечает, но правда если добавить что в LSTM то ответит. Так что тут вопрос спорный стало ли лучше, думаю ненамного
Вот тут ответ улучшился в целом, однако по-прежнему он неверный, просто процент неправильности меньше))