Про Google, RAG и Gemini
От Автора:
Круто, конечно, но для меня не ясно почему только сейчас.
Контекстуальная память с использованием RAG архитектуры (это когда мы осуществляем поиск информации по всей информации, что у нас есть, чтобы вытягивать контекст за вектор и добавлять к исходному Промту пользователя) история совсем не новая.
OpenAI давненько добавили к себе такую штуку, но персонализация их ChatGpt очень кривенькая и с галлюцинациям.
Но оно и ясно, Альтам экономит на том, что не добавляет большой объем информации к каждому новому запросу. А надо бы.
Это уже не инновация, а необходимость.
Google одним движением пальца програмиста, который добавит чуть больше инфы к исходному сообщению пользователя выведет персонализацию на новый уровень и станет поближе к пользователю.
Вопрос UX в ракурсе общения ИИ и человека.
OpenAI в данном вопросе отстает, хотя уже давно могли бы решить (в их случае просто чуть доработать) уже реализованную фичу.
Подписывайтесь на Telegram-канал AI Adepts.