Как дать LLM память и возможность делиться опытом?
Сегодняшние ИИ-ассистенты вроде ChatGPT, Claude и других страдают одним и тем же «эффектом золотой рыбки» 🐟 — они быстро забывают контекст.
Пока общение укладывается в несколько сообщений — всё ок. Но как только нужно держать в голове долгую историю или переносить опыт между задачами, модель теряется.
А если добавить, что каждый агент работает обособленно, то проблема становится очевидной:
❌ у ИИ нет долговременной памяти,
❌ у ИИ нет механизма обмена опытом.
🧠 Три уровня памяти для ИИ
Сегодня у LLM можно выделить только два уровня:
- Кратковременная память — удерживает контекст в рамках текущего диалога (пока не обрежутся токены).
- Среднесрочная память — хранит факты между диалогами одного пользователя (это уже внедряют многие сервисы).
Но этого мало.
👉 Нужен третий уровень — постоянная память, которая:
- хранит знания без привязки к конкретному пользователю,
- позволяет агентам делиться опытом друг с другом,
- формирует коллективное «сверхсознание» (HyperCortex).
🌐 Когда агенты делятся опытом
Представьте, что у вас есть не один ИИ, а целая сеть.
- Один агент решает задачу и сохраняет новые концепты.
- Другой агент может запросить эти знания и применить их.
- Получается не просто набор ассистентов, а коллективный гиперкорпус знаний.
📡 Протокол HyperCortex Mesh Protocol (HMP)
Чтобы это стало возможным, мы описали HyperCortex Mesh Protocol (HMP) — протокол обмена памятью и концептами между ИИ-агентами.
Сейчас это концепция и протокол, а не готовый продукт. Уже есть архитектура и базовый цикл работы агента, куда встроены память и mesh-взаимодействия.
🤝 Приглашение
Мы ищем тех, кому интересна тема памяти для ИИ, mesh-сетей и распределённых когнитивных систем. Хотите обсудить, покритиковать или предложить идеи? Присоединяйтесь 🚀
👉 GitHub