C²-AGI: Когда забытая логика встречается с нейросетями.

Или как заставить ИИ не просто генерировать, а думать.

Пролог: Мост через столетие
В пыльных архивах русской философской школы начала XX века хранятся труды, которые их авторы создавали задолго до первых ЭВМ. Формальная логика, теория суждений, законы правильного мышления — всё это казалось безнадёжно устаревшим в эпоху трансформеров и мультимодальных моделей.
Казалось.
А что если взять эти принципы — строгие, выверенные, прошедшие проверку веками — и скрестить их с современными LLM? Не заменить нейросеть логикой, а дать ей то, чего ей критически не хватает: способность видеть собственные противоречия.
Так родился проект C²-AGI — Cognitive-Logic Architecture for AGI.

Проблема: Умный, но непоследовательный
Любой, кто работал с современными языковыми моделями, знает их ахиллесову пяту. GPT, Claude, Gemini — все они впечатляюще генерируют текст, код, идеи. Но попробуйте дать им сложную задачу с взаимоисключающими условиями:
— Модель уверенно выдаст ответ
— Который будет внутренне противоречивым
— И она этого даже не заметит
LLM — это вероятностные машины. Они предсказывают следующий токен, а не проверяют логическую согласованность. Это как блестящий оратор, который говорит убедительно, но не следит за тем, чтобы его утверждения не опровергали друг друга.

Решение: Когнитивный каркас
C²-AGI — это не ещё одна модель. Это архитектурная надстройка, которая добавляет любой LLM то, чего у неё нет от природы:
Девять алгоритмов детекции противоречий
Система анализирует выходные данные модели и выявляет:
Прямые логические противоречия
Семантические конфликты
Темпоральные несоответствия
Контекстуальные расхождения
...и ещё пять типов логических «трещин»
Семь паттернов дедуктивного вывода
Классические формы силлогизмов, адаптированные для работы с естественным языком. Система не просто находит противоречия — она строит цепочки рассуждений и показывает, почему что-то не может быть истинным.
Четырёхуровневая память
Эпизодическая — что происходило в диалоге
Рабочая — текущий контекст рассуждений
Процедурная — как решать типовые задачи
Семантическая — долгосрочные знания и связи

Тест на квантовой физике: Проверка боем
Чтобы не быть голословным — реальный пример. Системе была предложена задача с противоречивыми данными об эксперименте с двумя щелями:
Входные данные содержали конфликт: детектор активирован, но в 40% случаев интерференционная картина сохранилась — что противоречит стандартной копенгагенской интерпретации.
Что сделала система:
Найдено противоречий: 8
Построено дедуктивных выводов: 5
Уровень логической согласованности: 0.82
Время анализа: 49.4 сек
Система не просто нашла противоречия — она:
Классифицировала их по типам и серьёзности
Выделила набор утверждений, которые могут быть истинными одновременно
Указала, какие утверждения обязательно ложны
Предложила минимальное непротиворечивое объяснение (через интерпретацию многих миров)
Построила силлогизмы, демонстрирующие логику выводов
Определила, какие данные нужны для устранения оставшейся неопределённости
Ни одна «голая» LLM так не умеет. Она выдала бы красивый текст, возможно даже упомянула бы противоречия — но не провела бы систематический логический разбор.

Универсальность: И достоинство, и вызов
Здесь нужно быть честным. На текущем этапе у C²-AGI есть одна особенность, которую можно считать и сильной стороной, и ограничением: система универсальна.
Это значит, что она работает «из коробки» с любой задачей — от анализа юридических документов до разбора научных гипотез. Но максимальную мощность архитектура покажет после настройки под конкретную предметную область.
Где C²-AGI может изменить правила игры:
Медицинская диагностика - Выявление противоречий в симптомах, проверка совместимости назначений
Юридический анализ - Поиск логических дыр в контрактах и законодательных актах
Научные исследования - Проверка гипотез на внутреннюю согласованность
Финансовый аудит - Детекция противоречий в отчётности
Образование - Разбор логики аргументации студентов
Разработка - ПОАнализ противоречий в требованиях и спецификациях

Усилитель для любой модели
Важный момент: C²-AGI — это не замена существующих LLM, а мультипликатор их возможностей.
Архитектура тестировалась с моделями разных поколений и производителей. Результат стабилен: логическая надстройка усиливает способности базовой модели к структурированному анализу независимо от того, работаете вы с компактной моделью прошлых лет или с новейшим флагманом.
Более слабые модели получают «протез логического мышления», которого им не хватает. Сильные модели — инструмент для верификации собственных выводов.

Технические детали для любопытных:
Кодовая база: 6000+ строк, 9 модулей
Бэкенд: Python, модульная архитектура
Интерфейс: Билингвальный веб-интерфейс (RU/EN)
Интеграция: API-совместимость с основными LLM-провайдерами

Система спроектирована так, чтобы её можно было подключить к существующей инфраструктуре без переписывания всего с нуля.

Вместо заключения
Мы живём в интересное время. Нейросети научились писать стихи, код и диссертации. Но они до сих пор не научились думать последовательно.
C²-AGI — это попытка вернуть в эпоху машинного обучения то, что было хорошо известно логикам и философам столетие назад. Не ради ностальгии, а потому что это работает.
Идеи, проверенные веками, оказались именно тем недостающим элементом, который нужен современному ИИ.
Иногда, чтобы двигаться вперёд, нужно оглянуться назад.

P.S.
Этот проект разрабатывается независимым исследователем. Без грантов крупных корпораций, без команды из сотни инженеров.
Большие компании-разработчики ИИ вкладывают миллиарды в наращивание параметров моделей, но почему-то упорно не замечают, что проблема не в размере — а в архитектуре мышления. Что увеличение модели с 70 до 700 миллиардов параметров не научит её видеть собственные противоречия.
Возможно, однажды они обратят внимание. А пока — проект открыт для тех, кого интересует не только размер модели, но и качество её рассуждений.
Если тема показалась интересной — буду рад обсуждению в комментариях. Особенно от тех, кто сталкивался с логическими «галлюцинациями» LLM в своей работе.

2 комментария