Топология мышления: почему ИИ — это геометрия
Когда я думаю об ИИ, я думаю о топологии. Звучит странно? На самом деле всё проще, чем кажется — и одновременно глубже, чем мы привыкли считать.
Представьте кусок пластилина. Вы можете его мять, растягивать, скручивать — но пока не порвёте и не проткнёте дырку, некоторые свойства останутся неизменными. Нарисуйте на нём круг — и как бы вы ни деформировали материал, круг не превратится в две окружности и не станет линией. Это и есть топология — математика поверхностей и их неизменных свойств. Но причём тут нейросети?
Как нейросети видят мир
Любая задача классификации — это попытка провести границу между данными. Коты слева, собаки справа. Но что если данные перемешаны так, что прямой линией их не разделить?
Тут на сцену выходит глубокое обучение. Нейросеть берёт наше пространство данных и начинает его деформировать. Слой за слоем она применяет математические трансформации, пока хаотично разбросанные точки не выстроятся так, что их можно будет разделить простой границей.
Крис Ола из Anthropic описал это ещё в 2014 году: каждый слой нейросети — это геометрическая трансформация. Линейное преобразование (умножение на матрицу), сдвиг (прибавление вектора), нелинейная функция активации (искривление пространства). Сложите десятки таких трансформаций — и получите систему, способную отличать котов от собак.
Высшие измерения решают всё
Но что если данные принципиально неразделимы? Скажем, точки одного класса окружены точками другого класса, как в мишени? Топология неумолима — в двух измерениях это не решить.
Выход? Добавить измерения. То, что невозможно разделить на плоскости, элементарно разделяется в трёхмерном пространстве. А нейросети оперируют сотнями и тысячами измерений. В таком пространстве можно найти способ разделить практически любые данные.
Всё есть многообразие
А теперь к самому интересному. Абсолютно всё можно представить как точки на многомерной поверхности — многообразии.
Цвета? Живут на трёхмерном многообразии RGB. Хотите получить фиолетовый? Сложите векторы красного и синего.
Изображения? Каждая картинка — точка в пространстве размерности (высота × ширина × 3). Можно провести линию от фото Брэда Питта до Моны Лизы, и каждая промежуточная точка будет валидным изображением.
Слова? Тоже многообразие. Помните знаменитый пример: «король» — «мужчина» + «женщина» = «королева»? Это буквальная векторная арифметика в пространстве смыслов.
Нейросети как универсальные картографы
Получается, нейросети — это не просто классификаторы. Это универсальные машины топологий. Они берут сырые данные и находят такое представление, где семантически близкие концепции оказываются рядом, а далёкие — ...ну, далеко.
Есть многообразие мебели, где все стулья кластеризуются отдельно от столов. Есть многообразие погодных условий в Непале (которое, кстати, используют хедж-фонды для прогнозирования цен на товары; не спрашивайте). Есть даже многообразие запахов, связанных с эмоциями.
Рассуждения тоже живут на многообразии
Само мышление можно представить как многообразие, где «хорошие» рассуждения находятся в одной области, а «плохие» — в другой.
Именно это делают OpenAI, Anthropic, DeepSeek и другие. Они больше не учат модели просто предсказывать следующее слово — этот подход исчерпал себя. Вместо этого они учат модели перемещаться по многообразию рассуждений от области «предсказание токенов» к области «логическое мышление».
Chain-of-thought, reasoning traces — всё это способы навигации по пространству мышления. Сейчас все подряд пытаются проложить маршрут напрямую от случайного шума к продвинутым рассуждениям через reinforcement learning. Получается не идеально, но направление ясно.
Если мыслить о глубоком обучении через призму топологии, всё встаёт на свои места. Embeddings, attention, fine-tuning — всё это манипуляции с геометрией смыслового пространства.
Подписывайтесь на Telegram-канал Нейрократия.