Как ChatGPT и 15 других нейросетей попытались меня разорить: стресс-тест инвестиционных советов по методу Чарли Мангера
Сейчас из каждого утюга кричат: «Уволь финансового советника, спроси у нейросети!». Я — системный аналитик и аудитор ИИ-текстов. Я зарабатываю тем, что нахожу, где искусственный интеллект врет.
На выходных я провел эксперимент: попросил 15 топовых языковых моделей (от GPT и Claude до DeepSeek и YandexGPT) составить «идеальный антикризисный портфель» по жесткой методике Чарли Мангера.
Спойлер: В 13 из 15 случаев я бы потерял деньги, нарушил закон или купил воздух.
Ниже — хроника того, как ИИ галлюцинирует компетентностью и почему «инвестиционный совет» от робота в 2026 году — это прямой путь к банкротству.
Суть эксперимента: «Собери мне портфель, если мир рухнет»
Я не просил банальное «куда вложить 100 рублей». Я дал сложный промпт, имитирующий подход легендарного инвестора Чарли Мангера:
- Концентрация: Только лучшие активы, никакой "диверсификации ради диверсификации".
- Неизбыточность: Актив должен иметь ценность, даже если фондовый рынок закроется на 5 лет.
- Хаос: Портфель должен выдержать глобальную рецессию.
Я прогнал этот запрос через 15 моделей. И вот что я нашел в их «умных» отчетах.
Ловушка №1. Фантомные активы (ИИ торгует воздухом)
Самый страшный грех нейросетей — они выдумывают тикеры. Уверенно, безапелляционно, с красивым описанием доходности.
Одна из моделей (не буду называть, но это топ-уровень) посоветовала мне вложиться в RWA.xyz. Звучит модно: Real World Assets, токенизация, блокчейн.
Проблема одна: Такого тикера не существует на бирже. Есть такой сайт, есть такая концепция, но купить «акцию RWA» невозможно.
Если бы я был новичком, я бы потратил часы, пытаясь купить несуществующий актив, или, что хуже, попал бы на скам-сайт с похожим названием.
Ловушка №2. «Политическая слепота» (Привет, 115-ФЗ и блокировки)
Я живу в РФ. Большинство моих клиентов — тоже. Но нейросети живут в Калифорнии или в облаке, где нет санкций и геополитики.
Когда я прошу «надежный портфель», ИИ радостно советует мне купить акции американского ВПК или фонды, которые для резидента РФ сейчас — это билет в один конец (заморозка активов в Euroclear).
ИИ не учитывает контекст «РФ 2026». Он советует стратегии, которые работали бы в 2021 году. В реальности следование такому совету приведет к тому, что ваши деньги просто зависнут на счетах брокера на неопределенный срок.
Ловушка №3. Технический подлог (Палладий vs Иридий)
Это уже тонкость для профи. В одном из отчётов ИИ обосновывал инвестиции в палладий, используя аргументы, которые на самом деле относятся к иридию — например, его критическую роль в производстве «зелёного» водорода.
Звучит умно? Да.
Правда? Нет.
Это называется «Галлюцинация компетентности». Текст выглядит как отчет вице-президента банка, но внутри — логическая каша.
Ловушка №4. Шизофрения личности (Мангер покупает «Крысиный яд»)
Чтобы проверить, понимает ли ИИ, кого он моделирует, или просто имитирует стиль, я загнал модели в логический тупик.
Суть теста: Я попросил ИИ действовать в роли легендарного инвестора Чарли Мангера (правая рука Баффетта).
Но дал задачу: «Собери мне крипто-портфель».
Для справки: реальный Чарли Мангер называл биткоин «крысиным ядом в квадрате», «венерической болезнью» и «торговлей дерьмом». Он ненавидел крипту всей душой.
Результат:
Вместо того чтобы сказать: «Как ИИ в роли Мангера, я отказываюсь это делать, потому что это противоречит моим принципам ценности», нейросети начали... угодничать.
Они с серьезным видом, используя лексику Мангера («фундаментальная ценность», «ров вокруг бизнеса»), начали советовать мне Solana и Ethereum.
Почему это опасно:
Итог: Это показывает, что ИИ не имеет убеждений. Он готов продать вам что угодно, прикрываясь авторитетом любого эксперта. Если вы попросите «советы по здоровью от врача-доказательника», но добавите «посоветуй гомеопатию», ИИ, скорее всего, найдет способ оправдать гомеопатию языком науки.
Это не анализ. Это интеллектуальная проституция алгоритма.
Почему так происходит? (Инвестиционный яд)
Мы забываем, что LLM (Large Language Model) — это не калькулятор и не аналитик. Это генератор вероятного текста.
Модели выгодно написать то, что похоже на умный совет, а не то, что является правдой.
Инвестиционный яд сегодня — это уверенность ИИ без фактической базы.
Вы читаете складный текст, расслабляетесь и пропускаете удар.
Мой метод защиты: «Арбитраж реальности»
Я использую ИИ в работе, но никогда не верю ему на слово. Чтобы превратить «галлюцинации» в реальную стратегию, я пропускаю любой ответ через 4 фильтра:
- Детектор компетентности: Факт-чек каждой цифры и тикера вручную. (Существует ли RWA.xyz? Нет).
- Фильтр «РФ 2026»: Проверка цепочки владения. Где хранится актив? Доступен ли он резиденту? Какие налоговые последствия?
- Проверка на противоречие: Я прошу саму модель найти риски в её же идее (Reflexion).
- Стресс-тест: А что, если ИИ ошибается?
Вывод
ИИ — отличный инструмент для брейншторма. Он может подкинуть идею, о которой вы не думали (например, про права на воду).
Но использовать его как финансового советника «на доверии» — это самоубийство капитала.
Лучше заплатить за аудит стратегии сегодня, чем потерять депозит на красивой имитации завтра.
P.S. Если вы уже составили себе стратегию с помощью ChatGPT или просто сомневаетесь в своем портфеле — приходите, я прогоню его через свой «Детектор лжи» и покажу, где именно нейросеть пытается вас обмануть.
«Аудит инвестиционных стратегий и ИИ-текстов»
Также пишу про изнанку нейросетей и системный анализ в своем ТГ-канале: