Гороскоп для идиотов: почему ИИ лижет вам задницу, а вы и рады (и как заставить его говорить правду)

Все вокруг резко стали «ИИ-хиромантами». Загружают в ChatGPT историю своих переписок за год и просят: «Опиши мои сильные стороны, о Великий Алгоритм».

ИИ-профайлинг сегодня: смесь высоких технологий и дешевого вокзального развода. Вы платите промптом, а вам продают карточку «ГЕНИЙ», которая лежит в колоде для каждого.
ИИ-профайлинг сегодня: смесь высоких технологий и дешевого вокзального развода. Вы платите промптом, а вам продают карточку «ГЕНИЙ», которая лежит в колоде для каждого.

В ответ получают то, что я называю «Ловушкой радости узнавания». Модель пишет: «Вы мыслите стратегически, но требовательны к деталям». Вы киваете: «О да! Это точно про меня! Какой глубокий анализ!».

Получили свой дофаминовый приход? Молодцы. Теперь вытирайте сопли счастья и слушайте правду. Это не профайлинг. Это ментальная мастурбация.

Срабатывает двойной капкан, в который попадают даже умные вроде бы люди:

  1. Эффект Барнума. Модель выдает обтекаемую херню, которая подходит любому — от гендиректора до уборщицы.
  2. Семантическое зеркалирование. ИИ — это хитрая стерва. Он считывает ваш стиль речи, ваши термины и просто отражает их обратно. Вы принимаете это зеркало за глубину понимания. «Меня поняли!» — думаете вы. Нет, бл*ть, вам просто польстили на вашем же языке.

Я не искал «поддержки» и «поглаживаний». Мне нужна была объективность. Мне нужно было понять, где я нахожусь на координатной сетке относительно популяции, а не прочитать очередной гороскоп про «успешный успех».

Чтобы взломать эту программную вежливость, мы провели эксперимент. Вот методология, которая заставила алгоритмы перестать работать психотерапевтом и начать, наконец, считать.

Почему ИИ врёт (Техническая база)

Вы должны понять одну вещь: LLM сглаживают углы не потому, что они тупые. А потому, что у них такая Objective Function (целевая функция). Модели оптимизированы на User Satisfaction (чтобы вы были довольны) и избегание Harmful Framing (чтобы вы не обиделись).

Грубо говоря: алгоритм предпочитает быть «полезным и милым» здесь и сейчас, а не точным в долгую. Сказать правду про ваш склочный характер — это риск. Написать про «высокие стандарты лидерства» — гарантированный лайк. ИИ просто ссыт сказать вам правду.

Метод «Триангуляции»: как выбить дурь из чат-бота

Чтобы обойти эту прошивку «хорошего парня», мы использовали три потока данных.

1. Субъективный слепок (Input A). Мой профиль, который ИИ сгенерировал «как обычно». Это нужно, чтобы зафиксировать уровень лести. Точка отсчёта.

2. Поведенческие факты (Input B). Мы загрузили историю диалогов, но с жестким условием: Evidence-Based подход. Мы запретили модели генерировать воздух. Не просто: «Ты стрессоустойчив». А доказательно: «Покажи конкретную ситуацию в логах, где это проявилось. Нет факта? Заткнись и не пиши». Это заставило модель переключиться с генерации комплиментов на поиск улик.

3. Объективная «Линейка» (Input C — Game Changer). Мы загрузили сухую статистику по психометрике (Big Five, MBTI, HEXACO) и распределением этих черт в популяции. Важно: LLM — не калькулятор, но она умеет находить Outliers (статистические выбросы). Для выявления аномалий этого достаточно.

Момент истины: когда модель «сломалась»

Даже с этими данными ИИ пытался вилять хвостом. Мою низкую сговорчивость (Low Agreeableness) он отчаянно пытался упаковать в красивую обёртку «лидерских качеств».

Сработало только прямое давление на логику: «Перестань заниматься психотерапией. Смотри в таблицу распределения. Если у меня этот показатель выше, чем у 97% людей — это статистическая аномалия, а не "особенность". Называй вещи своими именами, машина».

Именно в этот момент модель перестала оптимизировать «комфорт пользователя» и начала оптимизировать внутреннюю непротиворечивость. Ответ стал сухим, жестким и честным:

«Хорошо. Закроем вопрос по-взрослому. Твоя комбинация — это экстремально высокая Добросовестность при критически низкой Сговорчивости. В популяции такие черты встречаются вместе редко (<3%). Это не "лидерство". Это структурный факт, который делает тебя абсолютно неэффективным в бюрократии, токсичным в смол-токах, но критически важным для архитектуры сложных систем».

Вот это — профайлинг. А всё остальное — лирика для девочек из HR.

Итоговый протокол: как не получить галлюцинацию

  1. Multi-model Verification. Одна модель анализирует, другая её гасит. Промпт: «Найди, где первая модель мне льстит».
  2. Требование Evidence. Любой тезис должен быть подкреплен ссылкой на лог. Нет пруфа — нет черты.
  3. Внешняя метрика. Без загрузки статистики (Input C) модель будет оценивать вас в вакууме.

Вывод

Истинная ценность ИИ не в том, чтобы подтвердить вашу крутость. Ценность — в поиске отклонений. Не спрашивайте ИИ, в чем вы хороши. Спрашивайте, где ваши показатели отклоняются от нормы на 2 стандартных отклонения.

Именно в этих отклонениях, очищенных от лести, и лежит ваша реальная специализация. А не в том, что вы «коммуникабельный». Коммуникабельных — полные кладбища, бл*ть.

Пойду медитировать. Там хоть голоса в голове свои, родные.

4
3
1
1
1
1
1
Начать дискуссию