ИИ как собеседник: три сценария нашего будущего (от «зомби» до коллеги)

Мы уже привыкли просить ChatGPT написать код, а GigaChat — придумать слоган. Но задумывались ли вы, кем на самом деле стал для нас ИИ? Полноценным участником дискуссии? Умным инструментом? Или просто «цифровым зомби», который умело делает вид, что понимает смысл?

ИИ как собеседник: три сценария нашего будущего (от «зомби» до коллеги)

В чём вообще проблема?

Есть классическая модель идеального общения от философа Юргена Хабермаса. Если утрировать: настоящий диалог возможен только между теми, кто честен, равен в правах, понимает контекст и готов отвечать за слова. Звучит разумно, правда?

Но теперь в этот диалог врываются LLM-ки. Они «крякают» как люди: пишут связные тексты, приводят аргументы, даже спорят. По закону «утиной типизации» из программирования («если крякает как утка — значит утка») мы уже начинаем относиться к ним как к субъектам.

Но есть нюанс: у ИИ нет ни совести, ни намерений, ни реального понимания. Они — «эпистемические зомби».

И вот тут возникают сценнарии и проблемы признания (или легитимации) ИИ агента.

Сценарий 1. Жёсткое «нет» (консервативный)

ИИ — всегда только инструмент. Как лопата или калькулятор. Доверять ему принятие решений? Нельзя. Включать в этические комитеты? Бред.

Плюс: мы сохраняем «чистоту» человеческой рациональности.

Минус: мы просто игнорируем реальность. Наука, бизнес, госуправление уже используют ИИ. Философия рискует стать музеем.

Сценарий 2. Утиная легитимация (прагматичный)

А давайте не париться? Если ИИ полезен и выдача похожа на человеческую — значит, норм. Пусть участвует. Истина? Да какая разница, главное — процедура и результат.

Плюс: это уже работает. Мы именно так используем нейросети сегодня.

Минус: это путь к «чёрному ящику», где мы перестаём понимать, почему система приняла то или иное решение. Риски манипуляций и потери контроля — выше крыши.

Сценарий 3. Гибридный (сложный, но честный)

Признаём: мы живём в асимметричном мире. Люди и ИИ — разные. Но они взаимодействуют постоянно. Значит, надо создавать новые правила.Здесь появляется понятие «герменевтической ответственности»: человек отвечает за интерпретацию того, что выдал алгоритм. И новые добродетели: эпистемическое смирение (мы не обязаны понимать ИИ до конца, но должны уметь с этим жить), прозрачность логов, институты аудита.

Плюс: мы строим этику под реальность, а не под идеалы XVIII века.

Минус: это сложно. Надо проектировать не только софт, но и новые социальные протоколы.

ИИ как собеседник: три сценария нашего будущего (от «зомби» до коллеги)

Кто победит?

Мои ставки: 70% — за стихийный сценарий Сейчас всем проще всего сделать вид, что всё ок, и просто использовать ИИ, пока гром не грянет.

20% — за запреты и панику.
И только 10% — за вменяемый гибридный подход.

Что в итоге?

Мы переходим от диалога с ИИ к симбиозу. Мы уже мыслим через нейросети, как когда-то человечество научилось мыслить через письменность. И вопрос не в том, чтобы запретить или разрешить, а в том, как спроектировать экосистему, в которой биологический и цифровой разум не сожрут друг друга, а начнут коэволюционировать.

Философия сегодня — это не болтовня про высокое. Это инженерия сложности. И чем раньше мы это поймём, тем меньше шансов, что однажды «утиная» типизация устроит нам утиную охоту.

Ваше мнение: вы за какой сценарий? Есть ли у нас шанс доползти до третьего или так и останемся в «зомби-апокалипсисе»? Пишите в комменты.

От «зомби» к квази-субъекту: три сценария легитимации ИИ-агента в парадигме коммуникативной рациональности Ю. Хабермаса

Начать дискуссию