Блог Дмитрия

с 15.12.2025

Как технологии меняют нашу жизнь уже сегодня, а не завтра. Обзоры самых горячих нейросетей, которые можно использовать в работе и для развлечений.

1 подписчик
2 подписки

Вы правы в описании функционализма как позиции — но статья как раз не отрицает его в принципе. Речь идёт о другом уровне: не о том, можно ли в абстракции описывать интеллект как систему функций, а о том, обоснованно ли приписывать эти функции конкретной реализации — ChatGPT.
Функционализм утверждает, что психические состояния определяются каузальной ролью в системе. Вопрос здесь в том, реализует ли языковая модель такие роли полностью или лишь имитирует их внешние проявления. У ChatGPT нет собственных целей, нет автономного обновления опыта, нет устойчивых внутренних состояний, сохраняющихся как личная история — все «функции» задаются извне и существуют только в рамках текущего вычисления.
Поэтому утверждение статьи не в том, что интеллект не может быть функциональным, а в том, что в случае ChatGPT мы имеем дело с системой, чьё поведение функционально похоже на интеллектуальное, но чьи каузальные роли слишком обеднены, чтобы говорить о намерениях, опыте или понимании без сильной метафоры. Именно это различие — между реализацией функции и правдоподобной симуляцией её результата — и является ключевым.

Речь не про «доказательство отсутствия» намерений или понимания, а про уровень описания. Сегодня работу ChatGPT полностью объясняют без введения этих понятий — как систему статистического предсказания, а не субъекта с целями или опытом. Поэтому говорить о намерениях и чувствах здесь корректно только как о метафоре.

Про ответственность вы как раз подтверждаете тезис статьи: она социальная и юридическая, а значит, лежит на человеке или организации, а не на модели. Проблема возникает не философская, а практическая — когда форму разумного поведения начинают путать с наличием субъекта.