🧠🤖 Думают ли LLM на самом деле?
VentureBeat опубликовал статью с броским тезисом: «Большие рассуждающие модели почти наверняка умеют думать».
Это ответ Apple, которая ранее заявила, что всё это лишь «иллюзия мышления».
Автор проводит простую аналогию: если человек знает алгоритм «башни Ханоя» с 20 дисками, но не может её решить — это же не значит, что человек не умеет думать. Так почему мы судим об ИИ иначе?
По сути, аргумент Apple сводится к фразе «если мы не понимаем, как модель рассуждает, значит, она не рассуждает».
VentureBeat парирует: никто не доказал, что модели не думают. А когда они уверенно решают задачи на причинно-следственные связи и объясняют код лучше младшего разработчика — спорить с этим становится всё сложнее.
И вот тут начинается интересное.
Мы подменили критерий мышления понятием «объяснимости».
А ведь человек тоже не всегда может объяснить, почему принял то или иное решение — но мы не отнимаем у него право называться мыслящим.
Возможно, они уже думают — просто без нас, тихо и без пафоса.
Мы всё ждём, когда ИИ объяснит, как он рассуждает. А он, похоже, ждёт, когда мы осознаем, что нам это не к чему.
Подписывайтесь на Telegram PromtScout.