1. Он огромный, 81 строчка. Больше, чем, наверное, среднестатистический запрос, сужу по себе. Это создает дополнительную нагрузку для ИИ из-за кучи информации и действий. А промт еще и повторять придется через 3-4 запроса, потому что GPT-4o не умеет помнить все долго.
2. Из-за его объема и количества действий вы не сможете сразу дать свою задачу, GPT может просто запутаться и не понять что к чему. Придется сначала потратить запрос на эту настройку, а потом только на вашу задачу. А потом еще и повторят этот промт снова и снова.
3. Он тратит много токенов на «размышления» ИИ, которые могли бы пойти на ваш ответ. Если вам нужно решить какую-то локальную задачку — это будет не проблема, но вот если вы пишите SEO-текст или код — каждый токен для ответа будет на счету.
И ладно если у вас куплена подписка, тогда вы просто будете тратить немного больше времени на качественные ответы. Но вот гордым обладателям free-тарифа это все очень болезненно, каждый запрос на счету.
Я думала рассуждать только модели o1 могут 🤔
Если правильно попросить, практически все смогут)
В каких еще ИИ это работает?
Во всех чат-ботах типа GPT-4о: claude, mistral, deepseek и т.д.
Тут суть не в том, что мы что-то новое даем ИИ, мы "разводим" ее на подумать с помощью такого доппромта, чтобы она дала лучший ответ))