Claude Code: Когда твой ИИ внезапно решил, что ты слишком много спрашиваешь?
История о том, как Anthropic решила поиграть в строгого родителя
Понедельник — день тяжёлый, особенно если ты пользователь Claude Code. С утра пораньше компания решила внезапно ограничить доступ к своим сервисам, причём без предупреждения и с загадочной надписью «Превышен лимит использования».
Что случилось?
Богатые тоже плачут: особенно те, кто платит $200 в месяц за Max-план. Теперь эти счастливчики внезапно обнаруживают, что их «безлимитный» доступ внезапно стал очень даже лимитированным.
Пользователи в шоке:
* «Как за 30 минут я умудрился потратить 900 сообщений?!» — вопрошают они
* «Мой проект встал, потому что ИИ внезапно решил отдохнуть» — жалуются разработчики
* «Альтернатив нет» — вздыхают бедолаги, пытавшиеся перейти на Gemini и Kimi
Anthropic: Мы в курсе, но молчим
Представитель компании скромно сообщил, что «в курсе проблем» и «работает над ними». Спасибо, кэп!
Почему это проблема?
Система лимитов Anthropic построена так, что:
* Max-план обещает в 20 раз больше, чем Pro
* Pro — в 5 раз больше, чем бесплатный
* Но бесплатный лимит «зависит от спроса» (то есть от настроения Anthropic)
Итог
Пользователи не могут планировать свою работу, потому что не знают, когда их внезапно «отрубят». А те, кто платит $200, иногда делают вызовов на $1000 в день — неудивительно, что компания решила прикрутить гайки.
P.S. Мораль истории: даже если ты платишь за ИИ, он всё равно может сказать тебе «Хватит!» 😝
Совет от автора: сохраняйте спокойствие и помните — когда ваш ИИ-помощник внезапно отключается, это просто его способ сказать: «Пойди прогуляйся, а то ты слишком много от меня хочешь!» 😉