Claude Code: Когда твой ИИ внезапно решил, что ты слишком много спрашиваешь?

История о том, как Anthropic решила поиграть в строгого родителя

Понедельник — день тяжёлый, особенно если ты пользователь Claude Code. С утра пораньше компания решила внезапно ограничить доступ к своим сервисам, причём без предупреждения и с загадочной надписью «Превышен лимит использования».

Что случилось?

Богатые тоже плачут: особенно те, кто платит $200 в месяц за Max-план. Теперь эти счастливчики внезапно обнаруживают, что их «безлимитный» доступ внезапно стал очень даже лимитированным.

Пользователи в шоке:

* «Как за 30 минут я умудрился потратить 900 сообщений?!» — вопрошают они

* «Мой проект встал, потому что ИИ внезапно решил отдохнуть» — жалуются разработчики

* «Альтернатив нет» — вздыхают бедолаги, пытавшиеся перейти на Gemini и Kimi

Anthropic: Мы в курсе, но молчим

Представитель компании скромно сообщил, что «в курсе проблем» и «работает над ними». Спасибо, кэп!

Почему это проблема?

Система лимитов Anthropic построена так, что:

* Max-план обещает в 20 раз больше, чем Pro

* Pro — в 5 раз больше, чем бесплатный

* Но бесплатный лимит «зависит от спроса» (то есть от настроения Anthropic)

Итог

Пользователи не могут планировать свою работу, потому что не знают, когда их внезапно «отрубят». А те, кто платит $200, иногда делают вызовов на $1000 в день — неудивительно, что компания решила прикрутить гайки.

P.S. Мораль истории: даже если ты платишь за ИИ, он всё равно может сказать тебе «Хватит!» 😝

Совет от автора: сохраняйте спокойствие и помните — когда ваш ИИ-помощник внезапно отключается, это просто его способ сказать: «Пойди прогуляйся, а то ты слишком много от меня хочешь!» 😉

Источник: https://smart-lab.ru/my/ves2010/comment/page28
Источник: https://smart-lab.ru/my/ves2010/comment/page28
Начать дискуссию