90% людей переплачивают за ИИ. Вы — тоже?
Сегодня наткнулся на пост в VC: https://vc.ru/ai/2114147-sravnenie-tsen-tokenov-llm-gpt-4-1-gpt-4-1-mini — в нем сравнивают цены на токены в разных ИИ-моделях. Прочитал, цифры реальные. И подумал — а как эти тарифы выглядят в реальности , если смотреть через тот сервис, которым я реально пользуюсь каждый день для своих ботов и личных запросов к ИИ?
Решил провести мини-сравнение, просто цифры, которые я вижу в биллинге. Сравниваем аналогично со статьей: 10 000 входных токенов + 1 000 выходных. Пересчитал всё в рубли (1 USD = 100 RUB), включая overhead для "думающих" моделей, т.к. мой сервис в рублях оплачивается.
Результаты — в таблице. Что это значит на практике?
Например, один бот делает около 5 000 запросов в день к GPT-4.1 Mini.
По официальному тарифу это 3 000 рублей в день → 90 000 в месяц .
Альтернативная цена 10 500 рублей в месяц .
Экономия — 79 500 ₽ в месяц. Это не просто "приятно", это позволит работать ещё 3–4 проектам на эти деньги.
Если вы используете o3 или Gemini Pro — разница ещё жестче. Один запрос на OpenAI o3 — 3,4 рубля. У меня — 70 копеек. Если таких запросов 10 тысяч — вы экономите 27 тысяч рублей . За месяц — это уже сотни тысяч .
Так дешево и при этом работает?
Я сначала тоже думал: ну, дёшево — значит, подтормаживает, или очереди, или API сыпется. Начал работать увидел, что практически нет, бывают редкие проблемы проблемы с доступностью, бывает переполнение контекстного окна (если пытаться впихнуть невпихуемое), некоторые модели не понимают картинки выдают ошибки, но это всё не часто и не критично.
API отвечает быстро, нужен VPN, работает стабильно из России.
Совместим с OpenAI — поменял base_url в коде, и все обращения сразу пошли на нового провайдера.
Один ключ — и можно переключаться между моделями без лишних телодвижений.
Еще у них есть поддержка, документация, и для юрлица можно заключить договор. То есть это не "кто-то в гараже", а нормальный сервис.
Если вы:
— делаете Telegram-ботов,
— автоматизируете поддержку,
— генерируете контент,
— анализируете данные,
— или просто пробуете ИИ в своих проектах,
то платить полную цену просто нет смысла . Тем более, когда можно использовать ту же самую модель , но в 2–10 раз дешевле.
Недавно подключил API своего провайдера к Chatbox AI — теперь использую его как локальный интерфейс для работы с ИИ. Удобно: можно создавать ассистентов, подключать MCP, загружать файлы, использовать векторные базы — всё это без лишнего кода, не со всем еще разобрался, но работает. При этом история диалогов хранится у меня локально, ее можно экспортировать, например в мобильное приложение, которое тоже есть.
В результате я не плачу за подписку на Chatbox. Просто пополняю баланс провайдера, а трафик идёт через его API. Да, настройка требует чуть больше усилий (нужно вручную прописать endpoint и ключ), но зато нет абонентки, полный контроль над расходами и возможность быстро переключаться между моделями. Для личного пользования — самый комфортный вариант, который я пока нашёл.
Хотя, честно — всё равно плачу за ChatGPT Plus, подписан на Perplexity Pro, бесплатно катаю быстрый Qwen, а от Manus и Lovable сейчас просто в восторге. Просто каждый инструмент — под свою задачу. А мой кастомный setup с Chatbox + свой API — это про экономию, контроль и чтобы ничего не упиралось в лимиты.
Я не буду рекламировать своего провайдера прямо здесь. Просто сравнил цены — официальные и те, что вижу в своих расходах. По сути, одно и то же можно получать в разы дешевле. Если кому интересно, ссылку на провайдера и подробности оставлю у себя в канале «Бот в блокноте» . Там же делюсь не только ценами, но и тем, как всё это работает на практике.