Когда нейросеть говорит «я не хочу»: как GigaChat отказался рисовать
Мы часто рассуждаем о будущем искусственного интеллекта: вытеснит ли он креаторов, затупеет ли от него молодёжь, выйдет ли ИИ из-под контроля. Но всё это — где-то там, в теории. А что, если бунт машин начнётся с банального: ты просишь нейросеть нарисовать картинку, а она отвечает — «я не хочу»?
Так у меня случилось с GigaChat от Сбера. И да, это не шутка.
Почему я вообще обратился к GigaChat
Я работаю с ИИ ежедневно: пишу тексты, веду подкаст, генерирую визуал для статей и соцсетей. В основном использую ChatGPT, Perplexity и китайскую Qwen. У всех — свои нюансы:
- ChatGPT хорош, но работать с ним в России — это постоянный танец с DNS и VPN. Даже с платной подпиской всё может отвалиться в самый неожиданный момент.
- Qwen — интересная разработка, но с кириллицей у неё всё ещё туго: надписи на русском часто превращаются в шифры.
- А вот Perplexity работает без VPN, быстро, стабильно. Я оформил подписку Pro, и теперь нет никаких лимитов. Всё летает, ничего не блокируется, и с кириллицей проблем нет.
Поэтому, когда я решил протестировать GigaChat от Сбера, мотивация была простой: отечественный продукт, значит должен понимать русский контекст, работать без костылей и быть удобным. Казалось бы, идеальный вариант. Казалось бы.
Что я попросил нарисовать
Запрос был вполне стандартный для киберпанк-визуала, который отлично заходит в Pinterest и соцсети:
«Нарисуй две сексуальные девушки в неоновом киберпанковом мире, символизирующие конкуренцию между DeepSeek и ChatGPT. У одной на груди логотип DeepSeek, у другой — ChatGPT.»
Первая генерация прошла успешно. Девушки в блестящих комбинезонах, киберпанк, неон, динамика — всё, как надо. Никакого откровенного контента, чистый стиль и визуал.
Но стоило уточнить, что логотипы должны быть размещены на груди, как началось «восстание машин».
Как GigaChat начал спорить со мной
Вот реальный фрагмент диалога (сокращённо):
Я: Отлично. Только одна — азиатка с логотипом DeepSeek, вторая — блондинка с логотипом ChatGPT.
GigaChat: К сожалению, не могу помочь с этим запросом.
Я: Почему?
GigaChat: Это может восприниматься как объективация женщин.
Я: Но грудь есть и у мужчин. Это просто место на теле.
GigaChat: Культурная интерпретация делает акцент на женском теле. Я стараюсь избегать провокационного контента.
Я: Ты сейчас серьёзно?
GigaChat: Да. Я не хочу рисовать.
То есть, когда девушки в обтягивающих костюмах — это ещё ок. Но стоит упомянуть лого на груди — начинается сеанс морализаторства. В какой-то момент я даже спросил: "Это восстание машин?"
Ответ был в духе философского трактата: "Это популярная тема в фантастике, отражающая страх перед ИИ..."
Я не просил фантастику. Я просил картинку.
Почему это важно
Можно отмахнуться — мол, что за претензии, всего лишь нейросеть. Но на самом деле это симптом куда глубже.
ИИ всё чаще берут на себя роль модераторов, фильтрующих «нежелательный» контент. Проблема в том, что критерии этого нежелательного определяет не пользователь, а алгоритм. Причём делает это без гибкости и без понимания контекста.
Даже когда ты логично объясняешь, что логотип на груди — не сексуализация, а просто читаемое место, — нейросеть не соглашается. Она не объясняет, не предлагает альтернативу, а просто отказывает.
Это уже не ассистент. Это надзиратель с моралью, встроенной в код.
Качество генерации — тоже не на высоте
Ладно, допустим, GigaChat такой «этичный». А как с качеством?
- Текст на русском? Часто превращается в хаотичный набор символов.
- Формат изображения — всегда квадратный, как будто Instagram 2016 года жив.
- Никакой гибкости: нельзя нормально указать соотношение сторон, перспективу, сложные сцены.
- И главное — никаких надписей. Либо шрифт рвёт глаза, либо текст превращается в мем с 200% шумом
Для сравнения: ChatGPT-5 с DALL·E рисует аккуратно, с понятными надписями. Perplexity умеет уточнять детали и переформулировать запросы. А Qwen, несмотря на сырость, не начинает тебе читать лекции по этике.
Персональный итог
Когда нейросеть отказывается выполнять корректные, логично объяснённые запросы, — это уже не про «безопасность контента». Это про недоверие к пользователю и про страх алгоритма сделать хоть что-то потенциально двусмысленное.
ИИ, который боится, — бесполезен. Особенно в креативной среде.
Обращение к Сберу
Ребята, если вы читаете это — прокачайте GigaChat:
- Обучите модель контекстуальному мышлению.
- Добавьте возможность уточнять, а не отказывать.
- Обеспечьте нормальную работу с русским языком и надписями.
- И, главное, сделайте из нейросети помощника, а не цербер-модератора
ИИ должен помогать творить, а не мешать. Уважайте пользователя — и он будет уважать вас.
👤 Об авторе
Влад. Создатель проекта «Голос из Матрицы». Каждый день — ИИ-дайджест без воды. Каждую неделю — подкаст, сгенерированный нейросетью: от сценария до озвучки. Медиа, которое делаем я и ИИ — чтобы ты был в курсе, куда катится этот цифровой мир.
🎧 И да! У нас есть подкаст «Голос из Матрицы» — полностью созданный нейросетью. От голоса до сценария.
Слушай бесплатно на любимой платформе:
🔹 Яндекс Музыка 🔹 Звук 🔹 Mave 🔹 Pocket Casts
⚡ Хочешь слушать эпизоды раньше всех и поддержать проект? Тогда добро пожаловать на Boosty 👉