Китайский ИИ наносит ответный удар: вышла Qwen3, которая уделала Claude 4 Opus без «мозгов»

Привет, VC! Михаил Буров снова в эфире. Пока мы тут спорим, чей VPN быстрее, и ждем GPT-5, китайские разработчики молча выкатили монстра. Знакомьтесь, Qwen3-235B-A22B — нейросеть с названием, которое сломает язык, и с производительностью, которая ломает рынок.

Я покопался в бенчмарках, почитал технические доки и потыкал ее сам. Спойлер: она обходит Claude 4 Opus, не используя «режим мышления», который так пиарят конкуренты. Похоже, в гонке ИИ появился новый, очень дерзкий игрок. Разбираемся, что это за зверь и почему это важно для всех нас.

Китайский ИИ наносит ответный удар: вышла Qwen3, которая уделала Claude 4 Opus без «мозгов»

Что за Qwen3 и почему все напряглись?

Представьте себе гоночный болид, из которого выкинули все лишнее, включая некоторые части двигателя, но он поехал быстрее. Это и есть новая Qwen3.

Разрабы из Alibaba сделали гениальный ход: они заметили, что пользователи их прошлой модели почти не включали медленный режим «размышлений» (/think). Он жрал ресурсы и тормозил. Поэтому в новой версии его просто ампутировали. Совсем.

И что в итоге? Модель, работающая в режиме «голых инстинктов», внезапно начала рвать бенчмарки. Она лучше пишет код, щелкает задачки по математике и, судя по всему, стала гораздо эффективнее.

Контекст на 256к токенов: засунуть в ИИ всего «Мастера и Маргариту». Дважды.

Главная фишка, от которой у меня по-настоящему отвисла челюсть, — это контекстное окно в 256 000 токенов.

Чтобы вы понимали масштаб:

  • Это примерно 200 000 слов.
  • Это целиком книга «Гарри Поттер и Кубок огня».
  • Это «Мастер и Маргарита», загруженный два раза подряд.

Можно скормить ей всю документацию по проекту, переписку с клиентом за год или годовой отчет и задавать вопросы. Больше не нужно резать тексты на куски и терять контекст. Это не просто удобно — это меняет правила игры для аналитиков, программистов и всех, кто работает с большими объемами информации.

Kimi, DeepSeek, Qwen: китайский «десант» захватывает топы

Успех Qwen3 — это не случайность, а тренд. Буквально на днях исследователи из Калифорнийского университета (не последние ребята, согласитесь) выкатили рейтинг LMArena. И знаете кто на первых местах?

  1. Kimi K2: отличается юмором и естественностью.
  2. DeepSeek R1: мастер сложных логических задач.
  3. Qwen 3: монстр «чистых рассуждений».

Claude, Llama и прочие американские гиганты смотрят на это из середины таблицы. Даже глава Nvidia Дженсен Хуанг, приехав в Китай, признал, что местные модели — самые передовые в мире.

Похоже, пока мы считали Китай «мировой фабрикой», он стал «мировой лабораторией ИИ». И делает он это, делая ставку на open-source, то есть на открытость.

Так что, пересаживаемся на «китайцев»?

Пока рано говорить о тотальном доминировании, но игнорировать этот тренд — самоубийство. Открытые и мощные китайские модели — это:

  • Дешевле: Их можно развернуть на своих серверах, не платя за каждый запрос OpenAI.
  • Гибче: Их можно дообучить под свои специфические задачи.
  • Независимее: Никто не отключит вам доступ по щелчку пальцев.

Это мощный сигнал для всего рынка. Эпоха, когда был только один-два «правильных» ИИ, кажется, подходит к концу. Начинается настоящая конкуренция. И от этого мы с вами только выиграем.

P.S. Теория — это круто, но лучше один раз потрогать самому. Я нашел рабочий способ бесплатно протестировать новую Qwen3 без VPN и регистраций.

Ссылку, где можно прямо сейчас задать ей пару каверзных вопросов и проверить, на что она способна, я закинул в свой телеграм-канал «Кнопка*». Там же обсуждаем, какие еще open-source модели стоит попробовать и как их можно применить на практике.

Начать дискуссию