Китайский ИИ наносит ответный удар: вышла Qwen3, которая уделала Claude 4 Opus без «мозгов»
Привет, VC! Михаил Буров снова в эфире. Пока мы тут спорим, чей VPN быстрее, и ждем GPT-5, китайские разработчики молча выкатили монстра. Знакомьтесь, Qwen3-235B-A22B — нейросеть с названием, которое сломает язык, и с производительностью, которая ломает рынок.
Я покопался в бенчмарках, почитал технические доки и потыкал ее сам. Спойлер: она обходит Claude 4 Opus, не используя «режим мышления», который так пиарят конкуренты. Похоже, в гонке ИИ появился новый, очень дерзкий игрок. Разбираемся, что это за зверь и почему это важно для всех нас.
Что за Qwen3 и почему все напряглись?
Представьте себе гоночный болид, из которого выкинули все лишнее, включая некоторые части двигателя, но он поехал быстрее. Это и есть новая Qwen3.
Разрабы из Alibaba сделали гениальный ход: они заметили, что пользователи их прошлой модели почти не включали медленный режим «размышлений» (/think). Он жрал ресурсы и тормозил. Поэтому в новой версии его просто ампутировали. Совсем.
И что в итоге? Модель, работающая в режиме «голых инстинктов», внезапно начала рвать бенчмарки. Она лучше пишет код, щелкает задачки по математике и, судя по всему, стала гораздо эффективнее.
Контекст на 256к токенов: засунуть в ИИ всего «Мастера и Маргариту». Дважды.
Главная фишка, от которой у меня по-настоящему отвисла челюсть, — это контекстное окно в 256 000 токенов.
Чтобы вы понимали масштаб:
- Это примерно 200 000 слов.
- Это целиком книга «Гарри Поттер и Кубок огня».
- Это «Мастер и Маргарита», загруженный два раза подряд.
Можно скормить ей всю документацию по проекту, переписку с клиентом за год или годовой отчет и задавать вопросы. Больше не нужно резать тексты на куски и терять контекст. Это не просто удобно — это меняет правила игры для аналитиков, программистов и всех, кто работает с большими объемами информации.
Kimi, DeepSeek, Qwen: китайский «десант» захватывает топы
Успех Qwen3 — это не случайность, а тренд. Буквально на днях исследователи из Калифорнийского университета (не последние ребята, согласитесь) выкатили рейтинг LMArena. И знаете кто на первых местах?
- Kimi K2: отличается юмором и естественностью.
- DeepSeek R1: мастер сложных логических задач.
- Qwen 3: монстр «чистых рассуждений».
Claude, Llama и прочие американские гиганты смотрят на это из середины таблицы. Даже глава Nvidia Дженсен Хуанг, приехав в Китай, признал, что местные модели — самые передовые в мире.
Похоже, пока мы считали Китай «мировой фабрикой», он стал «мировой лабораторией ИИ». И делает он это, делая ставку на open-source, то есть на открытость.
Так что, пересаживаемся на «китайцев»?
Пока рано говорить о тотальном доминировании, но игнорировать этот тренд — самоубийство. Открытые и мощные китайские модели — это:
- Дешевле: Их можно развернуть на своих серверах, не платя за каждый запрос OpenAI.
- Гибче: Их можно дообучить под свои специфические задачи.
- Независимее: Никто не отключит вам доступ по щелчку пальцев.
Это мощный сигнал для всего рынка. Эпоха, когда был только один-два «правильных» ИИ, кажется, подходит к концу. Начинается настоящая конкуренция. И от этого мы с вами только выиграем.
P.S. Теория — это круто, но лучше один раз потрогать самому. Я нашел рабочий способ бесплатно протестировать новую Qwen3 без VPN и регистраций.
Ссылку, где можно прямо сейчас задать ей пару каверзных вопросов и проверить, на что она способна, я закинул в свой телеграм-канал «Кнопка*». Там же обсуждаем, какие еще open-source модели стоит попробовать и как их можно применить на практике.