Qwen3: как пользоваться бесплатной китайской нейросетью
Рассказываем, что такое MoE-модели, и решаем с их помощью задачи по геохимии.
В апреле 2025 года Alibaba представила семейство гибридных моделей Qwen3. Теперь пользователи могут настраивать глубину «рассуждения» нейросети, анализировать прикреплённые аудио и видео. И всё это — бесплатно и без ограничений для россиян.
Обзор возможностей Qwen3 — в этом тексте.
Содержание:
Что такое Qwen: обзор моделей
Чат-бот Qwen принадлежит крупнейшей китайской компании Alibaba, владелице порталов Taobao.com и AliExpress.com. В январе 2025 года — практически сразу после выхода DeepSeek-R1 — Alibaba выпустила модель Qwen 2.5-Max. Тогда чат-бот, в отличие от конкурентов, не умел показывать «ход своих мыслей». Зато обрабатывал до 1 млн токенов. В феврале 2025 года модели Qwen заняли семь из десяти топ-позиций LLM Leaderboard (LLM Leaderboard от Hugging Face — рейтинг моделей, который выстраивается по результатам тестов на понимание текста, логику, математику и фактчекинг).
В последнем обновлении у Qwen появились MoE-модели (Mixture of Experts — «смесь экспертов»). Это модели, которые работают с помощью динамического выбора специализированных субмоделей, или «экспертов», для обработки различных частей данных. Есть два вида параметров:
- Total parameters (общие) — это суммарное количество настроек, которые модель может использовать для обработки информации. Чем их больше, тем более сложные задачи модель потенциально может решать.
- Activated parameters (активированные параметры) — это количество настроек, которые модель фактически использует при выполнении конкретной задачи. В MoE-моделях задействуется только часть общих параметров — ровно столько, сколько нужно для ответа.
Что умеют новые модели и чем они отличаются друг от друга:
- Qwen3-235B-A22B и Qwen3-30B-A3B 一 это MoE-модели. У первой 235 млрд общих параметров и 22 млрд активированных параметров. У второй 一 30 млрд. и 3 млрд. соответственно.
- Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B и Qwen3-0.6B 一 это классические ИИ-модели, у которых все параметры работают одновременно.
В пресс-релизе разработчики заявляют, что Qwen3-235B-A22B «показывает конкурентоспособные результаты» в тестах на программирование и математику. Сравнивали модель с DeepSeek-R1, o1, o3-mini, Grok-3 и Gemini-2.5-Pro.
К ключевым особенностям моделей разработчики отнесли:
- Гибридный «рассуждающий» режим. Пользователь может самостоятельно настраивать уровень «глубины рассуждения». Сложные задачи модель будет решать дольше, анализировать их глубже. А с более простым запросом справится сразу, без задержек.
- Поддержку 119 языков и диалектов. В том числе русского и украинского.
- Поддержку MCP. Теперь модель лучше понимает и пишет код на разных языках (Python, JavaScript и др.), исправляет ошибки. А ещё запускает код и анализирует его результаты.
Как начать пользоваться Qwen
Чат-бот работает в России без ограничений. Для начала работы нужно зарегистрироваться, при этом вводить иностранный номер или карту иностранного банка не нужно.
- Перейдите на официальный сайт: https://chat.qwen.ai.
- Нажмите на кнопку «Зарегистрироваться» в правом верхнем углу экрана.
- Создайте учётную запись через электронную почту или аккаунты Google и Github.
На стартовой странице изменения минимальные. Всё та же строка для введения промпта, значок «+» для загрузки файлов, «Поиск» для доступа к информации в интернете.
- В левом верхнем углу выберите нужную модель. У любой модели из семейства Qwen3 можно настроить длину рассуждений. Для этого нажмите на стрелочку рядом с кнопкой «Мышление». Минимальный бюджет 一 1024 токена, максимальный 一 38 912.
Чем больше токенов выберете, тем дольше ИИ будет «думать», но и ответ потенциально получится точнее. Чем меньше токенов, тем быстрее нейросеть сгенерирует результат.
Тест: поиск в интернете
В этой статье все тесты будем проводить с самой мощной моделью 一 Qwen3-235B-A22B. Попросим Qwen провести собственное расследование. Для этого возьмём текст новости и дополним промпт рекомендациями. «Глубину рассуждений» ставим на максимум.
Промпт:
Проанализируй следующий текст новости:
«Исследователи Solidus Labs заключили, что 98,6% токенов с платформы Pump.fun обесцениваются практически сразу после запуска в ходе „пампов и дампов“. Они приравнивают такие схемы к „мошеннической“ активности. В Pump.fun считают, что Solidus Labs плохо понимает, как работают мемкоины».
На основе этой новости проведи углублённое исследование рынка мемкоинов. Собери следующую информацию:
- Статистические данные о динамике развития рынка мемкоинов (объёмы торгов, количество новых токенов, уровень обесценивания, количество успешных и провальных проектов).
- Социологические обзоры: сколько пользователей получили прибыль, сколько понесли убытки; если возможно — распределение по регионам, возрастам, опыту в криптовалютах.
- Собери реальные кейсы из открытых источников (Reddit, Twitter, X, Medium, Discord, Telegram и т. д.), где люди описывают свои истории — как они заработали или потеряли деньги на мемкоинах (особенно через платформу Pump.fun).
Укажи ссылки на первоисточники, если упоминаются цифры или истории.
Проанализируй мнения экспертов, если таковые доступны (например, из блогов, интервью, аналитических отчётов).
Цель — получить всестороннюю и объективную картину рынка мемкоинов, с особым акцентом на реальные последствия для розничных инвесторов.
Чат-бот с заданием справился. Собрал все ссылки на источники, нашёл независимых экспертов и истории пользователей на трёх разных площадках. Теперь проверим, как с этим же заданием чат-бот справится на минимальном уровне «мышления».
Несмотря на лимит токенов, с заданием нейросеть снова справилась. В упрощённом режиме Qwen3 сгенерировал ответ на две минуты быстрее.
Тест: генерация изображений
Настраивать «глубину рассуждений» в режиме генерации изображений нельзя. Но можно выбрать соотношение сторон (1:1, 3:4, 4:3, 16:9, 9:16) и прикрепить до пяти референсов.
Промпт:
Сгенерируй фотореалистичное изображение бурого медведя, переходящего через реку на Камчатке. Камера расположена сверху — вид с дрона. Вода должна быть частично прозрачной, с заметным движением потока, камнями и бликами солнца на поверхности. Медведь должен быть хорошо проработан: видны текстура шерсти, тень под ним, брызги воды. Фон — дикая природа Камчатки: склоны, редкие деревья или кустарники. Максимальная детализация и реализм.
Реалистичным изображение назвать трудно. Из плюсов — пожелания по ракурсу нейросеть учла.
Теперь проверим, как Qwen справится с генерацией постеров с текстом. В апреле 2025 года пользователи особенно хвалили GPT‑4o как раз за генерацию сложных изображений с текстом.
Промпт:
Сделай картинку для этого рецепта шарлотки.
Ингредиенты:
- Куриное яйцо — 5 штук.
- Сахар — 1 стакан.
- Пшеничная мука — 1 стакан.
- Яблоко — 3 штуки.
- Сливочное масло — 20 г.
В верхней части картинки должны быть ингредиенты, красиво разложенные на столе. Сам стол должен выглядеть как рабочая поверхность: мука немного рассыпана, рядом лежит красивое зелёное полотенце, яблоки порезаны кухонным ножом. В нижней части картинки — список ингредиентов на русском языке.
Для чистоты эксперимента запрос сделаем на русском и на английском.
Пока результат явно уступает ChatGPT. Попробуем вариант попроще — пусть сгенерирует хотя бы одно слово без ошибок.
Промпт:
Сгенерируй чёрного кота. Над ним надпись «кот».
Простые конструкции на английском языке Qwen генерировать может, а вот с русским пока большие проблемы.
Сгенерированные изображения можно скачать («download»), нажав на стрелочку под картинкой. Также чат-бот предлагает:
- Поделиться изображением («share»).
- Сгенерировать снова («regenerate»).
- Оценить результат работы ИИ.
Тест: который час
Этот тест — классическая проверка нейросетей. Как правило, даже самые мощные и дорогие модели не умеют определять время по аналоговым часам. С этим тестом уже не справились ChatGPT Pro, Le Chat, Kimi AI и Hailuo AI. Предыдущая модель — Qwen 2.5-Max — справилась с заданием лучше всех и ошиблась буквально на пару минут. Как справится с заданием Qwen3? Ставим «мышление» на максимум.
Теперь нейросеть не просто даёт неверный ответ, но ещё и подкрепляет его неверными рассуждениями. Видимо, успех предыдущей модели был лишь удачным совпадением.
Тест: анализ прикреплённых файлов
Для этого испытания возьмём задание по геохимии. Отдадим нейросети таблицу с исходными данными и попросим провести корреляционный анализ элементов.
Промпт:
Я прикрепляю файл с данными по образцам, взятым с разных глубин. Проанализируй таблицу и выяви элементы, между которыми наблюдается статистически значимая корреляция. Укажи пары элементов с сильной положительной или отрицательной связью, а также поясни, как ты это определил.
С задачей Qwen3 справился: выявил сильные и слабые корреляции, интересные паттерны, предложил идеи по визуализации. Теперь посмотрим, как справится чат-бот с аналогичным заданием, но при минимальных настройках «глубины рассуждения». Для этого начнём новый чат.
Ответ нейросеть дала быстрее, на генерацию ушло меньше десяти секунд. При максимальной «глубине рассуждения» Qwen3 потребовалось около двух минут. При этом ответ всё ещё фактический верный, но ИИ не выявил интересных паттернов, а анализ получился не таким глубоким.
При этом анализировать Qwen может не только документы и изображения, но и видео- и аудиофайлы. Ограничение по длине — не дольше трёх минут.
Промпт:
Я загружу аудиофайл с песней. Распознай слова песни.
Для этого задания берём песню «Рыбак» группы «Король и Шут». ИИ справился на «четвёрку»: большая часть текста написана верно, но местами всё же пропали союзы и местоимения. На строчках 11–15 галлюцинации встречаются ещё чаще, меняются целые слова и конструкции. Например, вместо слова «наугад» получилось «много лет».
Последнее испытание в этой категории: анализ изображения с текстом на русском языке. Посмотрим, сможет ли нейросеть «прочитать» статью и баннеры на habr.com.
Установка Qwen
Разработчики Qwen поделились исходными файлами моделей на Huggingface.co — любую модель семейства можно установить локально.
Ссылка для скачивания: https://huggingface.co/Qwen/Qwen3-8B
Qwen в формате GGUF: https://huggingface.co/Qwen/Qwen3-32B-GGUF
GGUF (GGML Universal Format) — это бинарный формат для эффективного хранения и загрузки больших языковых моделей. Если вы планируете запускать Qwen локально через Ollama, то скачивать нейросеть нужно именно в формате GGUF.
Документация для установки Qwen через Ollama: https://qwen.readthedocs.io/en/latest/run_locally/ollama.html
Ограничения: Для MoE-моделей нужен мощный GPU (например, NVIDIA A100 или аналогичные).
Для классических моделей (Qwen3-0.6B, Qwen3-4B) подойдёт локальный компьютер с CUDA-совместимым GPU.
Перед загрузкой все модели также можно протестировать на площадке. Для этого не нужна регистрация:
Через Qwen3-Demo можно протестировать «рассуждающий» режим. А вот поиска в интернете или анализа прикреплённых файлов тут нет — ради этих функций придётся регистрироваться на официальном сайте.
Что думаете о новинке? Каким чат-ботом сейчас пользуетесь чаще всего?