Alibaba выпустила Qwen3.6-35B-A3B — новую open-source модель семейства Qwen, заточенную под агентное программирование (agentic coding — автономное выполнение многошаговых задач кодинга). Модель работает в открытом доступе под лицензией Apache 2.0 и уже доступна на Hugging Face и ModelScope.

ℹ Коротко о релизе
Qwen3.6-35B-A3B вышла 16 апреля 2026 года. Доступна на Hugging Face Hub (Qwen/Qwen3.6-35B-A3B) и ModelScope. Лицензия — Apache 2.0, то есть можно использовать в коммерческих проектах.

Архитектура: много параметров, мало затрат

Alibaba открыла sparse MoE (Mixture-of-Experts — смесь экспертов) модель Qwen3.6-35B-A3B: 35 миллиардов параметров суммарно, но во время инференса активируется только 3 миллиарда. Это ключевое преимущество архитектуры MoE: модель «знает» много, но думает экономно.

Нативная длина контекста — 262 144 токена, с расширением до 1 010 000 токенов. Для сравнения: большинство open-source моделей ограничены 128K.

Большая ёмкость, низкая активация на токен — вот в чём суть архитектуры A3B.

Что улучшилось: агентный кодинг и frontend

Модель теперь справляется с frontend-задачами и рассуждением на уровне репозитория с большей точностью и беглостью. Именно здесь большинство открытых моделей стабильно «плавают».

Также появилась опция Thinking Preservation — сохранение контекста рассуждений из предыдущих сообщений, что упрощает итеративную разработку и снижает накладные расходы.

По заявлениям Alibaba, модель значительно превосходит предшественника Qwen3.5-35B-A3B на бенчмарках SWE-bench и Terminal-Bench, и сопоставима с более крупными dense-моделями — Qwen3.5-27B и Gemma-31B.

💡 Совет для разработчиков
Если вы уже запускаете локальные модели, Qwen3.6-35B-A3B — сильный кандидат на роль «основного мозга для кода», особенно при обёртке в агентный loop с инструментами.

Как запустить

Модель поддерживает деплой через SGLang и vLLM. Пример запуска сервера с OpenAI-совместимым API:

# Через vLLM
vllm serve Qwen/Qwen3.6-35B-A3B \
  --port 8000 \
  --tensor-parallel-size 4 \
  --max-model-len 262144 \
  --reasoning-parser qwen3

Для быстрого создания агентных приложений команда рекомендует использовать Qwen-Agent. Поддерживается конфигурация инструментов через MCP, встроенные инструменты Qwen-Agent или собственные интеграции.

📝 Где скачать
  • Hugging Face: Qwen/Qwen3.6-35B-A3B
  • ModelScope: доступна для пользователей без доступа к HF
  • Ollama: ollama run qwen3.6:35b-a3b

Сравнение с аналогами

ПараметрQwen3.6-35B-A3BQwen3.5-35B-A3BQwen3.5-27B (dense)
Всего параметров35B35B27B
Активных при инференсе3B3B27B
Нативный контекст262K262K262K
SWE-benchЛучшеБазовыйСопоставимо
Terminal-BenchЛучшеБазовыйСопоставимо
ЛицензияApache 2.0Apache 2.0Apache 2.0
Frontend / repo-levelУлучшенСтандартныйСтандартный

Как устроен агентный цикл


graph TD
    A[Задача разработчика] --> B[Qwen3.6-35B-A3B]
    B --> C{Thinking Preservation}
    C -->|Thinking mode| D[Глубокое рассуждение]
    C -->|Non-thinking mode| E[Быстрый ответ]
    D --> F[Вызов инструментов / MCP]
    E --> F
    F --> G[Bash / File-edit / Web]
    G --> H[Результат]
    H -->|Итерация| B

Контекст: почему это важно

Qwen3.6-35B-A3B привлекает внимание тем, что обозначает переход от «открытой модели для кодинга, которую интересно попробовать» к «открытой модели, которая может выдержать серьёзные рабочие процессы».

Модель попадает в актуальную нишу открытых решений: релевантность для кодинга, длинный контекст, мультимодальный ввод и лицензия, значительно более удобная для разработчиков, чем у большинства frontier-альтернатив.

Все open-weight модели Qwen лицензированы под Apache 2.0. Это означает свободное коммерческое использование без роялти и юридических рисков.

Для команд, которые строят внутренние инструменты разработки, агентные фреймворки или просто хотят снизить зависимость от проприетарных API — Qwen3.6-35B-A3B становится одним из самых серьёзных open-source вариантов прямо сейчас.