
Qwen3.6-35B-A3B: мощный ИИ для кодинга теперь открыт
Alibaba открыла Qwen3.6-35B-A3B — MoE-модель для агентного кодинга с 35 млрд параметров и активацией лишь 3 млрд. Apache 2.0, 262K контекст.
Alibaba выпустила Qwen3.6-35B-A3B — новую open-source модель семейства Qwen, заточенную под агентное программирование (agentic coding — автономное выполнение многошаговых задач кодинга). Модель работает в открытом доступе под лицензией Apache 2.0 и уже доступна на Hugging Face и ModelScope.
Qwen/Qwen3.6-35B-A3B) и ModelScope. Лицензия — Apache 2.0, то есть можно использовать в коммерческих проектах.Архитектура: много параметров, мало затрат
Alibaba открыла sparse MoE (Mixture-of-Experts — смесь экспертов) модель Qwen3.6-35B-A3B: 35 миллиардов параметров суммарно, но во время инференса активируется только 3 миллиарда. Это ключевое преимущество архитектуры MoE: модель «знает» много, но думает экономно.
Нативная длина контекста — 262 144 токена, с расширением до 1 010 000 токенов. Для сравнения: большинство open-source моделей ограничены 128K.
Большая ёмкость, низкая активация на токен — вот в чём суть архитектуры A3B.
Что улучшилось: агентный кодинг и frontend
Модель теперь справляется с frontend-задачами и рассуждением на уровне репозитория с большей точностью и беглостью. Именно здесь большинство открытых моделей стабильно «плавают».
Также появилась опция Thinking Preservation — сохранение контекста рассуждений из предыдущих сообщений, что упрощает итеративную разработку и снижает накладные расходы.
По заявлениям Alibaba, модель значительно превосходит предшественника Qwen3.5-35B-A3B на бенчмарках SWE-bench и Terminal-Bench, и сопоставима с более крупными dense-моделями — Qwen3.5-27B и Gemma-31B.
Как запустить
Модель поддерживает деплой через SGLang и vLLM. Пример запуска сервера с OpenAI-совместимым API:
# Через vLLM
vllm serve Qwen/Qwen3.6-35B-A3B \
--port 8000 \
--tensor-parallel-size 4 \
--max-model-len 262144 \
--reasoning-parser qwen3
Для быстрого создания агентных приложений команда рекомендует использовать Qwen-Agent. Поддерживается конфигурация инструментов через MCP, встроенные инструменты Qwen-Agent или собственные интеграции.
- Hugging Face:
Qwen/Qwen3.6-35B-A3B - ModelScope: доступна для пользователей без доступа к HF
- Ollama:
ollama run qwen3.6:35b-a3b
Сравнение с аналогами
| Параметр | Qwen3.6-35B-A3B | Qwen3.5-35B-A3B | Qwen3.5-27B (dense) |
|---|---|---|---|
| Всего параметров | 35B | 35B | 27B |
| Активных при инференсе | 3B | 3B | 27B |
| Нативный контекст | 262K | 262K | 262K |
| SWE-bench | Лучше | Базовый | Сопоставимо |
| Terminal-Bench | Лучше | Базовый | Сопоставимо |
| Лицензия | Apache 2.0 | Apache 2.0 | Apache 2.0 |
| Frontend / repo-level | Улучшен | Стандартный | Стандартный |
Как устроен агентный цикл
graph TD
A[Задача разработчика] --> B[Qwen3.6-35B-A3B]
B --> C{Thinking Preservation}
C -->|Thinking mode| D[Глубокое рассуждение]
C -->|Non-thinking mode| E[Быстрый ответ]
D --> F[Вызов инструментов / MCP]
E --> F
F --> G[Bash / File-edit / Web]
G --> H[Результат]
H -->|Итерация| B
Контекст: почему это важно
Qwen3.6-35B-A3B привлекает внимание тем, что обозначает переход от «открытой модели для кодинга, которую интересно попробовать» к «открытой модели, которая может выдержать серьёзные рабочие процессы».
Модель попадает в актуальную нишу открытых решений: релевантность для кодинга, длинный контекст, мультимодальный ввод и лицензия, значительно более удобная для разработчиков, чем у большинства frontier-альтернатив.
Все open-weight модели Qwen лицензированы под Apache 2.0. Это означает свободное коммерческое использование без роялти и юридических рисков.
Для команд, которые строят внутренние инструменты разработки, агентные фреймворки или просто хотят снизить зависимость от проприетарных API — Qwen3.6-35B-A3B становится одним из самых серьёзных open-source вариантов прямо сейчас.