Unsloth Studio: веб-интерфейс для обучения LLM локально
Unsloth Studio — open-source веб-интерфейс для локального обучения и запуска AI-моделей. До 2x быстрее, до 70% меньше VRAM. Поддержка Qwen3.5, Gemma 4, DeepSeek.
Проект Unsloth, набравший более 60 тысяч звёзд на GitHub, выпустил Unsloth Studio — open-source веб-интерфейс для локального обучения и запуска AI-моделей. Инструмент обещает до 2x ускорение тренировки при сокращении потребления видеопамяти на 70%, без потери точности. Studio работает на Windows, Linux и macOS и поддерживает более 500 моделей — от Qwen3.5 и Gemma 4 до DeepSeek и gpt-oss от OpenAI.
Что умеет Unsloth Studio
Studio — это единый интерфейс, который объединяет инференс (запуск моделей) и тренировку в одном окне браузера. Раньше Unsloth был доступен только как Python-библиотека для продвинутых пользователей. Теперь порог входа снизился: настроить fine-tuning (дообучение) можно через визуальные формы, без написания кода.
Ключевые возможности инференса:
- Поиск, скачивание и запуск моделей из Hugging Face
- Tool calling (вызов инструментов) с самовосстановлением и веб-поиском
- Исполнение кода в песочнице
- Загрузка изображений, аудио, PDF, DOCX для анализа
Тренировка: цифры и подход
Главное преимущество Unsloth — оптимизированные Triton-ядра и математические ядра, разработанные совместно с PyTorch и Hugging Face. Результат — значительная экономия VRAM при сохранении качества.
| Модель | Ускорение | Экономия VRAM |
|---|---|---|
| gpt-oss (20B) | 2x | 70% |
| Qwen3.5 (4B) | 1.5x | 60% |
| Gemma 4 (E2B) | 1.5x | 50% |
| gpt-oss GRPO (RL) | 2x | 80% |
| Llama 3.1 (8B) | 2x | 70% |
Поддерживаются все основные режимы обучения: QLoRA, LoRA, полный fine-tuning, reinforcement learning (GRPO), pretraining. Контекстное окно — до 500K токенов на 80 ГБ GPU для 20B-модели.
Как установить
Установка занимает одну команду:
# macOS / Linux / WSL
curl -fsSL https://unsloth.ai/install.sh | sh
# Windows PowerShell
irm https://unsloth.ai/install.ps1 | iex
Запуск Studio:
unsloth studio -H 0.0.0.0 -p 8888
Также доступен Docker-образ unsloth/unsloth для развертывания с GPU.
Архитектура: Studio vs Core
graph LR
A[Пользователь] --> B{Выбор}
B --> C[Unsloth Studio
Веб-интерфейс]
B --> D[Unsloth Core
Python-библиотека]
C --> E[Браузер: тренировка,
инференс, экспорт]
D --> F[Код: скрипты,
ноутбуки, pipeline]
E --> G[Локальный GPU
NVIDIA / AMD / Apple]
F --> G
Unsloth предлагает два варианта работы. Studio — для тех, кто хочет визуальный интерфейс. Core — для разработчиков, которые предпочитают код и интеграцию в свои pipeline. Оба варианта используют один и тот же движок оптимизации.
Поддержка оборудования
Место среди конкурентов
По данным сравнительных тестов на A100 40GB, fine-tuning Llama 3.1 8B на Unsloth занимает 3.2 часа — против 5.8 часов у Axolotl и 4.7 часов у TorchTune. Unsloth лидирует по скорости и эффективности памяти на одном GPU.
Unsloth занимает уникальную нишу: это единственный инструмент, который совмещает визуальный интерфейс для тренировки с серьёзной оптимизацией на уровне ядер. Конкуренты — Axolotl, TRL, LLaMA-Factory — остаются code-first решениями.
Проект распространяется под двойной лицензией: Apache 2.0 для core-библиотеки и AGPL-3.0 для Studio. Репозиторий: github.com/unslothai/unsloth.