Проект Unsloth, набравший более 60 тысяч звёзд на GitHub, выпустил Unsloth Studio — open-source веб-интерфейс для локального обучения и запуска AI-моделей. Инструмент обещает до 2x ускорение тренировки при сокращении потребления видеопамяти на 70%, без потери точности. Studio работает на Windows, Linux и macOS и поддерживает более 500 моделей — от Qwen3.5 и Gemma 4 до DeepSeek и gpt-oss от OpenAI.

Что умеет Unsloth Studio

Studio — это единый интерфейс, который объединяет инференс (запуск моделей) и тренировку в одном окне браузера. Раньше Unsloth был доступен только как Python-библиотека для продвинутых пользователей. Теперь порог входа снизился: настроить fine-tuning (дообучение) можно через визуальные формы, без написания кода.

ℹ Что поддерживает Studio
Текстовые, мультимодальные (vision), аудио (TTS) и embedding-модели. Форматы: GGUF, LoRA-адаптеры, safetensors. Экспорт в GGUF и 16-bit safetensors.

Ключевые возможности инференса:

  • Поиск, скачивание и запуск моделей из Hugging Face
  • Tool calling (вызов инструментов) с самовосстановлением и веб-поиском
  • Исполнение кода в песочнице
  • Загрузка изображений, аудио, PDF, DOCX для анализа

Тренировка: цифры и подход

Главное преимущество Unsloth — оптимизированные Triton-ядра и математические ядра, разработанные совместно с PyTorch и Hugging Face. Результат — значительная экономия VRAM при сохранении качества.

МодельУскорениеЭкономия VRAM
gpt-oss (20B)2x70%
Qwen3.5 (4B)1.5x60%
Gemma 4 (E2B)1.5x50%
gpt-oss GRPO (RL)2x80%
Llama 3.1 (8B)2x70%
💡 Data Recipes
Unsloth Studio умеет автоматически создавать датасеты из PDF, CSV и DOCX-файлов. Редактирование данных — через визуальный node-based интерфейс. Это избавляет от ручной подготовки данных для fine-tuning.

Поддерживаются все основные режимы обучения: QLoRA, LoRA, полный fine-tuning, reinforcement learning (GRPO), pretraining. Контекстное окно — до 500K токенов на 80 ГБ GPU для 20B-модели.

Как установить

Установка занимает одну команду:

# macOS / Linux / WSL
curl -fsSL https://unsloth.ai/install.sh | sh

# Windows PowerShell
irm https://unsloth.ai/install.ps1 | iex

Запуск Studio:

unsloth studio -H 0.0.0.0 -p 8888

Также доступен Docker-образ unsloth/unsloth для развертывания с GPU.

Архитектура: Studio vs Core


graph LR
    A[Пользователь] --> B{Выбор}
    B --> C[Unsloth Studio
Веб-интерфейс] B --> D[Unsloth Core
Python-библиотека] C --> E[Браузер: тренировка,
инференс, экспорт] D --> F[Код: скрипты,
ноутбуки, pipeline] E --> G[Локальный GPU
NVIDIA / AMD / Apple] F --> G

Unsloth предлагает два варианта работы. Studio — для тех, кто хочет визуальный интерфейс. Core — для разработчиков, которые предпочитают код и интеграцию в свои pipeline. Оба варианта используют один и тот же движок оптимизации.

Поддержка оборудования

⚠ Ограничения на текущий момент
Полная тренировка пока доступна только на NVIDIA GPU (RTX 30/40/50, Blackwell, DGX). На macOS и AMD — только инференс и Data Recipes. Поддержка Apple MLX и AMD для тренировки анонсирована, но ещё не выпущена.

Место среди конкурентов

По данным сравнительных тестов на A100 40GB, fine-tuning Llama 3.1 8B на Unsloth занимает 3.2 часа — против 5.8 часов у Axolotl и 4.7 часов у TorchTune. Unsloth лидирует по скорости и эффективности памяти на одном GPU.

Unsloth занимает уникальную нишу: это единственный инструмент, который совмещает визуальный интерфейс для тренировки с серьёзной оптимизацией на уровне ядер. Конкуренты — Axolotl, TRL, LLaMA-Factory — остаются code-first решениями.

Проект распространяется под двойной лицензией: Apache 2.0 для core-библиотеки и AGPL-3.0 для Studio. Репозиторий: github.com/unslothai/unsloth.