Что произошло

DeepSeek TUI — это coding-агент (программный помощник для написания кода), который работает полностью в терминале и даёт моделям DeepSeek прямой доступ к рабочему пространству разработчика: чтение и редактирование файлов, выполнение shell-команд, поиск в сети, управление git. Проект написан на Rust и создан независимым разработчиком Хантером Бауном — и уже успел набрать около 2,3 тысячи звёзд на GitHub, попав в trending-список платформы.

По своей концепции инструмент напоминает Claude Code, но заточен под DeepSeek, а не под модели Anthropic.


Ключевые возможности

DeepSeek TUI создан специально под DeepSeek V4 (deepseek-v4-pro / deepseek-v4-flash) с контекстным окном в 1 миллион токенов и нативной поддержкой thinking-mode — режима «цепочки рассуждений» (chain-of-thought) с потоковой передачей.

ℹ Что такое 1M-токенный контекст?
Контекстное окно — это максимальный объём текста, который модель может «видеть» и анализировать за один запрос. 1 миллион токенов вмещает приблизительно 9 полноценных романов, целую крупную кодовую базу или сотни научных статей — всё в одном API-вызове.

Три режима работы

Пользователь выбирает из трёх режимов: Plan — только чтение и исследование кода; Agent — интерактивный режим с подтверждением каждого действия; YOLO — полностью автоматическое выполнение без запросов.

RLM — параллельное мышление

Нативный RLM (rlm_query) позволяет запускать от 1 до 16 дешёвых экземпляров deepseek-v4-flash параллельно для пакетного анализа и параллельных рассуждений — всё через единый API-клиент. Это особенно удобно при ревью крупных Pull Request или рефакторинге.

LSP-диагностика после каждого редактирования

Подсистема LSP (Language Server Protocol — протокол языковых серверов) запускает rust-analyzer, pyright, typescript-language-server, gopls и clangd, собирая диагностику после каждого изменения файла и передавая ошибки в контекст модели перед следующим шагом рассуждения.

💡 Совет
Режим YOLO идеально подходит для доверенных проектов, где нужна максимальная скорость итераций. Для продуктового кода лучше оставаться в Agent, чтобы контролировать каждое действие.

Как устроен инструмент


graph LR
    A[deepseek CLI] --> B[deepseek-tui binary]
    B --> C[ratatui интерфейс]
    C --> D[Async Engine]
    D --> E[OpenAI-совместимый клиент]
    D --> F[Tool Registry]
    F --> G[shell / файлы / git]
    F --> H[web / sub-agents / MCP]
    D --> I[LSP подсистема]
    I --> J[Диагностика → контекст модели]

TUI запускает интерфейс на базе ratatui, который взаимодействует с асинхронным движком: пользовательский ввод идёт к LLM через streaming-клиент (OpenAI-совместимый Chat Completions), вызовы инструментов маршрутизируются через типизированный реестр, результаты возвращаются в transcript.

Через MCP (Model Context Protocol — протокол контекста модели) можно подключать дополнительные инструменты; MCP-серверы запускаются как локальные процессы и общаются с TUI через stdio.


Что нового в версии v0.8.10

Последний патч-релиз принёс ряд улучшений UX и расширений API:

ФункцияОписание
Stacked toast overlayУведомления теперь очередью, не перезаписывают друг друга
File @-mention frecencyПодсказки файлов учитывают недавно выбранные (~/.deepseek/file-frecency.jsonl)
Cache-aware compactionКомпактификация переиспользует кешированные префиксы, снижая стоимость /compact
Markdown renderingТаблицы, жирный/курсив, горизонтальные линии в transcript
glibc 2.28 baselineПребилды теперь работают на старых дистрибутивах Linux
Runtime APICORS-конфигурация, редактирование тредов, фильтры и агрегированный endpoint usage

Шесть новых контрибьюторов присоединились в этом релизе — проект активно развивается сообществом.


Быстрый старт

Установка доступна для Linux, macOS и Windows — проще всего через npm install -g deepseek-tui.

# Установка через npm (рекомендуется)
npm install -g deepseek-tui

# Запуск
deepseek

# Проверка настройки
deepseek doctor

# Сохранить API-ключ
deepseek auth set --provider deepseek

При первом запуске TUI запрашивает DeepSeek API-ключ и сохраняет его в ~/.deepseek/config.toml — после этого он работает из любой директории без повторных запросов.

⚠ Для пользователей из Китая
Для пользователей из материкового Китая подготовлена документация на китайском языке и поддержка зеркала TUNA Cargo, что упрощает установку при медленном доступе к GitHub и npm.

Альтернативные провайдеры

DeepSeek TUI поддерживает не только официальный API DeepSeek. Инструмент работает и с NVIDIA NIM, Fireworks, и с самостоятельно развёрнутым SGLang.

# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_KEY"
deepseek --provider nvidia-nim

# Самостоятельный хостинг (SGLang)
SGLANG_BASE_URL="http://localhost:30000/v1" deepseek --provider sglang

Почему это важно

В отличие от веб-интерфейса DeepSeek, при работе в терминале не нужно переключаться между вкладками, нет ограничений браузерных сессий, а весь контекст файловой системы доступен без копипаста кода.

Реальная инновация DeepSeek V4 — не просто число параметров, а то, как модель спроектирована для эффективной работы с большими контекстами, что делает её одним из лучших кандидатов для агентных задач. DeepSeek TUI максимально раскрывает эти возможности прямо в терминале разработчика — без браузера, без IDE-плагинов, без Node.js или Python-рантайма в зависимостях.

Инструмент написан на Rust и отличается минимальным потреблением ресурсов: около 12 МБ RAM в режиме ожидания и порядка 28 МБ во время активной работы.