
Open WebUI: мощная self-hosted платформа для локального AI
Open WebUI — расширяемая self-hosted платформа с 124k+ GitHub-звёзд и 290 млн загрузок. Поддерживает Ollama, OpenAI API, RAG, голосовые звонки и корпоративный SSO.
Open WebUI уверенно занял место главного open-source интерфейса для локального запуска LLM. Платформа набрала более 124 тысяч звёзд на GitHub и преодолела отметку в 282 миллиона загрузок, превратившись из hobbyist-проекта в полноценное корпоративное решение. Open WebUI — расширяемая, функционально насыщенная self-hosted платформа, спроектированная для работы полностью офлайн: она поддерживает различные LLM-раннеры, включая Ollama и OpenAI-совместимые API, а встроенный inference engine обеспечивает RAG из коробки.
Что умеет Open WebUI
Open WebUI заменяет целый набор разрозненных AI-инструментов — ChatGPT для текстов, отдельное приложение для генерации изображений, другое для поиска по документам. Всё это собрано в одном месте: переписка, база знаний, инструменты и модели.
Интеграция с моделями
Из единого интерфейса можно работать с Ollama, OpenAI, Anthropic или любым OpenAI-совместимым провайдером. Кастомизация OpenAI API URL позволяет подключать LMStudio, GroqCloud, Mistral, OpenRouter и другие сервисы.
RAG и веб-поиск
Встроенная поддержка RAG (Retrieval Augmented Generation — дополнение ответа данными из документов) работает с 9 векторными базами данных и несколькими движками извлечения контента: Tika, Docling, Document Intelligence, Mistral OCR и внешними загрузчиками. Веб-поиск подключается через 15+ провайдеров — от DuckDuckGo и Bing до Perplexity и Azure AI Search.
Голос, видео и изображения
Функция голосового и видеозвонка без рук работает с несколькими Speech-to-Text провайдерами (Local Whisper, OpenAI, Deepgram, Azure) и Text-to-Speech движками (Azure, ElevenLabs, OpenAI, Transformers, WebAPI). Генерация и редактирование изображений поддерживается через DALL-E, Gemini, ComfyUI и AUTOMATIC1111.
Python-расширяемость
Встроенный Python Function Calling Tool позволяет расширять возможности LLM прямо из рабочей области: достаточно добавить чистую Python-функцию по принципу BYOF (Bring Your Own Function).
Установить Open WebUI можно одной командой:
pip install open-webui
open-webui serve
После этого интерфейс доступен на http://localhost:8080. Для работы требуется Python 3.11.
Новое в последних обновлениях
В одном из последних релизов появился аналитический дашборд для администраторов: статистика использования моделей, потребление токенов по пользователям, рейтинги активности и временны́е графики с почасовой или суточной детализацией.
Добавлена экспериментальная поддержка Skills (Навыков) — пользователи могут создавать и управлять переиспользуемыми AI-навыками с подробными инструкциями и ссылаться на них прямо в чате.
Также реализована конфигурация заголовка доверенной роли: администраторы могут задавать роли пользователей (admin, user или pending) через доверенный заголовок от identity provider или reverse proxy.
Способы установки
graph TD
A[Выбор способа установки] --> B[pip install]
A --> C[Docker]
A --> D[Kubernetes]
A --> E[Desktop App]
B --> F[open-webui serve\nlocalhost:8080]
C --> G[Docker Run / Compose\nlocalhost:3000]
D --> H[kubectl / helm / kustomize]
E --> I[Нативное приложение\nбез Docker]
Для тех, кто не хочет возиться с Docker, есть десктопное приложение: оно запускает Open WebUI нативно без ручной настройки. Правда, десктопная версия пока находится в разработке и ещё не является стабильной.
# Установка через Docker (рекомендуется)
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
Варианты хранилищ и аутентификации
| Параметр | Бесплатная версия | Enterprise |
|---|---|---|
| База данных | SQLite, PostgreSQL | SQLite, PostgreSQL + шифрование |
| Облачное хранилище | — | S3, Google Cloud Storage, Azure Blob |
| Аутентификация | OAuth / SSO | LDAP/AD, SCIM 2.0, Okta, Azure AD |
| Векторные БД | ChromaDB, PGVector и др. (9 вариантов) | Все 9 + Oracle 23ai |
| Поддержка | Сообщество | SLA + LTS-версии |
| Брендинг | Стандартный | Кастомная тема и логотип |
Почему это важно для рынка
Ollama даёт движок для запуска локальных моделей, Open WebUI — интерфейс для работы с ними. Вместе они формируют самый популярный self-hosted AI-стек.
Open WebUI, Ollama и ряд других проектов сигнализируют о масштабном сдвиге: разработчики хотят запускать AI на собственном железе. Соображения приватности, стоимость API и желание глубокой кастомизации движут этим трендом. Инфраструктура для self-hosted AI созрела до того уровня, когда одна команда разворачивает полноценную AI-платформу.
Эти улучшения в совокупности превратили Open WebUI из любимца homelab-сообщества в жизнеспособный командный фронтенд для серьёзных рабочих нагрузок.
Проект получил поддержку в рамках A16z Open Source AI Grant 2025, Mozilla Builders 2024 и GitHub Accelerator 2024 — что подчёркивает его статус как одного из ключевых проектов в экосистеме открытого AI.