<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Docker on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/docker/</link><description>Recent content in Docker on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sun, 05 Apr 2026 12:00:00 +0300</lastBuildDate><atom:link href="/tags/docker/index.xml" rel="self" type="application/rss+xml"/><item><title>Docker для AI-проектов: полное руководство</title><link>/guides/docker-dlia-ai-proektov-polnoe-rukovodstvo/</link><pubDate>Sun, 05 Apr 2026 12:00:00 +0300</pubDate><guid>/guides/docker-dlia-ai-proektov-polnoe-rukovodstvo/</guid><description>&lt;p&gt;«У меня всё работает локально» — фраза, которая похоронила десятки AI-проектов на этапе деплоя. Разные версии CUDA, конфликты Python-зависимостей, несовместимость драйверов — всё это превращает перенос модели с ноутбука разработчика на сервер в квест. Docker решает эту проблему: вы упаковываете модель, зависимости, рантайм и GPU-конфигурацию в один контейнер, который идентично работает где угодно.&lt;/p&gt;
&lt;p&gt;В этом руководстве — от базовой контейнеризации AI-проекта до продвинутых техник: GPU-ускорение через NVIDIA Container Toolkit, запуск LLM локально через Docker Model Runner, оптимизация образов multi-stage сборками и production-деплой.&lt;/p&gt;</description></item><item><title>Локальный AI-стек: Ollama + Open WebUI + RAG за один вечер</title><link>/guides/lokalnyy-ai-stek-ollama-open-webui-rag/</link><pubDate>Thu, 26 Feb 2026 18:00:00 +0300</pubDate><guid>/guides/lokalnyy-ai-stek-ollama-open-webui-rag/</guid><description>&lt;p&gt;Представьте: вы задаёте вопрос своему AI-ассистенту, загружаете корпоративный PDF — и он отвечает точно по документу. Без отправки данных в OpenAI. Без подписок. Без утечек. Всё крутится на вашем железе.&lt;/p&gt;
&lt;p&gt;Это не фантастика 2030 года — это реально собирается сегодня вечером. Ollama как движок для запуска LLM, Open WebUI как красивый интерфейс, RAG как механизм работы с вашими документами. Три компонента — один работающий стек. Поехали.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="что-такое-этот-стек-и-зачем-он-вам-нужен"&gt;Что такое этот стек и зачем он вам нужен&lt;/h2&gt;
&lt;p&gt;Прежде чем лезть в терминал, разберёмся с архитектурой.&lt;/p&gt;</description></item></channel></rss>