<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>RAG on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/rag/</link><description>Recent content in RAG on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Wed, 15 Apr 2026 16:31:29 +0300</lastBuildDate><atom:link href="/tags/rag/index.xml" rel="self" type="application/rss+xml"/><item><title>Open WebUI: мощная self-hosted платформа для локального AI</title><link>/news/open-webui-self-hosted-ai-platforma/</link><pubDate>Wed, 15 Apr 2026 16:31:29 +0300</pubDate><guid>/news/open-webui-self-hosted-ai-platforma/</guid><description>&lt;p&gt;Open WebUI уверенно занял место главного open-source интерфейса для локального запуска LLM. Платформа набрала более 124 тысяч звёзд на GitHub и преодолела отметку в 282 миллиона загрузок, превратившись из hobbyist-проекта в полноценное корпоративное решение. Open WebUI — расширяемая, функционально насыщенная self-hosted платформа, спроектированная для работы полностью офлайн: она поддерживает различные LLM-раннеры, включая Ollama и OpenAI-совместимые API, а встроенный inference engine обеспечивает RAG из коробки.&lt;/p&gt;
&lt;h2 id="что-умеет-open-webui"&gt;Что умеет Open WebUI&lt;/h2&gt;
&lt;p&gt;Open WebUI заменяет целый набор разрозненных AI-инструментов — ChatGPT для текстов, отдельное приложение для генерации изображений, другое для поиска по документам. Всё это собрано в одном месте: переписка, база знаний, инструменты и модели.&lt;/p&gt;</description></item><item><title>Как создать AI-чатбот для своего сайта</title><link>/guides/kak-sozdat-ai-chatbot-dlia-svoego-saita/</link><pubDate>Sun, 05 Apr 2026 09:00:00 +0300</pubDate><guid>/guides/kak-sozdat-ai-chatbot-dlia-svoego-saita/</guid><description>&lt;p&gt;AI-чатбот на сайте — это уже не роскошь для корпораций, а рабочий инструмент для любого бизнеса. По данным на 2026 год, стоимость API-вызовов крупнейших моделей упала настолько, что содержание чатбота обходится дешевле, чем один час работы оператора поддержки. GPT-5.4 стоит $2.50 за миллион входящих токенов, Claude Sonnet 4.6 — $3. Это значит, что тысяча развёрнутых ответов клиентам обойдётся вам в несколько центов.&lt;/p&gt;
&lt;p&gt;В этом руководстве разберём весь путь — от выбора подхода до работающего чатбота на вашем сайте. Без маркетинговой воды, с конкретными инструментами, кодом и ценами.&lt;/p&gt;</description></item><item><title>RAG на практике: поиск по документам с LangChain и pgvector</title><link>/guides/rag-na-praktike-langchain-pgvector-poiskovaia-sistema/</link><pubDate>Fri, 03 Apr 2026 18:00:00 +0300</pubDate><guid>/guides/rag-na-praktike-langchain-pgvector-poiskovaia-sistema/</guid><description>&lt;p&gt;Представьте: у вас 10 000 внутренних документов компании — регламенты, договоры, техническая документация. Сотрудники тратят часы, пытаясь найти нужный пункт. Поиск по ключевым словам не работает — люди спрашивают «как оформить командировку», а документ называется «Положение о служебных поездках».&lt;/p&gt;
&lt;p&gt;RAG (Retrieval-Augmented Generation) решает именно эту проблему. Система понимает смысл вопроса, находит релевантные фрагменты из базы знаний и генерирует точный ответ с указанием источника. В этом руководстве мы построим такую систему с нуля — с реальным кодом, PostgreSQL, pgvector и LangChain.&lt;/p&gt;</description></item><item><title>Эмбеддинг (Embedding)</title><link>/glossary/embedding-embeddingi/</link><pubDate>Thu, 02 Apr 2026 09:00:00 +0300</pubDate><guid>/glossary/embedding-embeddingi/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Эмбеддинг (Embedding)&lt;/strong&gt; — числовое представление данных (текста, изображения, аудио) в виде вектора фиксированной длины. Близкие по смыслу объекты получают близкие векторы, что позволяет машине «понимать» семантическое сходство — не по совпадению слов, а по значению.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужны-эмбеддинги"&gt;Зачем нужны эмбеддинги&lt;/h2&gt;
&lt;p&gt;Компьютер не понимает слова — он работает с числами. Классический подход — поиск по ключевым словам — ломается, когда человек пишет «недорогой смартфон», а в базе написано «бюджетный телефон». Слова разные, смысл один.&lt;/p&gt;</description></item><item><title>Эмбеддинг (Embedding)</title><link>/glossary/embedding-embedding/</link><pubDate>Wed, 01 Apr 2026 15:00:00 +0300</pubDate><guid>/glossary/embedding-embedding/</guid><description>&lt;h2 id="что-такое-эмбеддинг"&gt;Что такое эмбеддинг?&lt;/h2&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Эмбеддинг (embedding)&lt;/strong&gt; — это способ превратить текст, изображение или другой объект в набор чисел (вектор), который отражает его смысл. Близкие по значению объекты получают похожие векторы, далёкие — различные.&lt;/div&gt;
&lt;/div&gt;

&lt;p&gt;Представьте, что вам нужно объяснить компьютеру, что «кот» и «кошка» — почти одно и то же, а «кот» и «бетономешалка» — совсем разное. Обычный текст для машины — просто набор символов. Эмбеддинг решает эту проблему: он переводит слова и предложения в числовое пространство, где расстояние между точками соответствует смысловой близости.&lt;/p&gt;</description></item><item><title>Tavily, Exa и Brave Search API: поиск для AI-агентов</title><link>/tools/tavily-exa-brave-search-api-dlia-ai-agentov/</link><pubDate>Fri, 27 Mar 2026 15:00:00 +0300</pubDate><guid>/tools/tavily-exa-brave-search-api-dlia-ai-agentov/</guid><description>&lt;p&gt;Когда AI-агент должен ответить на актуальный вопрос — «Что произошло с акциями Nvidia на прошлой неделе?» или «Какая последняя версия LangChain?» — он не может полагаться только на обучающие данные. Ему нужен инструмент веб-поиска. Именно здесь в игру вступают Tavily, Exa и Brave Search API — три сервиса, которые в 2026 году оспаривают право называться стандартным поисковым слоем для LLM-приложений.&lt;/p&gt;
&lt;p&gt;Разберём каждый — с реальными цифрами, примерами кода и честным сравнением.&lt;/p&gt;</description></item><item><title>Галлюцинация (Hallucination)</title><link>/glossary/galliutsinatsiia-hallucination/</link><pubDate>Mon, 23 Mar 2026 18:00:00 +0300</pubDate><guid>/glossary/galliutsinatsiia-hallucination/</guid><description>&lt;p&gt;&lt;strong&gt;Галлюцинация&lt;/strong&gt; (англ. &lt;em&gt;hallucination&lt;/em&gt;) — это явление, при котором AI-модель генерирует ответ, содержащий ложную или вымышленную информацию, но подаёт её уверенно и правдоподобно. Модель не «врёт» намеренно — она просто не отличает реальные факты от статистически вероятных последовательностей слов.&lt;/p&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Определение.&lt;/strong&gt; AI-галлюцинация — ответ модели, который звучит убедительно, но содержит вымышленные факты, несуществующие источники или искажённые данные. Термин заимствован из психиатрии по аналогии: модель «видит» то, чего нет.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="почему-модели-галлюцинируют"&gt;Почему модели галлюцинируют&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) — это предсказатели следующего слова. Они обучены находить статистические закономерности в текстах, а не хранить базу фактов. Когда модель сталкивается с пробелом в знаниях или неоднозначным запросом, она заполняет пустоту наиболее правдоподобной выдумкой — вместо того чтобы признать незнание.&lt;/p&gt;</description></item><item><title>Галлюцинация (Hallucination)</title><link>/glossary/galliutsinatsiia-hallucination/</link><pubDate>Sun, 15 Mar 2026 12:00:00 +0300</pubDate><guid>/glossary/galliutsinatsiia-hallucination/</guid><description>&lt;h2 id="определение"&gt;Определение&lt;/h2&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Галлюцинация ИИ&lt;/strong&gt; — это ответ модели, который содержит ложную или вымышленную информацию, но подаётся уверенно и убедительно, как установленный факт. Модель не «врёт» намеренно — она предсказывает наиболее вероятное продолжение текста, и иногда это продолжение оказывается выдумкой.&lt;/div&gt;
&lt;/div&gt;

&lt;p&gt;Языковые модели (LLM) работают как продвинутые автодополнители: они генерируют текст слово за словом, выбирая статистически правдоподобные варианты. У них нет встроенного понимания «истинности» — только паттерны из обучающих данных. Когда паттернов недостаточно или вопрос выходит за рамки обучения, модель заполняет пробелы правдоподобной, но ложной информацией.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 07 Mar 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель перед генерацией ответа сначала находит релевантную информацию во внешней базе знаний и использует её как контекст. Это позволяет давать точные, актуальные и проверяемые ответы без переобучения модели.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных массивах текста, но у них есть два фундаментальных ограничения: знания «заморожены» на дату обучения и они не имеют доступа к закрытым корпоративным данным. RAG решает обе проблемы — модель получает свежую и специфичную информацию прямо в момент запроса.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Fri, 06 Mar 2026 18:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний и использует найденное как контекст. Это делает ответы точнее, актуальнее и проверяемее.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных корпусах текстов, но их знания «заморожены» на дату обучения. Они не знают о вчерашних событиях, внутренних документах вашей компании или специфичных данных вашей отрасли. Кроме того, LLM склонны к &lt;strong&gt;галлюцинациям&lt;/strong&gt; — уверенной генерации несуществующих фактов.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sun, 01 Mar 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;h2 id="определение"&gt;Определение&lt;/h2&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это архитектурный паттерн, при котором языковая модель перед генерацией ответа сначала находит релевантные документы во внешней базе знаний и использует их как контекст. Проще говоря: модель не полагается только на свою «память», а подглядывает в шпаргалку с актуальными данными.&lt;/div&gt;
&lt;/div&gt;

&lt;p&gt;Термин ввели исследователи из Meta AI (Facebook) в 2020 году в статье «Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks», представленной на конференции NeurIPS 2020.&lt;/p&gt;
&lt;h2 id="как-это-работает"&gt;Как это работает&lt;/h2&gt;
&lt;p&gt;RAG-система работает в три шага:&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 28 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель сначала находит релевантные документы во внешней базе знаний и только потом генерирует ответ, опираясь на найденную информацию. Это позволяет модели «знать» то, чего не было в её обучающих данных.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;У любой LLM есть две фундаментальные проблемы: она &lt;strong&gt;не знает ваших данных&lt;/strong&gt; и может &lt;strong&gt;галлюцинировать&lt;/strong&gt; — уверенно выдавать несуществующие факты. Fine-tuning решает первую проблему лишь частично и стоит дорого. RAG предлагает элегантный выход: вместо того чтобы переучивать модель, мы подаём ей нужный контекст прямо в запросе.&lt;/p&gt;</description></item><item><title>Локальный AI-стек: Ollama + Open WebUI + RAG за один вечер</title><link>/guides/lokalnyy-ai-stek-ollama-open-webui-rag/</link><pubDate>Thu, 26 Feb 2026 18:00:00 +0300</pubDate><guid>/guides/lokalnyy-ai-stek-ollama-open-webui-rag/</guid><description>&lt;p&gt;Представьте: вы задаёте вопрос своему AI-ассистенту, загружаете корпоративный PDF — и он отвечает точно по документу. Без отправки данных в OpenAI. Без подписок. Без утечек. Всё крутится на вашем железе.&lt;/p&gt;
&lt;p&gt;Это не фантастика 2030 года — это реально собирается сегодня вечером. Ollama как движок для запуска LLM, Open WebUI как красивый интерфейс, RAG как механизм работы с вашими документами. Три компонента — один работающий стек. Поехали.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="что-такое-этот-стек-и-зачем-он-вам-нужен"&gt;Что такое этот стек и зачем он вам нужен&lt;/h2&gt;
&lt;p&gt;Прежде чем лезть в терминал, разберёмся с архитектурой.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Thu, 26 Feb 2026 12:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала находит релевантную информацию во внешних источниках данных и использует её как контекст. Это позволяет давать точные, актуальные и проверяемые ответы без переобучения самой модели.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="простыми-словами"&gt;Простыми словами&lt;/h2&gt;
&lt;p&gt;Представьте студента на экзамене. Обычная LLM — это студент, который отвечает только по памяти: что выучил, то и говорит, а если не помнит — может начать выдумывать. RAG — это тот же студент, но с открытым учебником: прежде чем ответить, он находит нужную страницу, читает и только потом формулирует ответ.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Fri, 20 Feb 2026 18:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — техника, при которой языковая модель сначала находит релевантные документы во внешней базе знаний и только потом генерирует ответ, опираясь на найденную информацию. Это позволяет модели давать точные, актуальные и проверяемые ответы — даже по данным, которых не было в её обучающей выборке.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных массивах текста, но у них есть два системных ограничения:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Знания устаревают&lt;/strong&gt; — модель ничего не знает о событиях после даты обучения.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Галлюцинации&lt;/strong&gt; — модель может уверенно генерировать правдоподобный, но полностью выдуманный ответ.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;RAG решает обе проблемы: вместо того чтобы полагаться только на «память» модели, система подключает к ней внешний источник актуальных данных — корпоративную wiki, базу документов, API или векторную базу данных.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненной выборкой (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Tue, 17 Feb 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель сначала находит релевантные документы во внешней базе знаний, а затем генерирует ответ на их основе. Проще говоря: вместо того чтобы отвечать «по памяти», модель сначала «подсматривает в шпаргалку».&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется «галлюцинации».&lt;/p&gt;</description></item><item><title>Embedding и векторный поиск: основа AI-приложений</title><link>/articles/embedding-i-vektornyi-poisk-osnova-ai-prilozhenii/</link><pubDate>Sun, 15 Feb 2026 18:00:00 +0300</pubDate><guid>/articles/embedding-i-vektornyi-poisk-osnova-ai-prilozhenii/</guid><description>&lt;p&gt;Представьте: вы задаёте вопрос чат-боту, и он находит точный ответ среди миллионов документов за миллисекунды. Не по ключевым словам — а по &lt;strong&gt;смыслу&lt;/strong&gt;. Это не магия. Это embedding и векторный поиск — две технологии, без которых не работает ни один современный AI-продукт: от RAG-систем до рекомендательных сервисов.&lt;/p&gt;
&lt;p&gt;В этой статье разберём, как текст превращается в числа, почему косинусное расстояние важнее точного совпадения слов и какую векторную базу данных выбрать в 2026 году.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 14 Feb 2026 12:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это архитектурный паттерн, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешних источниках и использует её как контекст. Проще говоря, модель не полагается только на свою «память» — она сначала «заглядывает в справочник», а потом отвечает.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется &lt;strong&gt;галлюцинациями&lt;/strong&gt;.&lt;/p&gt;</description></item><item><title>DeepTutor 1.0: ИИ-репетитор с агентной архитектурой</title><link>/news/deeptutor-1-0-ii-repetitor-agentnaia-arkhitektura/</link><pubDate>Thu, 12 Feb 2026 15:00:00 +0300</pubDate><guid>/news/deeptutor-1-0-ii-repetitor-agentnaia-arkhitektura/</guid><description>&lt;p&gt;Лаборатория Data Intelligence Lab Гонконгского университета (HKUDS) выпустила &lt;strong&gt;DeepTutor v1.0.0&lt;/strong&gt; — open-source ИИ-ассистент для персонализированного обучения. Релиз представляет собой полную переработку архитектуры на агентную модель — около 200 тысяч строк нового кода. Проект распространяется под лицензией Apache-2.0 и уже набрал более 10 000 звёзд на GitHub.&lt;/p&gt;
&lt;h2 id="что-такое-deeptutor"&gt;Что такое DeepTutor&lt;/h2&gt;
&lt;p&gt;DeepTutor — не очередной чат-бот для ответов на вопросы. Это платформа, в которой пять режимов работы объединены в единый контекст: обычный чат, глубокое решение задач (Deep Solve), генерация тестов, исследовательский режим (Deep Research) и визуализация математики (Math Animator). Переключение между ними происходит без потери истории беседы.&lt;/p&gt;</description></item><item><title>Как построить RAG-систему за один день</title><link>/guides/kak-postroit-rag-sistemu-za-odin-den/</link><pubDate>Wed, 11 Feb 2026 09:00:00 +0300</pubDate><guid>/guides/kak-postroit-rag-sistemu-za-odin-den/</guid><description>&lt;p&gt;Ваша модель отвечает уверенно — но врёт. Она не знает о вашей внутренней документации, о приказах за прошлый квартал, о базе клиентов. Это не баг GPT-4o или Claude — это архитектурная проблема. Решение называется RAG: Retrieval-Augmented Generation.&lt;/p&gt;
&lt;p&gt;За один рабочий день вы можете собрать систему, которая ищет нужные фрагменты в ваших документах и передаёт их модели как контекст. Без дообучения, без дорогих GPU, без магии. Только Python, несколько библиотек и здравый смысл.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Mon, 09 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний. Это позволяет давать точные, актуальные ответы без необходимости переобучать модель.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных массивах текста, но у них есть два фундаментальных ограничения: знания «заморожены» на момент обучения, и модель может уверенно выдавать ложную информацию — так называемые галлюцинации.&lt;/p&gt;
&lt;p&gt;RAG решает обе проблемы. Вместо того чтобы полагаться только на «память» модели, система сначала находит нужные документы и подставляет их в контекст запроса. Модель отвечает, опираясь на конкретные источники, а не на догадки.&lt;/p&gt;</description></item></channel></rss>