<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Векторные Базы Данных on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D1%8B%D0%B5-%D0%B1%D0%B0%D0%B7%D1%8B-%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/</link><description>Recent content in Векторные Базы Данных on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Fri, 06 Mar 2026 18:00:00 +0300</lastBuildDate><atom:link href="/tags/%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D1%8B%D0%B5-%D0%B1%D0%B0%D0%B7%D1%8B-%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/index.xml" rel="self" type="application/rss+xml"/><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Fri, 06 Mar 2026 18:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний и использует найденное как контекст. Это делает ответы точнее, актуальнее и проверяемее.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных корпусах текстов, но их знания «заморожены» на дату обучения. Они не знают о вчерашних событиях, внутренних документах вашей компании или специфичных данных вашей отрасли. Кроме того, LLM склонны к &lt;strong&gt;галлюцинациям&lt;/strong&gt; — уверенной генерации несуществующих фактов.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненной выборкой (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Tue, 17 Feb 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель сначала находит релевантные документы во внешней базе знаний, а затем генерирует ответ на их основе. Проще говоря: вместо того чтобы отвечать «по памяти», модель сначала «подсматривает в шпаргалку».&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется «галлюцинации».&lt;/p&gt;</description></item><item><title>Embedding и векторный поиск: основа AI-приложений</title><link>/articles/embedding-i-vektornyi-poisk-osnova-ai-prilozhenii/</link><pubDate>Sun, 15 Feb 2026 18:00:00 +0300</pubDate><guid>/articles/embedding-i-vektornyi-poisk-osnova-ai-prilozhenii/</guid><description>&lt;p&gt;Представьте: вы задаёте вопрос чат-боту, и он находит точный ответ среди миллионов документов за миллисекунды. Не по ключевым словам — а по &lt;strong&gt;смыслу&lt;/strong&gt;. Это не магия. Это embedding и векторный поиск — две технологии, без которых не работает ни один современный AI-продукт: от RAG-систем до рекомендательных сервисов.&lt;/p&gt;
&lt;p&gt;В этой статье разберём, как текст превращается в числа, почему косинусное расстояние важнее точного совпадения слов и какую векторную базу данных выбрать в 2026 году.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 14 Feb 2026 12:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это архитектурный паттерн, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешних источниках и использует её как контекст. Проще говоря, модель не полагается только на свою «память» — она сначала «заглядывает в справочник», а потом отвечает.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется &lt;strong&gt;галлюцинациями&lt;/strong&gt;.&lt;/p&gt;</description></item><item><title>Как построить RAG-систему за один день</title><link>/guides/kak-postroit-rag-sistemu-za-odin-den/</link><pubDate>Wed, 11 Feb 2026 09:00:00 +0300</pubDate><guid>/guides/kak-postroit-rag-sistemu-za-odin-den/</guid><description>&lt;p&gt;Ваша модель отвечает уверенно — но врёт. Она не знает о вашей внутренней документации, о приказах за прошлый квартал, о базе клиентов. Это не баг GPT-4o или Claude — это архитектурная проблема. Решение называется RAG: Retrieval-Augmented Generation.&lt;/p&gt;
&lt;p&gt;За один рабочий день вы можете собрать систему, которая ищет нужные фрагменты в ваших документах и передаёт их модели как контекст. Без дообучения, без дорогих GPU, без магии. Только Python, несколько библиотек и здравый смысл.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Mon, 09 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний. Это позволяет давать точные, актуальные ответы без необходимости переобучать модель.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных массивах текста, но у них есть два фундаментальных ограничения: знания «заморожены» на момент обучения, и модель может уверенно выдавать ложную информацию — так называемые галлюцинации.&lt;/p&gt;
&lt;p&gt;RAG решает обе проблемы. Вместо того чтобы полагаться только на «память» модели, система сначала находит нужные документы и подставляет их в контекст запроса. Модель отвечает, опираясь на конкретные источники, а не на догадки.&lt;/p&gt;</description></item></channel></rss>