<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Embeddings on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/embeddings/</link><description>Recent content in Embeddings on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sun, 01 Mar 2026 15:00:00 +0300</lastBuildDate><atom:link href="/tags/embeddings/index.xml" rel="self" type="application/rss+xml"/><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sun, 01 Mar 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;h2 id="определение"&gt;Определение&lt;/h2&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это архитектурный паттерн, при котором языковая модель перед генерацией ответа сначала находит релевантные документы во внешней базе знаний и использует их как контекст. Проще говоря: модель не полагается только на свою «память», а подглядывает в шпаргалку с актуальными данными.&lt;/div&gt;
&lt;/div&gt;

&lt;p&gt;Термин ввели исследователи из Meta AI (Facebook) в 2020 году в статье «Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks», представленной на конференции NeurIPS 2020.&lt;/p&gt;
&lt;h2 id="как-это-работает"&gt;Как это работает&lt;/h2&gt;
&lt;p&gt;RAG-система работает в три шага:&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 28 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель сначала находит релевантные документы во внешней базе знаний и только потом генерирует ответ, опираясь на найденную информацию. Это позволяет модели «знать» то, чего не было в её обучающих данных.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;У любой LLM есть две фундаментальные проблемы: она &lt;strong&gt;не знает ваших данных&lt;/strong&gt; и может &lt;strong&gt;галлюцинировать&lt;/strong&gt; — уверенно выдавать несуществующие факты. Fine-tuning решает первую проблему лишь частично и стоит дорого. RAG предлагает элегантный выход: вместо того чтобы переучивать модель, мы подаём ей нужный контекст прямо в запросе.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Thu, 26 Feb 2026 12:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала находит релевантную информацию во внешних источниках данных и использует её как контекст. Это позволяет давать точные, актуальные и проверяемые ответы без переобучения самой модели.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="простыми-словами"&gt;Простыми словами&lt;/h2&gt;
&lt;p&gt;Представьте студента на экзамене. Обычная LLM — это студент, который отвечает только по памяти: что выучил, то и говорит, а если не помнит — может начать выдумывать. RAG — это тот же студент, но с открытым учебником: прежде чем ответить, он находит нужную страницу, читает и только потом формулирует ответ.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Fri, 20 Feb 2026 18:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — техника, при которой языковая модель сначала находит релевантные документы во внешней базе знаний и только потом генерирует ответ, опираясь на найденную информацию. Это позволяет модели давать точные, актуальные и проверяемые ответы — даже по данным, которых не было в её обучающей выборке.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных массивах текста, но у них есть два системных ограничения:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Знания устаревают&lt;/strong&gt; — модель ничего не знает о событиях после даты обучения.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Галлюцинации&lt;/strong&gt; — модель может уверенно генерировать правдоподобный, но полностью выдуманный ответ.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;RAG решает обе проблемы: вместо того чтобы полагаться только на «память» модели, система подключает к ней внешний источник актуальных данных — корпоративную wiki, базу документов, API или векторную базу данных.&lt;/p&gt;</description></item></channel></rss>