<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Файн-Тюнинг on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D1%84%D0%B0%D0%B9%D0%BD-%D1%82%D1%8E%D0%BD%D0%B8%D0%BD%D0%B3/</link><description>Recent content in Файн-Тюнинг on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Tue, 17 Feb 2026 15:00:00 +0300</lastBuildDate><atom:link href="/tags/%D1%84%D0%B0%D0%B9%D0%BD-%D1%82%D1%8E%D0%BD%D0%B8%D0%BD%D0%B3/index.xml" rel="self" type="application/rss+xml"/><item><title>RAG — генерация с дополненной выборкой (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Tue, 17 Feb 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель сначала находит релевантные документы во внешней базе знаний, а затем генерирует ответ на их основе. Проще говоря: вместо того чтобы отвечать «по памяти», модель сначала «подсматривает в шпаргалку».&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется «галлюцинации».&lt;/p&gt;</description></item></channel></rss>