<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llama on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/llama/</link><description>Recent content in Llama on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sun, 01 Mar 2026 12:00:00 +0300</lastBuildDate><atom:link href="/tags/llama/index.xml" rel="self" type="application/rss+xml"/><item><title>Тонкая настройка открытых моделей: когда нужна и как делать</title><link>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</link><pubDate>Sun, 01 Mar 2026 12:00:00 +0300</pubDate><guid>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</guid><description>&lt;p&gt;Вы взяли Llama 3.1 или Qwen 2.5, запустили на своём сервере, поигрались с промптами — и всё равно модель отвечает не так, как надо. То тон не тот, то формат плавает, то в предметной области откровенно «плавает». Что делать?&lt;/p&gt;
&lt;p&gt;Большинство сразу тянется к fine-tuning — тонкой настройке. Но это не всегда правильный ответ. В 2026 году у разработчиков есть три основных инструмента адаптации LLM: промпт-инжиниринг, RAG и fine-tuning. И задача — понять, когда именно нужен последний, как его запустить с минимальными затратами и чего ждать на выходе.&lt;/p&gt;</description></item><item><title>Mixture of Experts — MoE (Смесь экспертов)</title><link>/glossary/mixture-of-experts-moe/</link><pubDate>Tue, 10 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/mixture-of-experts-moe/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Mixture of Experts (MoE)&lt;/strong&gt; — архитектура нейросети, в которой большая модель разбита на множество специализированных подсетей («экспертов»). При обработке каждого запроса активируется лишь небольшая часть этих экспертов — та, что наиболее подходит для задачи. Остальные в работе не участвуют.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="что-такое-moe-простыми-словами"&gt;Что такое MoE простыми словами&lt;/h2&gt;
&lt;p&gt;Представьте компанию, в которой работают сотни узких специалистов: юристы, программисты, дизайнеры, финансисты. Когда клиент приходит с задачей, менеджер (он же «роутер») оценивает вопрос и направляет его к двум-трём нужным специалистам. Остальные сотрудники в этот момент отдыхают.&lt;/p&gt;</description></item></channel></rss>