<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Unsloth on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/unsloth/</link><description>Recent content in Unsloth on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Wed, 18 Mar 2026 18:00:00 +0300</lastBuildDate><atom:link href="/tags/unsloth/index.xml" rel="self" type="application/rss+xml"/><item><title>Unsloth Studio: веб-интерфейс для обучения LLM локально</title><link>/news/unsloth-studio-web-ui-obuchenie-llm-lokalno/</link><pubDate>Wed, 18 Mar 2026 18:00:00 +0300</pubDate><guid>/news/unsloth-studio-web-ui-obuchenie-llm-lokalno/</guid><description>&lt;p&gt;Проект Unsloth, набравший более 60 тысяч звёзд на GitHub, выпустил &lt;strong&gt;Unsloth Studio&lt;/strong&gt; — open-source веб-интерфейс для локального обучения и запуска AI-моделей. Инструмент обещает до 2x ускорение тренировки при сокращении потребления видеопамяти на 70%, без потери точности. Studio работает на Windows, Linux и macOS и поддерживает более 500 моделей — от Qwen3.5 и Gemma 4 до DeepSeek и gpt-oss от OpenAI.&lt;/p&gt;
&lt;h2 id="что-умеет-unsloth-studio"&gt;Что умеет Unsloth Studio&lt;/h2&gt;
&lt;p&gt;Studio — это единый интерфейс, который объединяет инференс (запуск моделей) и тренировку в одном окне браузера. Раньше Unsloth был доступен только как Python-библиотека для продвинутых пользователей. Теперь порог входа снизился: настроить fine-tuning (дообучение) можно через визуальные формы, без написания кода.&lt;/p&gt;</description></item><item><title>Тонкая настройка открытых моделей: когда нужна и как делать</title><link>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</link><pubDate>Sun, 01 Mar 2026 12:00:00 +0300</pubDate><guid>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</guid><description>&lt;p&gt;Вы взяли Llama 3.1 или Qwen 2.5, запустили на своём сервере, поигрались с промптами — и всё равно модель отвечает не так, как надо. То тон не тот, то формат плавает, то в предметной области откровенно «плавает». Что делать?&lt;/p&gt;
&lt;p&gt;Большинство сразу тянется к fine-tuning — тонкой настройке. Но это не всегда правильный ответ. В 2026 году у разработчиков есть три основных инструмента адаптации LLM: промпт-инжиниринг, RAG и fine-tuning. И задача — понять, когда именно нужен последний, как его запустить с минимальными затратами и чего ждать на выходе.&lt;/p&gt;</description></item></channel></rss>