<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Qwen3.5 on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/qwen3.5/</link><description>Recent content in Qwen3.5 on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sat, 11 Apr 2026 03:09:24 +0300</lastBuildDate><atom:link href="/tags/qwen3.5/index.xml" rel="self" type="application/rss+xml"/><item><title>LoRA для анализа данных: 9B-модель справляется с 89% задач без человека</title><link>/news/lora-data-analyst-9b-89-protsent-avtonomno/</link><pubDate>Sat, 11 Apr 2026 03:09:24 +0300</pubDate><guid>/news/lora-data-analyst-9b-89-protsent-avtonomno/</guid><description>&lt;p&gt;Разработчик из сообщества r/LocalLLaMA обучил LoRA-адаптер (Low-Rank Adaptation — метод лёгкой дообучения нейросети) на базе модели CoPaw-Flash-9B, превратив компактную 9-миллиардную модель в автономного аналитика данных. Базовая модель не справлялась с комплексными аналитическими задачами ни разу, а после дообучения — завершает 89% рабочих процессов полностью без вмешательства человека.&lt;/p&gt;
&lt;h2 id="проблема-маленькие-модели-не-умеют-быть-самостоятельными"&gt;Проблема: маленькие модели не умеют быть самостоятельными&lt;/h2&gt;
&lt;p&gt;Большинство open-source моделей в диапазоне 4B–14B параметров работают как «продвинутые вызыватели функций». Дай им открытый запрос вроде &lt;em&gt;«Проанализируй этот датасет и дай мне инсайты»&lt;/em&gt; — они выполнят один шаг, остановятся и будут ждать, пока человек скажет «продолжай».&lt;/p&gt;</description></item></channel></rss>