<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Открытые Модели on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D1%8B%D0%B5-%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8/</link><description>Recent content in Открытые Модели on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 17:00:00 +0300</lastBuildDate><atom:link href="/tags/%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D1%8B%D0%B5-%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8/index.xml" rel="self" type="application/rss+xml"/><item><title>MiniMax M2.7: «псевдооткрытая» модель с коммерческими ограничениями</title><link>/news/minimax-m27-psevdootkrytaya-model-kommercheskie-ogranicheniya/</link><pubDate>Mon, 13 Apr 2026 17:00:00 +0300</pubDate><guid>/news/minimax-m27-psevdootkrytaya-model-kommercheskie-ogranicheniya/</guid><description>&lt;p&gt;Китайская компания MiniMax выпустила языковую модель M2.7 с открытыми весами, но строгими лицензионными ограничениями. Лицензия запрещает любое коммерческое использование без письменного разрешения компании и даже развертывание дообученных версий для получения прибыли.&lt;/p&gt;
&lt;h2 id="что-запрещает-лицензия-minimax-m27"&gt;Что запрещает лицензия MiniMax M2.7&lt;/h2&gt;
&lt;p&gt;Пользователи сообщества LocalLLaMA обратили внимание на строгие ограничения в лицензии модели. Согласно документу на Hugging Face, коммерческое использование запрещено в широком понимании:&lt;/p&gt;



&lt;div class="callout callout-warning"&gt;
 &lt;div class="callout-title"&gt;&amp;#9888; Коммерческие ограничения&lt;/div&gt;
 &lt;div class="callout-content"&gt;Лицензия запрещает использование модели для платных сервисов, коммерческих API и даже развертывание дообученных версий для получения прибыли. Также явно запрещено военное применение.&lt;/div&gt;
&lt;/div&gt;

&lt;p&gt;Определение «коммерческого использования» в лицензии включает:&lt;/p&gt;</description></item><item><title>Тонкая настройка открытых моделей: когда нужна и как делать</title><link>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</link><pubDate>Sun, 01 Mar 2026 12:00:00 +0300</pubDate><guid>/guides/tonkaya-nastroyka-otkrytykh-modeley-kogda-i-kak/</guid><description>&lt;p&gt;Вы взяли Llama 3.1 или Qwen 2.5, запустили на своём сервере, поигрались с промптами — и всё равно модель отвечает не так, как надо. То тон не тот, то формат плавает, то в предметной области откровенно «плавает». Что делать?&lt;/p&gt;
&lt;p&gt;Большинство сразу тянется к fine-tuning — тонкой настройке. Но это не всегда правильный ответ. В 2026 году у разработчиков есть три основных инструмента адаптации LLM: промпт-инжиниринг, RAG и fine-tuning. И задача — понять, когда именно нужен последний, как его запустить с минимальными затратами и чего ждать на выходе.&lt;/p&gt;</description></item></channel></rss>