<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>ROCm on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/rocm/</link><description>Recent content in ROCm on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sat, 09 May 2026 03:12:42 +0300</lastBuildDate><atom:link href="/tags/rocm/index.xml" rel="self" type="application/rss+xml"/><item><title>vLLM ROCm теперь в Lemonade: новый бэкенд для AMD</title><link>/news/vllm-rocm-lemonade-eksperimentalnyy-backend/</link><pubDate>Sat, 09 May 2026 03:12:42 +0300</pubDate><guid>/news/vllm-rocm-lemonade-eksperimentalnyy-backend/</guid><description>&lt;h2 id="vllm-rocm-пришёл-в-lemonade--запуск-модели-в-одну-команду"&gt;vLLM ROCm пришёл в Lemonade — запуск модели в одну команду&lt;/h2&gt;
&lt;p&gt;В свежем релизе Lemonade v10.4 появился экспериментальный бэкенд vLLM ROCm — теперь пользователи AMD-железа могут запускать языковые модели через vLLM так же легко, как через llama.cpp. Поддержка пока ограничена устройствами Strix Halo и Strix Point под Linux, но это важный шаг в расширении экосистемы локального AI на AMD.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="что-такое-lemonade"&gt;Что такое Lemonade&lt;/h2&gt;
&lt;p&gt;Lemonade — открытый проект с поддержкой AMD, цель которого — сделать запуск локальных LLM простым и доступным. Это локальный AI-сервер, дающий те же возможности, что и облачные API, но абсолютно бесплатно и приватно: чат, кодинг, распознавание речи и генерация изображений — всё на собственном железе.&lt;/p&gt;</description></item></channel></rss>