<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>PyTorch on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/pytorch/</link><description>Recent content in PyTorch on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 16 Feb 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/pytorch/index.xml" rel="self" type="application/rss+xml"/><item><title>MiniMind: обучить GPT с нуля за 2 часа и 40 центов</title><link>/news/minimind-obuchit-gpt-s-nulya-za-2-chasa/</link><pubDate>Mon, 16 Feb 2026 09:00:00 +0300</pubDate><guid>/news/minimind-obuchit-gpt-s-nulya-za-2-chasa/</guid><description>&lt;p&gt;Китайский разработчик Jingyao Gong выложил в открытый доступ проект MiniMind — полный pipeline для обучения языковой модели на 64 миллиона параметров с нуля. На одной видеокарте NVIDIA RTX 3090 весь процесс занимает около двух часов и обходится примерно в 3 юаня (~40 центов) при аренде GPU-сервера. Проект набрал более 41 000 звёзд на GitHub и стал одним из самых популярных учебных ресурсов по LLM.&lt;/p&gt;
&lt;h2 id="что-такое-minimind"&gt;Что такое MiniMind&lt;/h2&gt;
&lt;p&gt;MiniMind — это не очередная обёртка над чужой моделью. Это полная реализация языковой модели с нуля на чистом PyTorch, без зависимости от высокоуровневых фреймворков вроде &lt;code&gt;transformers&lt;/code&gt; или &lt;code&gt;trl&lt;/code&gt;. Размер модели — примерно 1/2700 от GPT-3.&lt;/p&gt;</description></item></channel></rss>