<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Диффузионные Модели on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D0%B4%D0%B8%D1%84%D1%84%D1%83%D0%B7%D0%B8%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5-%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8/</link><description>Recent content in Диффузионные Модели on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 02 Mar 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/%D0%B4%D0%B8%D1%84%D1%84%D1%83%D0%B7%D0%B8%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5-%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8/index.xml" rel="self" type="application/rss+xml"/><item><title>Как AI генерирует изображения: от GAN до диффузии</title><link>/articles/kak-ai-generiruet-izobrazheniya-ot-gan-do-diffuzii/</link><pubDate>Mon, 02 Mar 2026 09:00:00 +0300</pubDate><guid>/articles/kak-ai-generiruet-izobrazheniya-ot-gan-do-diffuzii/</guid><description>&lt;p&gt;В 2014 году Ян Гудфеллоу опубликовал статью, которая перевернула область генерации изображений. Его генеративно-состязательные сети (GAN) впервые показали, что нейросеть может создавать реалистичные картинки «из ничего». Спустя десять лет ландшафт полностью изменился: диффузионные модели вытеснили GAN с пьедестала, а сервисы вроде Midjourney и DALL-E генерируют изображения, неотличимые от фотографий. Как мы к этому пришли? Разберём всю эволюцию — от первых размытых лиц до фотореалистичных сцен по текстовому описанию.&lt;/p&gt;
&lt;h2 id="зачем-нейросети-генерируют-изображения"&gt;Зачем нейросети генерируют изображения&lt;/h2&gt;
&lt;p&gt;Задача генеративных моделей — научиться распределению данных. Если модель «понимает», как устроены фотографии кошек — какие бывают формы ушей, как ложится свет на шерсть, какие пропорции тела — она может сэмплировать новые изображения из этого распределения. По сути, это сжатое понимание визуального мира.&lt;/p&gt;</description></item></channel></rss>