<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Трансформеры on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%84%D0%BE%D1%80%D0%BC%D0%B5%D1%80%D1%8B/</link><description>Recent content in Трансформеры on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sun, 12 Apr 2026 17:28:21 +0300</lastBuildDate><atom:link href="/tags/%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%84%D0%BE%D1%80%D0%BC%D0%B5%D1%80%D1%8B/index.xml" rel="self" type="application/rss+xml"/><item><title>Kronos — первая open-source модель для прогнозирования финансовых рынков принята на AAAI 2026</title><link>/news/kronos-pervaya-open-source-model-finansovyh-rynkov-aaai-2026/</link><pubDate>Sun, 12 Apr 2026 17:28:21 +0300</pubDate><guid>/news/kronos-pervaya-open-source-model-finansovyh-rynkov-aaai-2026/</guid><description>&lt;p&gt;Модель Kronos принята на конференцию AAAI 2026 — это первая открытая foundation-модель, специально разработанная для анализа финансовых свечных графиков (K-line). Модель обучена на данных с более чем 45 мировых бирж и демонстрирует обучение на массивном корпусе из более 12 миллиардов записей K-line с 45 мировых бирж.&lt;/p&gt;
&lt;h2 id="революционная-архитектура"&gt;Революционная архитектура&lt;/h2&gt;
&lt;p&gt;Kronos представляет семейство decoder-only foundation-моделей, предварительно обученных специально для «языка» финансовых рынков — последовательностей K-line. Основные особенности:&lt;/p&gt;



&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Двухэтапная архитектура&lt;/div&gt;
 &lt;div class="callout-content"&gt;Специализированный токенизатор преобразует непрерывные многомерные данные K-line (OHLCV) в иерархические дискретные токены, а затем большой автoрегрессивный трансформер обучается на этих токенах&lt;/div&gt;
&lt;/div&gt;

&lt;pre class="mermaid"&gt;

graph LR
 A[OHLCV данные] --&gt; B[Специализированный токенизатор]
 B --&gt; C[Дискретные токены]
 C --&gt; D[Автoрегрессивный трансформер]
 D --&gt; E[Прогноз рынка]

&lt;/pre&gt;

&lt;p&gt;В отличие от общих моделей временных рядов (TSFM), Kronos разработана для работы с уникальными, высокошумными характеристиками финансовых данных. Модель использует новую двухэтапную архитектуру: специализированный токенизатор сначала квантует непрерывные многомерные данные K-line (OHLCV) в иерархические дискретные токены.&lt;/p&gt;</description></item><item><title>Как устроены системы рекомендаций на базе AI</title><link>/articles/kak-ustroeny-sistemy-rekomendatsii-na-baze-ai/</link><pubDate>Sun, 29 Mar 2026 09:00:00 +0300</pubDate><guid>/articles/kak-ustroeny-sistemy-rekomendatsii-na-baze-ai/</guid><description>&lt;p&gt;Каждый раз, когда Netflix подсовывает идеальный фильм на вечер, а Spotify собирает плейлист «Открытия недели», за этим стоит не магия — а система рекомендаций на базе AI. Эти системы генерируют миллиарды долларов выручки: Amazon получает &lt;strong&gt;35% дохода&lt;/strong&gt; благодаря рекомендациям, а более &lt;strong&gt;80% контента&lt;/strong&gt; на Netflix находят именно через персонализированные подборки. Как устроены эти механизмы изнутри, какие алгоритмы лежат в их основе и куда движется технология — разбираем в этой статье.&lt;/p&gt;</description></item><item><title>Нейросети для NLP: от RNN к трансформерам</title><link>/articles/neiroseti-dlya-nlp-ot-rnn-k-transformeram/</link><pubDate>Wed, 25 Mar 2026 15:00:00 +0300</pubDate><guid>/articles/neiroseti-dlya-nlp-ot-rnn-k-transformeram/</guid><description>&lt;p&gt;В 2017 году восемь исследователей из Google опубликовали статью с дерзким названием «Attention Is All You Need». К 2026-му она набрала свыше 150 000 цитирований и перевернула всю область обработки естественного языка. Но трансформер не появился из ниоткуда — ему предшествовали десятилетия экспериментов с рекуррентными сетями, которые учились читать текст слово за словом.&lt;/p&gt;
&lt;p&gt;Эта статья — путь от первых RNN до современных архитектур, на которых построены GPT-4, Claude и Gemini. Без мифов, с техническими деталями и честным сравнением подходов.&lt;/p&gt;</description></item><item><title>Как работают трансформеры: архитектура, изменившая AI</title><link>/articles/kak-rabotaiut-transformery-arkhitektura-izmenivshaia-ai/</link><pubDate>Thu, 19 Mar 2026 09:00:00 +0300</pubDate><guid>/articles/kak-rabotaiut-transformery-arkhitektura-izmenivshaia-ai/</guid><description>&lt;p&gt;В 2017 году восемь исследователей из Google опубликовали статью с провокационным названием «Attention Is All You Need» — отсылку к песне The Beatles «All You Need Is Love». Статья представила архитектуру трансформера — нейросеть на 100 миллионов параметров, которая обходилась без рекуррентных и свёрточных слоёв. Тогда это казалось смелым экспериментом. Сегодня каждая крупная языковая модель — GPT-5, Claude Opus, Gemini 3, Llama 4 — построена на этой архитектуре. Разберёмся, как она устроена и почему оказалась настолько мощной.&lt;/p&gt;</description></item></channel></rss>