<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Attention on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/attention/</link><description>Recent content in Attention on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Wed, 25 Mar 2026 15:00:00 +0300</lastBuildDate><atom:link href="/tags/attention/index.xml" rel="self" type="application/rss+xml"/><item><title>Нейросети для NLP: от RNN к трансформерам</title><link>/articles/neiroseti-dlya-nlp-ot-rnn-k-transformeram/</link><pubDate>Wed, 25 Mar 2026 15:00:00 +0300</pubDate><guid>/articles/neiroseti-dlya-nlp-ot-rnn-k-transformeram/</guid><description>&lt;p&gt;В 2017 году восемь исследователей из Google опубликовали статью с дерзким названием «Attention Is All You Need». К 2026-му она набрала свыше 150 000 цитирований и перевернула всю область обработки естественного языка. Но трансформер не появился из ниоткуда — ему предшествовали десятилетия экспериментов с рекуррентными сетями, которые учились читать текст слово за словом.&lt;/p&gt;
&lt;p&gt;Эта статья — путь от первых RNN до современных архитектур, на которых построены GPT-4, Claude и Gemini. Без мифов, с техническими деталями и честным сравнением подходов.&lt;/p&gt;</description></item></channel></rss>