<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LangChain on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/langchain/</link><description>Recent content in LangChain on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Fri, 03 Apr 2026 18:00:00 +0300</lastBuildDate><atom:link href="/tags/langchain/index.xml" rel="self" type="application/rss+xml"/><item><title>RAG на практике: поиск по документам с LangChain и pgvector</title><link>/guides/rag-na-praktike-langchain-pgvector-poiskovaia-sistema/</link><pubDate>Fri, 03 Apr 2026 18:00:00 +0300</pubDate><guid>/guides/rag-na-praktike-langchain-pgvector-poiskovaia-sistema/</guid><description>&lt;p&gt;Представьте: у вас 10 000 внутренних документов компании — регламенты, договоры, техническая документация. Сотрудники тратят часы, пытаясь найти нужный пункт. Поиск по ключевым словам не работает — люди спрашивают «как оформить командировку», а документ называется «Положение о служебных поездках».&lt;/p&gt;
&lt;p&gt;RAG (Retrieval-Augmented Generation) решает именно эту проблему. Система понимает смысл вопроса, находит релевантные фрагменты из базы знаний и генерирует точный ответ с указанием источника. В этом руководстве мы построим такую систему с нуля — с реальным кодом, PostgreSQL, pgvector и LangChain.&lt;/p&gt;</description></item><item><title>n8n — open-source платформа автоматизации с AI-агентами</title><link>/tools/n8n-obzor-platformy-avtomatizatsii/</link><pubDate>Sat, 21 Mar 2026 09:00:00 +0300</pubDate><guid>/tools/n8n-obzor-platformy-avtomatizatsii/</guid><description>&lt;p&gt;n8n — open-source платформа для автоматизации рабочих процессов, которая за последние два года совершила резкий поворот в сторону AI. Если раньше это был «self-hosted Zapier для разработчиков», то в 2026-м n8n стал полноценным фреймворком для создания AI-агентов с визуальным интерфейсом. Разбираемся, кому он подходит и стоит ли переходить с коммерческих альтернатив.&lt;/p&gt;
&lt;h2 id="что-это-и-для-кого"&gt;Что это и для кого&lt;/h2&gt;
&lt;p&gt;n8n (произносится «nodemation») — платформа автоматизации с fair-code лицензией, которая позволяет строить рабочие процессы визуально, соединяя ноды в цепочки. Каждый нод — это интеграция с сервисом, логическая операция или AI-модель.&lt;/p&gt;</description></item><item><title>Make.com и n8n: автоматизация без кода с AI в 2026</title><link>/tools/make-com-n8n-avtomatizatsiia-bez-koda-ai-2026/</link><pubDate>Thu, 19 Mar 2026 12:00:00 +0300</pubDate><guid>/tools/make-com-n8n-avtomatizatsiia-bez-koda-ai-2026/</guid><description>&lt;p&gt;Автоматизация бизнес-процессов уже несколько лет живёт в двух измерениях: &lt;strong&gt;для тех, кто не пишет код&lt;/strong&gt;, и &lt;strong&gt;для тех, кто пишет, но не хочет тратить время на рутину&lt;/strong&gt;. Make.com и n8n — два главных инструмента, которые закрывают оба случая. В 2026 году они обросли нативными AI-нодами, поддержкой агентов и интеграциями с LLM, превратившись из простых «соединителей API» в полноценные платформы оркестрации интеллектуальных рабочих процессов.&lt;/p&gt;
&lt;p&gt;В этом обзоре — честное сравнение обоих инструментов: что умеют, сколько стоят и кому подходят.&lt;/p&gt;</description></item><item><title>Что такое AI-агенты и как они меняют автоматизацию</title><link>/articles/chto-takoe-ai-agenty-i-kak-oni-meniaiut-avtomatizatsiiu/</link><pubDate>Wed, 18 Mar 2026 15:00:00 +0300</pubDate><guid>/articles/chto-takoe-ai-agenty-i-kak-oni-meniaiut-avtomatizatsiiu/</guid><description>&lt;p&gt;Вы просите ChatGPT написать письмо — он пишет. Вы просите AI-агента разобраться с вашей почтой — он сам читает входящие, определяет приоритеты, отвечает на рутинные запросы и эскалирует важные. Разница — как между калькулятором и бухгалтером: один считает, когда нажмёшь кнопку, другой сам знает, что и когда считать.&lt;/p&gt;
&lt;p&gt;2026 год стал переломным для AI-агентов. По данным отрасли, 48% предприятий уже запустили агентные системы в продакшн, а к концу года 80% корпоративных приложений будут содержать встроенных агентов. Это уже не демо из лаборатории — это рабочий инструмент. Разберёмся, как всё устроено.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Fri, 06 Mar 2026 18:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний и использует найденное как контекст. Это делает ответы точнее, актуальнее и проверяемее.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных корпусах текстов, но их знания «заморожены» на дату обучения. Они не знают о вчерашних событиях, внутренних документах вашей компании или специфичных данных вашей отрасли. Кроме того, LLM склонны к &lt;strong&gt;галлюцинациям&lt;/strong&gt; — уверенной генерации несуществующих фактов.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 28 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель сначала находит релевантные документы во внешней базе знаний и только потом генерирует ответ, опираясь на найденную информацию. Это позволяет модели «знать» то, чего не было в её обучающих данных.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;У любой LLM есть две фундаментальные проблемы: она &lt;strong&gt;не знает ваших данных&lt;/strong&gt; и может &lt;strong&gt;галлюцинировать&lt;/strong&gt; — уверенно выдавать несуществующие факты. Fine-tuning решает первую проблему лишь частично и стоит дорого. RAG предлагает элегантный выход: вместо того чтобы переучивать модель, мы подаём ей нужный контекст прямо в запросе.&lt;/p&gt;</description></item><item><title>Автоматизация с n8n и AI: пошаговый гайд</title><link>/guides/avtomatizatsiia-s-n8n-i-ai-poshagovyi-gaid/</link><pubDate>Sat, 21 Feb 2026 12:00:00 +0300</pubDate><guid>/guides/avtomatizatsiia-s-n8n-i-ai-poshagovyi-gaid/</guid><description>&lt;p&gt;Представьте: клиент пишет в чат, AI анализирует его запрос, находит ответ в базе знаний, отправляет персонализированный ответ и создаёт задачу в CRM — всё без единой строки кода и без участия человека. Это не фантастика, а рабочий workflow в n8n, который можно собрать за час.&lt;/p&gt;
&lt;p&gt;n8n — open-source платформа для автоматизации, которая в 2025–2026 годах стала де-факто стандартом для построения AI-воркфлоу. В отличие от Zapier и Make, n8n даёт полный контроль над данными, поддерживает self-hosting и имеет глубокую нативную интеграцию с LLM через LangChain. В этом гайде — от установки до продакшн-ready AI-агента.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненной выборкой (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Tue, 17 Feb 2026 15:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель сначала находит релевантные документы во внешней базе знаний, а затем генерирует ответ на их основе. Проще говоря: вместо того чтобы отвечать «по памяти», модель сначала «подсматривает в шпаргалку».&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучаются на огромных объёмах текста, но их знания заморожены на момент обучения. Они не знают о вчерашних событиях, не имеют доступа к вашим внутренним документам и иногда уверенно выдумывают факты — это называется «галлюцинации».&lt;/p&gt;</description></item><item><title>Как построить RAG-систему за один день</title><link>/guides/kak-postroit-rag-sistemu-za-odin-den/</link><pubDate>Wed, 11 Feb 2026 09:00:00 +0300</pubDate><guid>/guides/kak-postroit-rag-sistemu-za-odin-den/</guid><description>&lt;p&gt;Ваша модель отвечает уверенно — но врёт. Она не знает о вашей внутренней документации, о приказах за прошлый квартал, о базе клиентов. Это не баг GPT-4o или Claude — это архитектурная проблема. Решение называется RAG: Retrieval-Augmented Generation.&lt;/p&gt;
&lt;p&gt;За один рабочий день вы можете собрать систему, которая ищет нужные фрагменты в ваших документах и передаёт их модели как контекст. Без дообучения, без дорогих GPU, без магии. Только Python, несколько библиотек и здравый смысл.&lt;/p&gt;</description></item></channel></rss>