Представьте: клиент пишет в чат, AI анализирует его запрос, находит ответ в базе знаний, отправляет персонализированный ответ и создаёт задачу в CRM — всё без единой строки кода и без участия человека. Это не фантастика, а рабочий workflow в n8n, который можно собрать за час.

n8n — open-source платформа для автоматизации, которая в 2025–2026 годах стала де-факто стандартом для построения AI-воркфлоу. В отличие от Zapier и Make, n8n даёт полный контроль над данными, поддерживает self-hosting и имеет глубокую нативную интеграцию с LLM через LangChain. В этом гайде — от установки до продакшн-ready AI-агента.

Что такое n8n и почему он стал выбором для AI-автоматизации

n8n (произносится «н-эйт-н», от «nodemation») — визуальный инструмент автоматизации с открытым исходным кодом. Интерфейс построен на узлах (nodes), которые соединяются в цепочки — workflow. Каждый узел выполняет одно действие: получает вебхук, вызывает API, обрабатывает данные, отправляет сообщение.

Ключевое преимущество n8n в контексте AI — это 70+ специализированных AI-узлов, включая нативную интеграцию с LangChain. Это означает, что вы можете строить полноценных AI-агентов с памятью, инструментами и многошаговым рассуждением — прямо в визуальном редакторе.

ℹ Что нового в 2026
В январе 2026 n8n выпустил функцию Human-in-the-Loop — возможность приостановить AI-агента и запросить подтверждение человека перед выполнением действия. А MCP Client Node (ноябрь 2025) позволяет подключаться к любому серверу Model Context Protocol прямо из workflow.

Сравнение с конкурентами

Параметрn8nZapierMake
Цена (старт)€0 (self-hosted) / €24/мес (cloud)$29.99/мес (750 задач)€11/мес (10 000 операций)
AI-возможностиLangChain, AI Agent Node, 70+ AI-узлов, MCPZapier Agents, CopilotБазовые AI-модули
Self-hostingДа (Docker, бесплатно)НетНет
Интеграции~1 000 нативных + HTTP-узел для любого API8 000+2 000+
Поддержка локальных LLMДа (Ollama, LM Studio)НетНет
Код внутри workflowJavaScript, PythonОграниченноОграниченно

n8n — единственная из тройки платформ, которая позволяет запустить AI-агента с локальной LLM на собственном сервере, без отправки данных третьим сторонам.

Установка n8n: три варианта

Вариант 1: Docker (рекомендуемый)

Самый надёжный способ для self-hosted установки. n8n официально рекомендует Docker, потому что он изолирует окружение и упрощает управление зависимостями.

Создайте файл docker-compose.yml:

version: '3.8'
services:
  n8n:
    image: n8nio/n8n:latest
    restart: always
    ports:
      - "5678:5678"
    environment:
      - N8N_BASIC_AUTH_ACTIVE=true
      - N8N_BASIC_AUTH_USER=admin
      - N8N_BASIC_AUTH_PASSWORD=your_secure_password
      - DB_TYPE=postgresdb
      - DB_POSTGRESDB_HOST=postgres
      - DB_POSTGRESDB_PORT=5432
      - DB_POSTGRESDB_DATABASE=n8n
      - DB_POSTGRESDB_USER=n8n
      - DB_POSTGRESDB_PASSWORD=n8n_db_password
    volumes:
      - n8n_data:/home/node/.n8n
    depends_on:
      - postgres

  postgres:
    image: postgres:16-alpine
    restart: always
    environment:
      - POSTGRES_USER=n8n
      - POSTGRES_PASSWORD=n8n_db_password
      - POSTGRES_DB=n8n
    volumes:
      - postgres_data:/var/lib/postgresql/data

volumes:
  n8n_data:
  postgres_data:

Запуск:

docker compose up -d

После запуска n8n доступен на http://localhost:5678.

⚠ Безопасность
Никогда не используйте стандартные пароли из примеров в продакшне. Для production-развёртывания настройте HTTPS через reverse proxy (nginx, Traefik) и замените Basic Auth на полноценную аутентификацию.

Вариант 2: n8n Cloud

Если не хотите заниматься инфраструктурой — облачная версия на n8n.io. Стартовый план за €24/мес включает 2 500 выполнений. Для большинства AI-проектов на старте этого достаточно.

Вариант 3: npm (для разработки)

npx n8n

Быстрый запуск для экспериментов. Данные хранятся в SQLite, не подходит для продакшна.

Архитектура AI-воркфлоу в n8n

Каждый AI-воркфлоу в n8n строится из четырёх компонентов:


graph TD
    A[Триггер] --> B[AI Agent Node]
    B --> C[LLM — языковая модель]
    B --> D[Memory — память]
    B --> E[Tools — инструменты]
    E --> F[HTTP-запросы]
    E --> G[База данных]
    E --> H[Поиск по документам]
    B --> I[Выходные узлы]
    I --> J[Slack / Telegram]
    I --> K[CRM / Google Sheets]
    I --> L[Email / Webhook]

1. Триггер

Запускает workflow. Варианты: Webhook (входящий HTTP-запрос), Chat Trigger (встроенный чат-интерфейс), Schedule (по расписанию), событие из внешнего сервиса.

2. AI Agent Node

Центральный узел, который использует LangChain под капотом. Агент получает задачу, «размышляет» и вызывает подключённые инструменты для решения. Поддерживает несколько типов агентов:

  • Tools Agent — основной тип, вызывает инструменты по мере необходимости
  • OpenAI Functions Agent — оптимизирован для function calling в OpenAI API
  • ReAct Agent — цепочка «рассуждение → действие → наблюдение»

3. Sub-nodes (подключаемые компоненты)

  • Chat Model — подключение к LLM: OpenAI (GPT-4o, o3), Anthropic Claude (Claude 3.5/4), Google Gemini, Ollama (локальные модели)
  • Memory — хранение контекста разговора: Window Buffer (последние N сообщений), Motorhead, Zep
  • Tools — инструменты агента: поиск по Wikipedia, калькулятор, HTTP-запросы, код на JavaScript/Python, векторный поиск

4. Выходные узлы

Обработка результата: отправка в мессенджер, запись в базу, вызов внешнего API.

Практика: собираем AI-агента для обработки обращений

Построим workflow, который принимает обращение клиента, классифицирует его, ищет ответ в базе знаний и отвечает.


sequenceDiagram
    participant U as Клиент
    participant W as Webhook
    participant A as AI Agent
    participant V as Vector Store
    participant S as Slack

    U->>W: Отправляет вопрос
    W->>A: Передаёт текст
    A->>V: Ищет релевантные документы
    V-->>A: Возвращает контекст
    A->>A: Генерирует ответ на основе контекста
    A->>U: Отправляет ответ клиенту
    A->>S: Уведомляет команду поддержки

Шаг 1: Создайте новый workflow

Откройте n8n, нажмите Add workflow. Добавьте узел Chat Trigger — он создаст встроенный чат-интерфейс для тестирования.

Шаг 2: Добавьте AI Agent

Перетащите узел AI Agent на канвас. Соедините с Chat Trigger. В настройках агента выберите тип Tools Agent.

Шаг 3: Подключите языковую модель

Нажмите «+» под иконкой «Model» в AI Agent. Выберите OpenAI Chat Model (или Anthropic, Gemini — что удобнее). Укажите API-ключ и модель:

Model: gpt-4o
Temperature: 0.3
Max Tokens: 1024
💡 Экономия на токенах
Для задач классификации и маршрутизации используйте более лёгкие модели (GPT-4o-mini, Claude 3.5 Haiku). Тяжёлые модели (GPT-4o, Claude Opus) подключайте только для генерации финальных ответов. В n8n можно комбинировать модели в одном workflow через разные AI-узлы.

Шаг 4: Добавьте системный промпт

В настройках AI Agent задайте System Message:

Ты — AI-ассистент службы поддержки компании.
Правила:
1. Отвечай только на основе предоставленного контекста из базы знаний
2. Если ответа нет в контексте — скажи, что передашь вопрос специалисту
3. Будь вежливым и конкретным
4. Отвечай на русском языке

Шаг 5: Подключите инструменты

Добавьте инструмент Vector Store Tool для поиска по базе знаний. n8n поддерживает Pinecone, Qdrant, Supabase, In-Memory Store и другие.

Для простого старта используйте In-Memory Vector Store + загрузите документы через узел Default Data Loader.

Шаг 6: Добавьте выходное действие

После AI Agent добавьте узел Slack (или Telegram, Email) для уведомления команды о новых обращениях. Настройте условие: если агент не нашёл ответ — уведомить специалиста.

Продвинутые сценарии AI-автоматизации

Автоматический мониторинг конкурентов

Schedule Trigger (ежедневно)
  → HTTP Request (парсинг сайтов конкурентов)
  → AI Agent (анализ изменений, выделение ключевых обновлений)
  → Google Sheets (запись результатов)
  → Slack (ежедневный дайджест)

Обработка входящих email

Email Trigger (IMAP)
  → AI Agent (классификация: спам / вопрос / жалоба / заказ)
  → Switch (маршрутизация по типу)
  → [Соответствующий обработчик для каждого типа]

Генерация контента с ревью

Schedule Trigger (раз в неделю)
  → AI Agent (генерация черновика статьи)
  → Human-in-the-Loop (ревью редактором)
  → WordPress API (публикация)
  → Twitter + Telegram (анонс)
📝 MCP-интеграция
С ноября 2025 n8n поддерживает Model Context Protocol (MCP). Это означает, что вы можете подключить n8n как MCP-сервер к Claude Desktop, Cursor или другим AI-инструментам — и давать им доступ к вашим автоматизациям. Например, Claude сможет напрямую запускать ваши workflow через естественный язык.

Тарифы и выбор плана

ПланЦенаВыполнений/месДля кого
Community (self-hosted)€0Без ограниченийРазработчики, техкоманды
Starter (cloud)€24/мес2 500Один пользователь, тестирование
Pro (cloud)€60/мес10 000Малые команды
EnterpriseПо запросуПо договорённостиКомпании с требованиями к SLA

Self-hosted n8n на сервере за $50/мес способен обработать нагрузку, которая на Zapier обошлась бы в $1 500+ ежемесячно.

Частые ошибки и как их избежать

1. Слишком сложный первый workflow. Начните с простого: Webhook → AI Agent → ответ. Добавляйте инструменты и логику постепенно.

2. Отсутствие обработки ошибок. AI-модели могут возвращать ошибки (лимит токенов, таймаут). Используйте узел Error Trigger и настройте retry-логику.

3. Утечка данных через облачные LLM. Если работаете с чувствительными данными — используйте self-hosted n8n + локальные модели через Ollama. Данные не покидают ваш сервер.

4. Игнорирование памяти агента. Без подключённой Memory агент не помнит предыдущие сообщения в разговоре. Для чат-ботов это критично — всегда подключайте Window Buffer Memory.

5. Один LLM на все задачи. Комбинируйте модели: быстрая и дешёвая для классификации, мощная для генерации. Это снизит стоимость в 3–5 раз.

Заключение

n8n в 2026 году — это больше, чем инструмент автоматизации. Это платформа для построения AI-агентов, доступная как техническим специалистам, так и продвинутым пользователям без опыта программирования. Ключевые преимущества: открытый код, self-hosting, глубокая интеграция с LLM через LangChain и поддержка MCP.

Начните с малого: установите n8n через Docker, соберите первый workflow с AI Agent и одним инструментом. Когда увидите результат — масштабировать будет просто. Автоматизация с AI — это не вопрос «если», а вопрос «когда». И n8n делает это «когда» максимально доступным.