Goose — открытый AI-агент, который идёт дальше подсказок к коду

«Не просто для кода — используй для исследований, написания текстов, автоматизации, анализа данных и всего, что нужно сделать.» — девиз проекта Goose

Что такое Goose и для кого он создан

Goose — это полноценный AI-агент с открытым исходным кодом, который запускается прямо на вашем компьютере. Это нативный AI-агент для рабочего стола, CLI и API — для кода, рабочих процессов и всего остального. Goose подходит не только для написания кода, но и для исследований, работы с текстами, автоматизации и анализа данных.

Goose был разработан как внутренний инструмент в компании Block и стал открытым в 2025 году. Впоследствии он был передан в Agentic AI Foundation (AAIF) вместе с MCP от Anthropic и AGENTS.md от OpenAI, став проектом под управлением Linux Foundation.

Платиновыми участниками фонда AAIF являются Amazon Web Services, Anthropic, Block, Bloomberg, Cloudflare, Google, Microsoft и OpenAI.

Для кого: разработчики, DevOps-инженеры, технические специалисты и продвинутые пользователи, которым нужен автономный агент без привязки к конкретному вендору или подписке.

С момента публичного релиза Goose помог инженерам Block экономить 8–10 часов в неделю и сократил время разработки на 50–75%.

ℹ Проект под крылом Linux Foundation
Goose передан в Agentic AI Foundation (AAIF) при Linux Foundation — это гарантирует его нейтральность по отношению к вендорам, управление сообществом и долгосрочную открытость проекта.

Как работает Goose


graph TD
    A[Пользователь вводит задачу] --> B[Goose + выбранный LLM]
    B --> C{Тип действия}
    C --> D[Чтение/запись файлов]
    C --> E[Выполнение команд / тестов]
    C --> F[Установка зависимостей]
    C --> G[MCP-расширения]
    G --> H[GitHub / Slack / Snowflake / etc.]
    D --> I[Результат]
    E --> I
    F --> I
    H --> I

Goose работает в режиме реального времени в среде разработки, действуя как настоящий «агент»: не только ищет, перемещается и пишет код на основе вывода LLM, но и выполняет задачи автономно — читает и записывает файлы, запускает код и тесты, уточняет результаты, устанавливает зависимости и выполняет дополнительные действия по необходимости.


Ключевые возможности

1. Поддержка 25+ LLM-провайдеров

Проект поддерживает более 25 LLM-провайдеров, включая коммерческие сервисы, облачные платформы и локальные модели. В их числе: API-провайдеры (Anthropic, OpenAI, Google Gemini, xAI, Mistral AI), облачные платформы (Amazon Bedrock, GCP Vertex AI, Azure OpenAI, Databricks, Snowflake) и локальные провайдеры (Ollama, Docker Model Runner).

С Goose можно использовать Claude Opus для сложной архитектурной работы, переключиться на более дешёвый Gemini Flash для рутинного рефакторинга и применять локальную модель через Ollama для приватного кода — всё это в течение одного рабочего дня, без переключения инструментов и потери контекста.

2. Система расширений через MCP

Через Model Context Protocol Goose может расширять свои возможности тысячами доступных расширений — от автоматизации GitHub до интеграции с Google Drive. Экосистема MCP расширилась до более чем 3000 серверов, охватывающих инструменты разработки (GitHub, VS Code, Docker), пакеты для повышения производительности (Google Drive, Asana, Slack) и специализированные сервисы.

Пример подключения GitHub MCP:

# ~/.config/goose/config.yaml
extensions:
  github:
    command: npx
    args: ["-y", "@modelcontextprotocol/server-github"]
    env:
      GITHUB_PERSONAL_ACCESS_TOKEN: ghp_xxxxxxxx

3. Recipes — переиспользуемые рабочие процессы

Recipes — это YAML-макросы рабочих процессов, определяющие многошаговые задачи, которые Goose может выполнять автоматически. Например, recipe может запустить набор тестов, проанализировать сбои, исправить код и повторно запустить тесты.

Ключевое различие: файлы правил говорят агенту «при написании кода в этом проекте следуй этим шаблонам», а recipes говорят «выполни эти конкретные шаги в этом порядке с этими параметрами». Одно — это улучшенное подсказывание. Другое — оркестрация рабочих процессов. Правила меняют поведение агента. Recipes меняют то, что агент делает.

4. Три интерфейса: Desktop, CLI и API

Goose предоставляет нативное настольное приложение для macOS, Linux и Windows; полноценный CLI для работы в терминале; API для встраивания в любые системы.

Goose интегрируется с VS Code, Cursor, Windsurf и JetBrains IDE через протокол Agent Client Protocol (ACP).

5. Subagents и параллельная обработка

Subagents в Goose позволяют запускать дочерние recipes отдельно от основного recipe. Это даёт возможность выполнять большие объёмы работы быстро и разбивать задачи так, чтобы каждый агент мог решать их точно и эффективно.

6. Безопасность и конфиденциальность

Goose не отправляет данные на серверы Block. При использовании локальных моделей через Ollama всё остаётся на устройстве. При использовании облачных провайдеров ваш код отправляется на серверы этого провайдера согласно его политике конфиденциальности.

Goose сам по себе работает полностью на вашем компьютере — данные не покидают ноутбук, если вы не выбираете облачный API. Это делает его одним из немногих AI-агентов, подходящих для изолированных или высокобезопасных сред.

💡 Работа офлайн
При использовании Goose с локальными моделями через Ollama можно работать полностью без интернета — например, в самолёте или в закрытых корпоративных сетях.

Быстрый старт

# macOS (Homebrew)
brew install block-goose-cli

# Linux
curl -fsSL https://github.com/aaif-goose/goose/releases/download/stable/download_cli.sh | bash

# Настройка LLM-провайдера
goose configure
# → Provider: anthropic
# → Model: claude-sonnet-4-6
# → API Key: sk-ant-xxxxx

# Запуск задачи
goose run --task "Run tests and fix errors"

Тарифы и стоимость

Goose выпущен под лицензией Apache 2.0, что позволяет свободно интегрировать его в коммерческие продукты. Инструмент полностью открыт. Вы платите только за LLM-провайдера, к которому подключаетесь.

КомпонентСтоимость
Goose (сам инструмент)Бесплатно (Apache 2.0)
Anthropic Claude (API)от $3/млн токенов (Haiku)
OpenAI GPT-4o (API)от $2.50/млн токенов
Ollama + локальные моделиБесплатно (только железо)
Claude через ACP-подпискуот $20/мес (Claude Pro)
📝 Пример расчёта затрат
Разработчик, использующий Goose с Gemini Flash для рутинных задач и Claude Sonnet для архитектурных решений, может укладываться в $10–25 в месяц — против $100–200/месяц за Claude Code Max.

Плюсы и минусы

✅ Плюсы❌ Минусы
Полностью бесплатен (Apache 2.0)Требует настройки и знания CLI
Работает с 25+ LLM-провайдерамиКачество зависит от выбранной модели
Локальная работа, полная конфиденциальностьНет встроенного автодополнения в IDE
3000+ MCP-расширенийРецептная система требует времени на освоение
Нет vendor lock-inКрутая кривая обучения для новичков
Recipes для командных рабочих процессовДесктопное приложение уступает по полировке Cursor
Subagents для параллельной обработкиПроизводительность ниже у слабых локальных моделей
Поддержка macOS, Linux, WindowsНе идеален для быстрых «хирургических» правок

Сравнение с альтернативами

Goose выделяется сочетанием четырёх редко встречающихся вместе атрибутов: высокая агентность, независимость от модели, возможность полностью локальной работы и бесплатность.

ПараметрGooseClaude CodeCursor
Цена инструментаБесплатноот $20/мес (Pro)от $20/мес (Pro)
Open Source✅ Apache 2.0
Поддержка LLM25+ провайдеровТолько AnthropicНесколько моделей
Локальная работа✅ (Ollama)
Vendor lock-inНетAnthropicЧастично
Десктоп-приложение✅ (IDE)
MCP-интеграция✅ 3000+ серверов
Recipes / Workflows✅ YAML-рецепты
Subagents
Кривая обученияСредняяНизкаяНизкая
Лучший вариант дляГибкость, приватность, командные автоматизацииКачество кода, Claude-экосистемаIDE-интеграция, полировка

Goose не пытается превзойти Claude Code, Cursor или Copilot по топовым бенчмаркам или полировке продукта. Вместо этого он конкурирует по архитектурной свободе и совокупной стоимости владения.

Уникальной особенностью Goose по сравнению со многими коммерческими агентами является «Lead-Worker model» — возможность назначать разные LLM на разные роли (планирование, выполнение, ревью).


Кому подойдёт Goose

⚠ Не для всех
Goose предполагает знакомство с терминалом, конфигурационными файлами и инструментами разработчика. Для начинающих программистов лучше подойдут ChatGPT, Replit или Cursor.

Goose идеален для:

  • Работы с кодом, который не должен покидать вашу машину — в государственных структурах, здравоохранении, финансовых сервисах. Goose с локальным LLM — один из немногих жизнеспособных вариантов AI-агента для кода.
  • Команд, стремящихся к стандартизации процессов. Система recipes действительно полезна там, где все должны следовать одному и тому же процессу отладки или развёртывания. Напишите рецепт один раз — используйте его всей командой.
  • Разработчиков и опытных пользователей, которым нужен открытый AI-агент, ориентированный на локальную работу и выходящий за рамки кода. Особенно силён в тяжёлых терминальных рабочих процессах, автоматизации через множество инструментов и для инженеров, которым важно происхождение данных и отсутствие vendor lock-in.

Goose менее подходит для:

  • Простых «хирургических» правок. При необходимости переименовать функцию в трёх файлах планирование-ориентированный подход Goose может показаться медленным.
  • Новичков в программировании — крутая кривая обучения и конфигурация через YAML.

Вердикт

Goose набрал более 39 000 звёзд на GitHub (по состоянию на апрель 2026 года), что подтверждает реальный интерес сообщества. По данным Block, 60% их сотрудников используют Goose еженедельно, сообщая об экономии времени на разработку в 50–75%.

Goose — это не просто ещё один AI-ассистент для кода. Это инфраструктура для автоматизации агентных рабочих процессов: бесплатная, открытая, без привязки к конкретному LLM, работающая локально и расширяемая тысячами плагинов. Если вы ищете инструмент, который можно глубоко кастомизировать под нужды команды или использовать в условиях строгих требований к безопасности данных — Goose на сегодня не имеет реальных конкурентов в своей нише.

Рейтинг: 8.5 / 10

КритерийОценка
Функциональность9/10
Простота начала работы7/10
Гибкость и расширяемость10/10
Конфиденциальность данных10/10
Качество документации8/10
Зрелость экосистемы8/10