Открытый инструмент для глубоких исследований обходит облачных конкурентов

Проект Local Deep Research (LDR) — открытый инструмент для автоматического поиска и анализа информации — показал ~95% точности на бенчмарке SimpleQA в связке GPT-4.1-mini + SearXNG со стратегией focused-iteration. При этом авторы утверждают, что локальные модели способны достигать сопоставимых результатов при правильной конфигурации. Инструмент полностью работает на вашем железе: никаких запросов во внешние серверы, все данные зашифрованы.


Что такое SimpleQA

SimpleQA — бенчмарк от OpenAI для измерения фактической точности языковых моделей; он содержит 4 326 коротких вопросов с однозначными, неоспоримыми ответами. Главная особенность теста — он намеренно сложен для топовых моделей: GPT-4o и Claude набирают в нём менее 50% без инструментов поиска.

ℹ Важный нюанс
SimpleQA изначально проектировался для тестирования параметрических знаний модели — без поиска в интернете. LDR использует веб-поиск как вспомогательный инструмент, что принципиально меняет природу сравнения. Результаты 95% относятся к конфигурации с активным поиском.

Сами авторы оговариваются, что результаты предварительные: точность сильно зависит от типа вопросов, версии модели и конфигурации.


Как работает Local Deep Research

LDR поддерживает как локальные, так и облачные LLM (Ollama, Google, Anthropic и другие) и умеет искать более чем в 10 источниках: arXiv, PubMed, веб и ваши приватные документы.


flowchart TD
    A[Вопрос пользователя] --> B[Планировщик стратегии]
    B --> C{Тип стратегии}
    C -->|focused-iteration| D[Итеративный поиск]
    C -->|source-based| E[Поиск по источникам]
    D --> F[arXiv / PubMed / Web / Docs]
    E --> F
    F --> G[LLM: синтез ответа]
    G --> H[Итоговый отчёт + PDF]

Шифрование реализовано через SQLCipher — специальные pre-built wheels не требуют компиляции. Проект работает на Windows, macOS и Linux.

Быстрый старт через Docker

curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
docker compose up -d
# Открыть http://localhost:5000 через ~30 секунд
💡 Совет по производительности
Для стабильных результатов бенчмарка авторы рекомендуют устанавливать температуру модели в диапазоне 0.0–0.1 и максимально увеличивать размер контекстного окна.

Поддерживаемые модели и конфигурации

ПровайдерТипКонфигурация
OllamaЛокальныйhttp://localhost:11434
LM StudioЛокальныйOpenAI-совместимый сервер
llama.cppЛокальныйllama-server endpoint
OpenAI (GPT-4.1-mini)ОблакоAPI-ключ
Google GeminiОблакоAPI-ключ
Anthropic ClaudeОблакоAPI-ключ

Сообщество ведёт актуальный датасет на Hugging Face с результатами точности по разным моделям, поисковым движкам и стратегиям — удобный способ выбрать оптимальную локальную модель перед скачиванием много-гигабайтных весов.


Качество источников под контролем

Проект включает систему оценки качества журналов: автоматическое ранжирование репутации по 212 000+ индексированных источников, обнаружение «хищнических» изданий и дашборд качества — на основе OpenAlex, DOAJ и Stop Predatory Journals.

«Local Deep Research заслуживает особого внимания для тех, кто ставит приватность на первое место — журналисты, исследователи и компании могут изучать информацию, не отправляя запросы на внешние серверы.» — Medium, Open-Source Deep Research AI Assistants


Бенчмаркинг силами сообщества

Сообщество поддерживает растущую коллекцию результатов бенчмарков по разным моделям, стратегиям и поисковым движкам в отдельном репозитории с CI-проверкой сабмитов и автогенерацией лидербордов.

Запустить собственный тест можно одной командой:

python -m local_deep_research.benchmarks \
    --dataset simpleqa \
    --examples 100 \
    --config your_config.json
⚠ Не переоценивайте бенчмарк
Результаты бенчмарка — это ориентир для настройки конфигурации, а не прогноз реальной производительности на ваших исследовательских задачах. То, что хорошо работает на SimpleQA, может вести себя иначе на ваших конкретных вопросах.

Почему это важно для отрасли

LDR — прямой ответ на запрос рынка: мощные инструменты deep research (глубокого исследования) без зависимости от облачных провайдеров. Пока OpenAI и Google монетизируют аналогичные функции через подписки, open-source проект позволяет развернуть сопоставимый по качеству пайплайн прямо на рабочей станции или корпоративном сервере — с полным контролем над данными и без утечек запросов.

LDR уважает robots.txt и честно идентифицирует себя при обращении к веб-страницам: в редких случаях это означает, что страницы, блокирующие автоматический доступ, не будут загружены — авторы считают это правильным компромиссом.

Проект активно развивается: среди последних изменений — поддержка Node.js 24 LTS, улучшение безопасности (XSS-экранирование, CSRF-тесты) и расширенный набор юнит-тестов.