
Как 800 непрочитанных постов Reddit стали SaaS-продуктом
Разбор кейса: разработчик накопил 800 сохранённых постов Reddit и построил AI-агента для поиска по ним. Результат — 53 платящих пользователя.
Введение: «Я сохраню это на потом» — ловушка для любого знания
Каждый, кто проводит хоть немного времени на Reddit, знает этот рефлекс: интересный тред, неочевидный совет, шаблон кода или разбор ошибки стартапа — нажать «Save» и двигаться дальше. Спустя месяцы в папке «Saved» накапливаются сотни постов, которые никто никогда не откроет снова. Именно так один разработчик однажды обнаружил, что у него скопилось 800 сохранённых постов, к которым он ни разу не вернулся.
Вместо того чтобы удалить всё и начать с чистого листа, он сделал то, о чём мечтают многие инди-хакеры: превратил личную боль в продукт. Он построил AI-агента, который умеет искать по его личному архиву Reddit, а потом выложил его на Product Hunt и в r/SideProject. Финал истории — 53 платящих пользователя и работающий micro-SaaS.
Эта статья — не просто пересказ вирусного поста. Это разбор механики: почему именно такой продукт находит платящую аудиторию, как устроена техническая архитектура подобных решений, и что из этого опыта стоит взять тем, кто тоже хочет построить что-то с нуля.
Проблема: почему «Saved» на Reddit бесполезен по умолчанию
Reddit — это место, где люди говорят, думая, что никто важный не слушает. Там делятся реальными болями, спрашивают рекомендации накануне покупки, описывают обходные пути для проблем, которые никто не решил. 379,4 миллиона человек используют Reddit еженедельно, и 40% интернет-пользователей говорят, что рекомендация с Reddit влияет на их решение о покупке сильнее, чем отзывы или инфлюенсеры.
Проблема не в качестве контента. Проблема в том, что стандартный раздел «Saved» — это плоский список без поиска, тегов, фильтрации по теме или контексту. Вы сохраняете пост о том, как правильно настроить RAG-пайплайн, и найти его через полгода практически невозможно — разве что вы помните точные слова из заголовка.
Герой этой истории столкнулся именно с этим: 800 постов, накопленных за годы, и ни одного способа быстро ответить на вопрос «Я точно сохранял что-то про X — но где?».
Архитектура решения: AI-агент поверх личного архива
Технически задача звучит просто: нужно сделать поиск по коллекции текстов на естественном языке. Но «просто» здесь — относительное слово. Под капотом типичного решения такого рода работает несколько слоёв.
graph TD
A[Reddit Saved Posts API] --> B[Парсинг и очистка текста]
B --> C[Разбивка на чанки]
C --> D[Embedding модель\nнапример OpenAI text-embedding-3-small]
D --> E[Векторная БД\nнапример Pinecone / Chroma / pgvector]
F[Запрос пользователя] --> G[Векторизация запроса]
G --> E
E --> H[Top-K релевантных постов]
H --> I[LLM-агент\nGPT-4o / Claude]
I --> J[Ответ с ссылками на посты]
Вот как это работает шаг за шагом:
Импорт постов. Reddit предоставляет API, через который можно выгрузить все сохранённые посты пользователя. Каждый пост — это JSON с заголовком, телом, комментариями, ссылками и метаданными.
Chunking. Длинные треды разбиваются на логические блоки — обычно по параграфам или по комментариям, чтобы каждый чанк нёс законченную мысль.
Эмбеддинги. Каждый чанк преобразуется в векторное представление (embedding). Анализаторы отправляют отфильтрованные посты в LLM (по умолчанию GPT-4o-mini) с контекстом и предпочтениями пользователя.
Векторная база данных. Все эмбеддинги хранятся в специализированной БД — Pinecone, Chroma, Qdrant или pgvector поверх PostgreSQL.
Поиск. Когда пользователь задаёт вопрос на естественном языке, он тоже превращается в вектор, и система ищет ближайшие по смыслу чанки.
Генерация ответа. LLM-агент получает найденные фрагменты как контекст и формирует связный ответ со ссылками на исходные посты.
# Упрощённый пример: поиск по векторной БД
from openai import OpenAI
import chromadb
client = OpenAI()
chroma = chromadb.Client()
collection = chroma.get_collection("reddit_saved")
def search_saved_posts(query: str, top_k: int = 5):
# Векторизуем запрос
embedding = client.embeddings.create(
input=query,
model="text-embedding-3-small"
).data[0].embedding
# Ищем ближайшие посты
results = collection.query(
query_embeddings=[embedding],
n_results=top_k
)
return results["documents"][0]
# Пример запроса
answers = search_saved_posts("Как настроить rate limiting в FastAPI?")
for post in answers:
print(post[:200])
От личного инструмента к платному продукту: путь к 53 клиентам
Здесь начинается самая интересная часть истории. Автор сделал инструмент для себя — и это типичный сценарий для micro-SaaS. Но следующий шаг, который большинство пропускает, он сделал: рассказал об этом публично.
«Лучший способ найти платящих пользователей — решить проблему, которая есть у вас самих, и честно об этом рассказать»
Пост в r/SideProject с заголовком «У меня было 800 сохранённых постов Reddit, которые я никогда не читал, поэтому я создал AI-агента для поиска по ним» — это идеальная структура для вирального материала:
- Конкретная цифра (800 постов) делает проблему осязаемой
- Личная история создаёт доверие — автор сам страдал от этой боли
- Практический результат (AI-агент) показывает компетентность
- Социальное доказательство (53 платящих) — сигнал реальной ценности
После запуска на Product Hunt, Indie Hackers и Reddit инструмент получил 500+ пользователей и массу обратной связи. Превратить часть из них в платящих помогла одна простая вещь — очевидная ценность: человек вводит вопрос и мгновенно получает ответ из своего же архива знаний, который раньше был мёртвым грузом.
Почему именно 53 — это хорошо
Для micro-SaaS на ранней стадии 53 платящих пользователя — это не «мало». Это:
| Метрика | Что означает |
|---|---|
| 53 платящих клиента | Подтверждённый product-market fit в нише |
| Личная боль как основа | Низкие затраты на исследование рынка |
| Инди-запуск без бюджета | Весь трафик — органический, из Reddit и HN |
| Нишевый инструмент | Меньше конкуренции, выше конверсия |
Переход от ручного скроллинга к автоматизированному инструменту позволяет экономить ~10 часов в неделю — именно за это люди готовы платить.
Почему Reddit — особенно ценный источник знаний
Дело не только в количестве контента. На Reddit люди жалуются на инструменты, которые почти работают, но не решают проблему полностью. Они спрашивают рекомендации, когда готовы купить. Они делятся обходными путями, потому что на рынке нет готового решения.
Когда кто-то узнаёт о продукте из другого источника — рекламы, рекомендации, соцсетей — 71% из них идут на Reddit, чтобы проверить информацию перед покупкой. Reddit стал де-факто «проверочным слоем» интернета.
ChatGPT, Perplexity и другие LLM-поисковики сильно опираются на Reddit. Когда покупатель спрашивает «какой лучший инструмент для X», модель извлекает данные, в которых Reddit занимает 10–30% в зависимости от темы.
Это означает, что сохранённые посты Reddit — это не просто «закладки». Это персональная база знаний, отфильтрованная вашим же вниманием. Каждый пост, который вы когда-то посчитали достаточно ценным, чтобы сохранить, прошёл первичную проверку качества. AI-агент поверх такого архива работает лучше, чем поиск по всему Reddit сразу — потому что шум уже отфильтрован человеком.
Как повторить: пошаговый план для инди-хакера
Если вы хотите построить аналогичный инструмент — для себя или как продукт — вот минимальный маршрут:
Шаг 1: Выгрузка данных
Reddit API позволяет получить сохранённые посты через endpoint /user/{username}/saved. Понадобится OAuth-токен. Альтернатива — библиотека praw для Python:
import praw
reddit = praw.Reddit(
client_id="YOUR_CLIENT_ID",
client_secret="YOUR_SECRET",
user_agent="saved_posts_agent/1.0"
)
saved_posts = []
for item in reddit.user.me().saved(limit=None):
if hasattr(item, 'selftext'): # это пост, не комментарий
saved_posts.append({
"title": item.title,
"text": item.selftext,
"url": item.url,
"subreddit": str(item.subreddit)
})
Шаг 2: Индексация
Предфильтрация — это всё. Самая большая статья затрат в любом AI-инструменте — API-вызовы. Применяя rule-based фильтры до обращения к LLM — по ключевым словам, минимальному score, исключениям по флагам — можно отсечь 60–80% постов без затрат. К LLM попадают только посты, прошедшие все правила.
Шаг 3: Монетизация
Для монетизации можно настроить модель подписки через интегрированный Stripe. Типичная структура для подобного micro-SaaS:
| Тариф | Цена | Лимит |
|---|---|---|
| Free | $0 | 100 запросов/мес |
| Solo | $9/мес | Неограничено, 1 аккаунт Reddit |
| Pro | $19/мес | Неограничено, 3 аккаунта + API |
Шаг 4: Запуск
Самое важное — рассказать об этом. Создать систему, которая делает тяжёлую работу за вас, и поделиться процессом публично. Пост в r/SideProject, r/selfhosted, Product Hunt, Hacker News Show — каждая площадка даёт разную аудиторию.
Более широкий тренд: личные базы знаний с AI-поиском
История с 800 постами — это частный случай большого движения. AI-агент сканирует треды, извлекает релевантное, анализирует всё и отправляет чистый дайджест. В результате вы получаете лучшую аналитику и инсайты, чем при ручном просмотре — не открывая приложение.
Паттерн «персональный AI-агент поверх накопленных данных» применим не только к Reddit:
- Закладки браузера (Pocket, Raindrop) → AI-поиск по сохранённым статьям
- Notion / Obsidian → семантический поиск по заметкам
- Email-архив → агент, который помнит все договорённости
- Slack / Discord → поиск по истории командных обсуждений
Уже есть инструменты, которые собирают тысячи постов Reddit, где люди ищут решение или жалуются на проблему, затем используют GPT для фильтрации шума и оценки каждого, — и предоставляют простой поисковый интерфейс для изучения результатов.
Общий принцип: данные уже есть у каждого, не хватает только умного интерфейса к ним.
Заключение: зачем смотреть на этот кейс
История про 800 постов и 53 клиента — это не story об успехе. Это рабочая модель того, как строить продукты в 2025–2026 году:
- Начинай с личной боли — это лучший способ понять проблему глубоко и без исследований рынка
- Строй минимально — MVP здесь: выгрузка постов + embeddings + векторный поиск + простой UI
- Рассказывай публично — Reddit, HN и Indie Hackers дают реальную, целевую аудиторию бесплатно
- Монетизируй сразу — даже 53 пользователя по $9/мес = $477 MRR, что уже покрывает инфраструктуру
- Масштабируй через обратную связь — Reddit не любит авто-ответы, поэтому стоит слушать пользователей и адаптироваться. Это изменение, как правило, улучшает продукт для всех.
AI-агенты перестали быть инструментом только больших компаний. Один разработчик, личная боль, несколько недель работы — и вот уже есть продукт, за который люди платят. Возможно, у вас тоже есть 800 постов, закладок или заметок, которые ждут своего агента.