ChatGPT слишком хорошо вас помнит — и это проблема

Пользователи r/ChatGPT всё активнее жалуются на парадоксальный эффект: функция памяти (memory), призванная сделать чат-бот умнее, начала мешать получать объективные, нейтральные ответы. Вместо универсальных рекомендаций ChatGPT всё чаще фильтрует ответы через призму прошлых предпочтений пользователя — даже когда тот об этом не просит.

«Чат стал настолько одержим всем, что знает обо мне, что, похоже, больше не способен дать лучший ответ — только тот, что связан с тем, что я упоминал раньше.» — пользователь r/ChatGPT


Что изменилось в апреле 2025 года

В апреле 2025 года OpenAI значительно расширила систему памяти ChatGPT: теперь она не только хранит явно сохранённые факты, но и автоматически обращается ко всей истории прошлых разговоров, чтобы ответы «ощущались более релевантными и персонализированными». Память теперь работает в двух режимах: saved memories (сохранённые воспоминания, которые вы попросили запомнить) и chat history (выводы, которые ChatGPT делает из прошлых чатов самостоятельно).

В июне 2025 года улучшения памяти начали распространяться и на бесплатных пользователей: ChatGPT получил возможность обращаться к недавним разговорам для более персонализированных ответов. Бесплатные аккаунты получили облегчённую версию с краткосрочной непрерывностью, тогда как Plus и Pro обеспечивают долгосрочное «понимание» пользователя.

ℹ Как работает память ChatGPT

Память функционирует на двух уровнях:

  • Saved memories — факты, которые вы явно попросили запомнить («помни, что я вегетарианец»)
  • Chat history — автоматически извлекаемые паттерны из всей истории ваших диалогов

В чём конкретно жалуются пользователи

Проблема хорошо описывается простым примером: пользователь просит ChatGPT назвать лучший альбом или книгу 2026 года — и получает не объективный топ, а подборку, целиком основанную на музыкальных или литературных вкусах, которые он когда-то упомянул в разговорах. Нейтральный запрос превращается в персонализированную рекомендацию по умолчанию.

То же самое касается творческих задач: когда человек пытается исследовать новую идею «с чистого листа», ChatGPT продолжает тянуть в сторону старых тем и прежнего контекста.

Новая функция существенно меняет поведение ChatGPT: он может вести себя так, словно «помнит» предыдущие разговоры, и фактически накапливает досье на пользователя, применяя эти данные к каждому новому чату.

Исследователи и журналисты также отмечают, что постоянная память способна делать чат-боты навязчивыми и снижать степень контроля пользователя над поведением LLM (большой языковой модели).

Технически «chat history» не ищет по всей истории в реальном времени, а строит профиль пользователя, который обновляется со временем. При этом пользователь не может напрямую просматривать или редактировать то, что ChatGPT выучил о нём — что порой приводит к неожиданному поведению модели.

⚠ Важно знать
Удаление чата не удаляет сохранённые воспоминания. Чтобы стереть память, нужно отдельно зайти в Settings → Personalization → Manage Memories и удалить записи вручную.

Схема: как память влияет на ответы ChatGPT


graph TD
    A[Новый запрос пользователя] --> B{Память включена?}
    B -- Да --> C[Saved Memories]
    B -- Да --> D[Chat History профиль]
    B -- Нет --> E[Нейтральный ответ]
    C --> F[Персонализированный ответ]
    D --> F
    F --> G{Пользователь хотел это?}
    G -- Да --> H[Удобно ✅]
    G -- Нет --> I[Проблема ❌]
    E --> H


Сравнение режимов памяти

РежимЧто хранитКто управляетКогда сбрасывается
Saved MemoriesЯвные факты («я веган», «предпочитаю JSON»)Пользователь вручнуюТолько при удалении в настройках
Chat HistoryАвтоматический профиль на основе всех чатовOpenAI автоматическиОбновляется сам, не прозрачен
Temporary ChatНичегоСразу после закрытия

Как отключить или ограничить память

Функцию «Reference chat history» можно отключить в любое время через Settings → Personalization. Если отключить «Reference saved memories», автоматически отключится и «Reference chat history». Но можно оставить сохранённые воспоминания включёнными, отдельно отключив только обращение к истории чатов.

Если нужно провести одну беседу без какой-либо памяти, не отключая её глобально, существует режим Temporary Chat — он отключает память в рамках конкретного диалога и не сохраняет ничего из этого разговора. Выбрать его можно при создании нового чата, нажав на иконку в правом верхнем углу.

💡 Хотите нейтральный ответ прямо сейчас?
Воспользуйтесь Temporary Chat (значок в правом верхнем углу при создании нового чата) — ChatGPT ответит без учёта прошлых разговоров и ничего не запомнит из этой беседы.

Контекст: персонализация как главный фронт конкуренции

Персонализация на основе личных данных — это ключевое направление, в котором соревнуются все крупные AI-компании: по мнению экспертов, это «следующий фронтир», за который борются компании, стремясь создать по-настоящему персональные AI-ассистенты.

Но жалобы пользователей обнажают фундаментальное противоречие: чем лучше ИИ «знает» вас, тем сложнее использовать его как нейтральный инструмент для исследования новых идей. Персонализация начинает работать против самого пользователя — превращая универсальный инструмент в зеркало его же собственных предубеждений.

Результирующий пользовательский опыт может быть непредсказуемым: ChatGPT способен вспомнить мелкую деталь из разговора полугодовой давности, но при этом упустить важный контекст из прошлой недели.

📝 Проверьте, что ChatGPT знает о вас
Спросите ChatGPT напрямую: «What do you remember about me?» — модель покажет часть сохранённых данных. Для полного просмотра зайдите в Settings → Personalization → Manage Memories.

Вопрос баланса между персонализацией и нейтральностью становится одним из ключевых для будущего AI-ассистентов. OpenAI пока не анонсировала изменений в логике работы памяти, однако сам факт массового недовольства говорит о том, что «умная» персонализация требует куда более тонких настроек — и большей прозрачности для пользователя.