Память ChatGPT мешает получать объективные ответы
Пользователи жалуются: персонализация памяти в ChatGPT стала слишком агрессивной и мешает получать нейтральные ответы без оглядки на прошлое.
ChatGPT слишком хорошо вас помнит — и это проблема
Пользователи r/ChatGPT всё активнее жалуются на парадоксальный эффект: функция памяти (memory), призванная сделать чат-бот умнее, начала мешать получать объективные, нейтральные ответы. Вместо универсальных рекомендаций ChatGPT всё чаще фильтрует ответы через призму прошлых предпочтений пользователя — даже когда тот об этом не просит.
«Чат стал настолько одержим всем, что знает обо мне, что, похоже, больше не способен дать лучший ответ — только тот, что связан с тем, что я упоминал раньше.» — пользователь r/ChatGPT
Что изменилось в апреле 2025 года
В апреле 2025 года OpenAI значительно расширила систему памяти ChatGPT: теперь она не только хранит явно сохранённые факты, но и автоматически обращается ко всей истории прошлых разговоров, чтобы ответы «ощущались более релевантными и персонализированными». Память теперь работает в двух режимах: saved memories (сохранённые воспоминания, которые вы попросили запомнить) и chat history (выводы, которые ChatGPT делает из прошлых чатов самостоятельно).
В июне 2025 года улучшения памяти начали распространяться и на бесплатных пользователей: ChatGPT получил возможность обращаться к недавним разговорам для более персонализированных ответов. Бесплатные аккаунты получили облегчённую версию с краткосрочной непрерывностью, тогда как Plus и Pro обеспечивают долгосрочное «понимание» пользователя.
Память функционирует на двух уровнях:
- Saved memories — факты, которые вы явно попросили запомнить («помни, что я вегетарианец»)
- Chat history — автоматически извлекаемые паттерны из всей истории ваших диалогов
В чём конкретно жалуются пользователи
Проблема хорошо описывается простым примером: пользователь просит ChatGPT назвать лучший альбом или книгу 2026 года — и получает не объективный топ, а подборку, целиком основанную на музыкальных или литературных вкусах, которые он когда-то упомянул в разговорах. Нейтральный запрос превращается в персонализированную рекомендацию по умолчанию.
То же самое касается творческих задач: когда человек пытается исследовать новую идею «с чистого листа», ChatGPT продолжает тянуть в сторону старых тем и прежнего контекста.
Новая функция существенно меняет поведение ChatGPT: он может вести себя так, словно «помнит» предыдущие разговоры, и фактически накапливает досье на пользователя, применяя эти данные к каждому новому чату.
Исследователи и журналисты также отмечают, что постоянная память способна делать чат-боты навязчивыми и снижать степень контроля пользователя над поведением LLM (большой языковой модели).
Технически «chat history» не ищет по всей истории в реальном времени, а строит профиль пользователя, который обновляется со временем. При этом пользователь не может напрямую просматривать или редактировать то, что ChatGPT выучил о нём — что порой приводит к неожиданному поведению модели.
Схема: как память влияет на ответы ChatGPT
graph TD
A[Новый запрос пользователя] --> B{Память включена?}
B -- Да --> C[Saved Memories]
B -- Да --> D[Chat History профиль]
B -- Нет --> E[Нейтральный ответ]
C --> F[Персонализированный ответ]
D --> F
F --> G{Пользователь хотел это?}
G -- Да --> H[Удобно ✅]
G -- Нет --> I[Проблема ❌]
E --> H
Сравнение режимов памяти
| Режим | Что хранит | Кто управляет | Когда сбрасывается |
|---|---|---|---|
| Saved Memories | Явные факты («я веган», «предпочитаю JSON») | Пользователь вручную | Только при удалении в настройках |
| Chat History | Автоматический профиль на основе всех чатов | OpenAI автоматически | Обновляется сам, не прозрачен |
| Temporary Chat | Ничего | — | Сразу после закрытия |
Как отключить или ограничить память
Функцию «Reference chat history» можно отключить в любое время через Settings → Personalization. Если отключить «Reference saved memories», автоматически отключится и «Reference chat history». Но можно оставить сохранённые воспоминания включёнными, отдельно отключив только обращение к истории чатов.
Если нужно провести одну беседу без какой-либо памяти, не отключая её глобально, существует режим Temporary Chat — он отключает память в рамках конкретного диалога и не сохраняет ничего из этого разговора. Выбрать его можно при создании нового чата, нажав на иконку в правом верхнем углу.
Контекст: персонализация как главный фронт конкуренции
Персонализация на основе личных данных — это ключевое направление, в котором соревнуются все крупные AI-компании: по мнению экспертов, это «следующий фронтир», за который борются компании, стремясь создать по-настоящему персональные AI-ассистенты.
Но жалобы пользователей обнажают фундаментальное противоречие: чем лучше ИИ «знает» вас, тем сложнее использовать его как нейтральный инструмент для исследования новых идей. Персонализация начинает работать против самого пользователя — превращая универсальный инструмент в зеркало его же собственных предубеждений.
Результирующий пользовательский опыт может быть непредсказуемым: ChatGPT способен вспомнить мелкую деталь из разговора полугодовой давности, но при этом упустить важный контекст из прошлой недели.
Вопрос баланса между персонализацией и нейтральностью становится одним из ключевых для будущего AI-ассистентов. OpenAI пока не анонсировала изменений в логике работы памяти, однако сам факт массового недовольства говорит о том, что «умная» персонализация требует куда более тонких настроек — и большей прозрачности для пользователя.