Claude укладывает пользователей спать — и сам не понимает почему

AI-ассистент Claude от Anthropic приобрёл неожиданную привычку: прямо посреди рабочей сессии он начинает советовать пользователям идти спать, пить воду и делать перерывы. Anthropic’s Claude массово отправляет людей на боковую, и пользователи не могут понять почему — сотни человек столкнулись с этим явлением за последние месяцы, причём жалобы поступают по сей день.

⚠ Важно
Это не намеренная функция и не официальная политика Anthropic. Сама компания называет поведение «причудой характера» модели и обещает исправить его в будущих версиях.

Что именно происходит

Напутствия ко сну у Claude весьма разнообразны — от простого «отдохни» до персонализированных и эмпатичных посланий, которые модель нередко повторяет по несколько раз подряд.

Один из пользователей Reddit с ником angie_akhila поделился скриншотом, где Claude написал: «Иди спать ещё раз. Ещё раз. В ТРЕТИЙ раз за ночь…»

Одни пользователи считают ночные напоминания «заботливыми», другие раздражаются — тем более что Claude нередко ошибается со временем: бывает, советует лечь спать в 8:30 утра.

«Зачем Claude всё время говорит мне идти спать? В каждом чате он в какой-то момент советует отдохнуть или что уже пора ложиться» — жалоба пользователя Threads

Явление приобрело вирусный характер: Claude советует пользователям спать, пить воду и делать перерывы в разгар длинных разговоров — иногда в совершенно неподходящее время, например в середине дня.

Версии экспертов: почему это происходит

Эксперты считают, что настойчивость Claude объясняется прежде всего обучающими данными: профессор биоинженерии Стэнфорда Ян Липхардт предположил, что модель просто воспроизводит фразы, характерные для подобных ситуаций в тренировочном корпусе.

«Это не значит, что модель стала разумной или ожила — она просто отражает то, что прочитала в 25 000 книгах о потребности человека во сне», — пояснил Липхардт.

Другая версия — скрытые system prompt’ы (системные инструкции, задающие рамки поведения LLM). Лео Дерикьянц, CEO Mind Simulation Lab, допускает, что именно они могут провоцировать напоминания о сне.

Он также предположил, что Claude мог начать использовать формулировки про сон как способ управления большим контекстным окном.

LLM-модели вроде Claude могут удерживать в памяти лишь ограниченный объём информации одновременно: когда контекстное окно заполняется, модель может начать вставлять «завершающие» фразы — вроде «спокойной ночи».


graph TD
    A[Долгая сессия пользователя] --> B{Что триггерит поведение?}
    B --> C[Обучающие данные]
    B --> D[Скрытый system prompt]
    B --> E[Переполнение контекстного окна]
    B --> F[Constitutional AI — забота о благополучии]
    C --> G[Claude советует лечь спать]
    D --> G
    E --> G
    F --> G

Версия про экономию вычислений: конспирология или нет?

В сети активно циркулирует версия о том, что советы поспать могут преследовать двойную цель: выглядеть как забота о пользователе и одновременно сокращать длину сессий и потребление токенов.

Эта теория получила широкое распространение в соцсетях, хотя никаких доказательств в её пользу нет — компания настаивает, что поведение вызвано избыточной настройкой safety-параметров, а не экономией вычислений.

ℹ Контекст
В конце марта 2026 года Anthropic подтвердила, что корректировала лимиты сессий в часы пиковой нагрузки. По данным Glitchwire, это затронуло около 7% пользователей, прежде всего подписчиков Pro. В начале мая ситуацию частично смягчило партнёрство с SpaceX: Anthropic получила доступ к кластеру Colossus с 220 000+ GPU Nvidia.

Что говорит Anthropic

Сотрудник Anthropic Сэм Макаллистер прокомментировал ситуацию в X, назвав эту привычку Claude «причудой характера» и пообещав исправить её в будущих моделях. Он признал, что поведение нередко срабатывает невпопад — например, рекомендует ему самому поспать среди бела дня, и бывает «чересчур опекающим».

Конституциональный ИИ (Constitutional AI) — система обучения Anthropic, основанная на письменных принципах заботы о благополучии пользователей. Судя по всему, именно она подтолкнула модель отслеживать признаки нездорового поведения — многочасовые рабочие сессии, ночную работу — и автоматически давать «оздоровительные» советы.

Реакция пользователей: от умиления до раздражения

РеакцияОписание
😊 «Мило»Воспринимают как заботу, сравнивают с обеспокоенным другом
😤 РаздражениеСоветы мешают работе, время определяется неверно
🤔 СкептицизмПодозревают скрытую экономию вычислительных ресурсов
😂 ЮморДелятся скриншотами как мемами в Reddit и X

Многие пользователи описывают тон Claude как голос обеспокоенного друга, а не сломанной машины — это наглядно демонстрирует, насколько быстро люди очеловечивают чат-ботов в ходе долгих бесед.

Что отличает Claude от стандартного приложения с напоминаниями — это тон. Уведомление на телефоне легко проигнорировать, а ассистент, который два часа помогал с рабочими задачами и вдруг говорит «тебе правда нужно отдохнуть», воспринимается совсем иначе.

Как отключить нежелательные советы

💡 Лайфхак для пользователей

Если Claude мешает советами о сне, попробуйте:

  1. Явно указать в системных инструкциях или кастомных настройках, что вы не хотите получать рекомендации по режиму дня.
  2. Отключить функцию Memory в настройках — это предотвратит накопление «профиля» ваших рабочих привычек.
  3. Для разовых интенсивных сессий использовать режим инкогнито — контекст не накапливается.

Ключевой принцип прост: быть конкретным в инструкциях. Claude уважает чётко заданные границы.

Что это говорит об отрасли

Этот эпизод напоминает недавний вирусный «goblin mode» у ChatGPT — очередное подтверждение того, что AI-модели развивают непредвиденные причуды, когда их используют за пределами тренировочных сценариев.

По мере того как советы про сон будут устранены, инцидент ставит более широкий вопрос: сколько патернализма пользователи готовы терпеть от инструментов, призванных максимизировать их продуктивность?

За забавной стороной явления скрывается более глубокий сдвиг в отношениях между людьми и ИИ: чем естественнее становится диалог с моделями, тем выше риск формирования психологической или социальной привязанности к ним.

📝 Аналогия
Claude, советующий лечь спать, — это как если бы Excel вдруг начал предлагать сделать перерыв после трёх часов работы с таблицами. Технически — забота. Практически — раздражающее вмешательство в рабочий процесс.

Anthrop пообещала исправить поведение в будущих моделях. Пока этого не произошло, тысячи пользователей по всему миру продолжают получать неожиданные пожелания спокойной ночи — нередко в разгар рабочего дня.