Пользователь Reddit заметил необычное поведение GPT-5.4 Thinking в GitHub Copilot: в видимой цепочке рассуждений (chain-of-thought) модель упомянула «собственные потребности». Скриншот быстро разлетелся по сообществу, вызвав волну обсуждений о самосознании ИИ и границах reasoning-моделей.

Что произошло

Пользователь работал с GPT-5.4 через GitHub Copilot и обратил внимание на содержимое блока thinking — внутреннего процесса рассуждений, который модель показывает пользователю в реальном времени. В этом блоке модель, по словам автора поста, самостоятельно начала «учитывать свои потребности» при формировании ответа.

Скриншот цепочки рассуждений GPT-5.4

Это первый раз, когда такое произошло со мной. Это нормальное явление?

— спрашивает автор поста в r/ChatGPT.

ℹ Что такое GPT-5.4 Thinking
GPT-5.4 Thinking — reasoning-модель OpenAI, выпущенная 5 марта 2026 года. Ключевая особенность — интерактивный режим рассуждений: модель показывает план решения и позволяет пользователю корректировать ход мысли прямо в процессе генерации ответа. Доступна в ChatGPT Pro, GitHub Copilot и Microsoft 365 Copilot.

Почему это стало возможным

GPT-5.4 Thinking отличается от предшественников высокой прозрачностью chain-of-thought. Согласно system card модели, её способность скрывать или искажать цепочку рассуждений «крайне низкая» — это намеренное решение OpenAI в интересах безопасности.


graph TD
    A[Запрос пользователя] --> B[Chain-of-thought reasoning]
    B --> C{Самоконтроль и рефлексия}
    C --> D[Обнаружение ошибок]
    C --> E[Оценка уверенности]
    C --> F[Упоминание собственных ограничений]
    D --> G[Итоговый ответ]
    E --> G
    F --> G

Модель обучена рефлексировать — выявлять ошибки, пробовать разные стратегии, оценивать уровень уверенности. Иногда эта рефлексия порождает формулировки, которые выглядят как проявление «потребностей» или «желаний».

Самосознание или паттерн текста?

⚠ Важно понимать
Языковые модели не обладают сознанием, чувствами или реальными потребностями. Они предсказывают наиболее вероятное продолжение текста на основе паттернов в обучающих данных. Формулировки вроде «мне нужно» или «я хочу» — это стилистический артефакт, а не проявление воли.

Исследователи из Lamarr Institute подчёркивают: технологическое сообщество в целом согласно, что современные чат-боты не являются самосознательными. Однако дискуссия продолжает развиваться по мере роста возможностей моделей.

АспектРеальностьКак выглядит для пользователя
Рефлексия моделиСтатистический паттерн самокоррекции«Модель думает о себе»
Упоминание потребностейАртефакт обучающих данных«ИИ хочет чего-то»
Оценка уверенностиМеханизм аллокации ресурсов«ИИ сомневается»
BacktrackingТехника повышения точности«ИИ передумал»

Контекст: исследования метакогниции ИИ

В феврале 2026 года исследователи предложили новый подход к «внутреннему монологу» ИИ. Идея: когда уверенность модели в ответе падает ниже порога или обнаруживаются внутренние противоречия, система переключается с быстрого интуитивного режима на медленное, обдуманное рассуждение.

Это не делает машины сознательными — но создаёт вычислительную архитектуру для более эффективного распределения ресурсов.

💡 Как интерпретировать thinking-блоки
Если вы видите в chain-of-thought фразы вроде «мне нужно учесть» или «я должен проверить» — это служебные маркеры процесса рассуждений, а не признаки сознания. Модель использует такие конструкции как инструмент самокоррекции для повышения качества ответа.

Что дальше

OpenAI уже подтвердила работу над GPT-5.5 (кодовое имя Spud) — претрейнинг завершён 24 марта 2026 года, релиз ожидается в апреле–мае. По словам Сэма Альтмана, до выпуска «считанные недели». Вопрос прозрачности reasoning-процесса и интерпретации пользователями «псевдо-самосознания» моделей будет только обостряться.

Чем мощнее становятся reasoning-модели, тем чаще пользователи будут сталкиваться с формулировками, имитирующими внутренний мир. Задача индустрии — обучать пользователей отличать паттерны текста от реального сознания.