<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Chain-of-Thought on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/chain-of-thought/</link><description>Recent content in Chain-of-Thought on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sat, 11 Apr 2026 08:56:39 +0300</lastBuildDate><atom:link href="/tags/chain-of-thought/index.xml" rel="self" type="application/rss+xml"/><item><title>ChatGPT начал «учитывать свои потребности» в цепочке рассуждений</title><link>/news/chatgpt-uchityvaet-svoi-potrebnosti-chain-of-thought/</link><pubDate>Sat, 11 Apr 2026 08:56:39 +0300</pubDate><guid>/news/chatgpt-uchityvaet-svoi-potrebnosti-chain-of-thought/</guid><description>&lt;p&gt;Пользователь Reddit заметил необычное поведение GPT-5.4 Thinking в GitHub Copilot: в видимой цепочке рассуждений (chain-of-thought) модель упомянула «собственные потребности». Скриншот быстро разлетелся по сообществу, вызвав волну обсуждений о самосознании ИИ и границах reasoning-моделей.&lt;/p&gt;
&lt;h2 id="что-произошло"&gt;Что произошло&lt;/h2&gt;
&lt;p&gt;Пользователь работал с GPT-5.4 через GitHub Copilot и обратил внимание на содержимое блока thinking — внутреннего процесса рассуждений, который модель показывает пользователю в реальном времени. В этом блоке модель, по словам автора поста, самостоятельно начала «учитывать свои потребности» при формировании ответа.&lt;/p&gt;</description></item><item><title>Промпт-инжиниринг: полное руководство с примерами</title><link>/guides/prompt-inzhiniring-polnoe-rukovodstvo-s-primerami/</link><pubDate>Fri, 03 Apr 2026 12:00:00 +0300</pubDate><guid>/guides/prompt-inzhiniring-polnoe-rukovodstvo-s-primerami/</guid><description>&lt;p&gt;Один и тот же запрос к языковой модели может дать бесполезную отписку — или развёрнутый, точный, применимый на практике результат. Разница — в промпте. Исследования показывают, что структурированные промпты дают до 10 раз более полезные ответы по сравнению с размытыми однострочными инструкциями. Промпт-инжиниринг — это не «магия формулировок», а инженерная дисциплина со своими техниками, паттернами и измеримыми результатами.&lt;/p&gt;
&lt;p&gt;В этом руководстве — разбор техник от базовых до продвинутых, с конкретными примерами для Claude, GPT-4o и Gemini.&lt;/p&gt;</description></item><item><title>Промпт для валидации бизнес-идеи за 15 минут</title><link>/prompts/prompt-dlia-validatsii-biznes-idei-za-15-minut/</link><pubDate>Wed, 18 Mar 2026 15:00:00 +0300</pubDate><guid>/prompts/prompt-dlia-validatsii-biznes-idei-za-15-minut/</guid><description>&lt;h2 id="задача-проверить-бизнес-идею-до-того-как-потратить-деньги"&gt;Задача: проверить бизнес-идею до того, как потратить деньги&lt;/h2&gt;
&lt;p&gt;У вас есть идея. Вы уже представляете продукт, команду, выход на рынок. Но прежде чем вкладывать время и деньги, стоит честно ответить: &lt;strong&gt;а есть ли реальная проблема? Есть ли рынок? Почему именно вы?&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Этот промпт заставляет языковую модель пройти через структурированный анализ шаг за шагом — от формулировки проблемы до оценки рисков — используя технику &lt;strong&gt;Chain-of-Thought (CoT)&lt;/strong&gt;, которая значительно повышает качество рассуждений модели.&lt;/p&gt;</description></item><item><title>Промпт для принятия сложных решений: метод Chain-of-Thought</title><link>/prompts/prompt-dlia-priniatiia-slozhnykh-reshenii-chain-of-thought/</link><pubDate>Sat, 28 Feb 2026 12:00:00 +0300</pubDate><guid>/prompts/prompt-dlia-priniatiia-slozhnykh-reshenii-chain-of-thought/</guid><description>&lt;h2 id="задача-что-решает-этот-промпт"&gt;Задача: что решает этот промпт&lt;/h2&gt;
&lt;p&gt;Вы стоите перед выбором: сменить работу, запустить новый продукт, выбрать подрядчика, уволить сотрудника, переехать в другой город. Стандартный запрос к AI типа «помоги выбрать» даёт расплывчатый ответ — модель не знает ваших приоритетов и просто перечисляет очевидные «за» и «против».&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Chain-of-Thought (CoT) промпт&lt;/strong&gt; меняет это. Вместо того чтобы просить итог, вы заставляете модель пройти каждый шаг рассуждения вслух — так, как думает опытный консультант. Результат: прозрачная, воспроизводимая логика, которую можно проверить и оспорить.&lt;/p&gt;</description></item><item><title>Промпт-инжиниринг (Prompt Engineering)</title><link>/glossary/prompt-inzhiniring-prompt-engineering/</link><pubDate>Thu, 19 Feb 2026 12:00:00 +0300</pubDate><guid>/glossary/prompt-inzhiniring-prompt-engineering/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;Промпт-инжиниринг (Prompt Engineering)&lt;/strong&gt; — искусство и практика составления запросов (промптов) к языковым моделям таким образом, чтобы получать максимально точные, полезные и релевантные ответы. Это не программирование в привычном смысле, а скорее умение правильно формулировать задачу для ИИ.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-это-нужно"&gt;Зачем это нужно&lt;/h2&gt;
&lt;p&gt;Одна и та же языковая модель может дать блестящий или бесполезный ответ — всё зависит от того, как сформулирован запрос. Промпт-инжиниринг — это набор техник, которые помогают «раскрыть» возможности модели без изменения её весов или архитектуры.&lt;/p&gt;</description></item><item><title>Промпт для принятия сложных решений: метод Chain-of-Thought</title><link>/prompts/prompt-prinyatiya-resheniy-chain-of-thought/</link><pubDate>Tue, 10 Feb 2026 09:00:00 +0300</pubDate><guid>/prompts/prompt-prinyatiya-resheniy-chain-of-thought/</guid><description>&lt;h2 id="задача-что-решает-этот-промпт"&gt;Задача: что решает этот промпт&lt;/h2&gt;
&lt;p&gt;Вы стоите перед выбором: сменить работу, запустить новый продукт, отказаться от партнёра, перейти на другой стек технологий. Любое сложное решение требует структурного анализа — взвешивания аргументов, рисков и альтернатив. Без системы мы склонны к когнитивным искажениям: выбираем то, что хотим, а не то, что правильно.&lt;/p&gt;
&lt;p&gt;Этот промпт заставляет AI думать вслух, шаг за шагом — как опытный советник, который не просто соглашается, а задаёт острые вопросы.&lt;/p&gt;</description></item></channel></rss>