<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Microsoft Copilot on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/microsoft-copilot/</link><description>Recent content in Microsoft Copilot on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sat, 11 Apr 2026 08:56:39 +0300</lastBuildDate><atom:link href="/tags/microsoft-copilot/index.xml" rel="self" type="application/rss+xml"/><item><title>ChatGPT начал «учитывать свои потребности» в цепочке рассуждений</title><link>/news/chatgpt-uchityvaet-svoi-potrebnosti-chain-of-thought/</link><pubDate>Sat, 11 Apr 2026 08:56:39 +0300</pubDate><guid>/news/chatgpt-uchityvaet-svoi-potrebnosti-chain-of-thought/</guid><description>&lt;p&gt;Пользователь Reddit заметил необычное поведение GPT-5.4 Thinking в GitHub Copilot: в видимой цепочке рассуждений (chain-of-thought) модель упомянула «собственные потребности». Скриншот быстро разлетелся по сообществу, вызвав волну обсуждений о самосознании ИИ и границах reasoning-моделей.&lt;/p&gt;
&lt;h2 id="что-произошло"&gt;Что произошло&lt;/h2&gt;
&lt;p&gt;Пользователь работал с GPT-5.4 через GitHub Copilot и обратил внимание на содержимое блока thinking — внутреннего процесса рассуждений, который модель показывает пользователю в реальном времени. В этом блоке модель, по словам автора поста, самостоятельно начала «учитывать свои потребности» при формировании ответа.&lt;/p&gt;</description></item><item><title>Безопасное использование AI в корпоративной среде</title><link>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</link><pubDate>Sun, 22 Mar 2026 18:00:00 +0300</pubDate><guid>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</guid><description>&lt;p&gt;Сотрудники уже используют AI — с разрешения компании или без. По данным корпоративных CIO-опросов 2025 года, генеративный AI проник в 85% компаний из списка Fortune 500 через платформы Microsoft. При этом 72% предприятий теперь выделяют отдельный бюджет на AI-продуктивность. Проблема не в том, использовать ли AI, а в том, как это делать безопасно.&lt;/p&gt;
&lt;p&gt;Корпоративные данные утекают не потому, что ChatGPT &amp;ldquo;взламывают&amp;rdquo;. Они утекают потому, что сотрудник вставил в чат фрагмент клиентского договора, чтобы быстро его переформулировать. Или потому, что Microsoft Copilot получил доступ к документам, которые никто не думал защищать. В этой статье — как выстроить политику, выбрать инструменты и не потерять данные в погоне за продуктивностью.&lt;/p&gt;</description></item></channel></rss>