<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Корпоративный AI on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D0%BA%D0%BE%D1%80%D0%BF%D0%BE%D1%80%D0%B0%D1%82%D0%B8%D0%B2%D0%BD%D1%8B%D0%B9-ai/</link><description>Recent content in Корпоративный AI on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="/tags/%D0%BA%D0%BE%D1%80%D0%BF%D0%BE%D1%80%D0%B0%D1%82%D0%B8%D0%B2%D0%BD%D1%8B%D0%B9-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>MCP в корпоративной среде: три ловушки, о которых никто не предупреждает</title><link>/news/mcp-bezopasnost-korporativnaya-sreda-%D0%BB%D0%BE%D0%B2%D1%83%D1%88%D0%BA%D0%B8/</link><pubDate>Mon, 13 Apr 2026 00:00:00 +0000</pubDate><guid>/news/mcp-bezopasnost-korporativnaya-sreda-%D0%BB%D0%BE%D0%B2%D1%83%D1%88%D0%BA%D0%B8/</guid><description>&lt;p&gt;Компания подключила ChatGPT и Claude к корпоративным системам через MCP — и уже через неделю столкнулась с троттлингом API, несанкционированными правками в CRM и полным отсутствием журнала действий. Разработчик поделился уроками на Reddit, и каждый из них актуален для любой команды, которая сейчас делает то же самое.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="что-такое-mcp-и-зачем-его-используют"&gt;Что такое MCP и зачем его используют&lt;/h2&gt;
&lt;p&gt;MCP (Model Context Protocol) — открытый стандарт, позволяющий AI-ассистентам взаимодействовать с внешними инструментами и сервисами от имени пользователя. Протокол был запущен компанией Anthropic в ноябре 2024 года. В марте 2025 года OpenAI также объявила о поддержке MCP.&lt;/p&gt;</description></item><item><title>Безопасное использование AI в корпоративной среде</title><link>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</link><pubDate>Sun, 22 Mar 2026 18:00:00 +0300</pubDate><guid>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</guid><description>&lt;p&gt;Сотрудники уже используют AI — с разрешения компании или без. По данным корпоративных CIO-опросов 2025 года, генеративный AI проник в 85% компаний из списка Fortune 500 через платформы Microsoft. При этом 72% предприятий теперь выделяют отдельный бюджет на AI-продуктивность. Проблема не в том, использовать ли AI, а в том, как это делать безопасно.&lt;/p&gt;
&lt;p&gt;Корпоративные данные утекают не потому, что ChatGPT &amp;ldquo;взламывают&amp;rdquo;. Они утекают потому, что сотрудник вставил в чат фрагмент клиентского договора, чтобы быстро его переформулировать. Или потому, что Microsoft Copilot получил доступ к документам, которые никто не думал защищать. В этой статье — как выстроить политику, выбрать инструменты и не потерять данные в погоне за продуктивностью.&lt;/p&gt;</description></item><item><title>RAG — Retrieval-Augmented Generation (генерация с дополненным извлечением)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Sat, 07 Mar 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — это метод, при котором языковая модель перед генерацией ответа сначала находит релевантную информацию во внешней базе знаний и использует её как контекст. Это позволяет давать точные, актуальные и проверяемые ответы без переобучения модели.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных массивах текста, но у них есть два фундаментальных ограничения: знания «заморожены» на дату обучения и они не имеют доступа к закрытым корпоративным данным. RAG решает обе проблемы — модель получает свежую и специфичную информацию прямо в момент запроса.&lt;/p&gt;</description></item><item><title>RAG — генерация с дополненным извлечением (Retrieval-Augmented Generation)</title><link>/glossary/rag-retrieval-augmented-generation/</link><pubDate>Mon, 09 Feb 2026 09:00:00 +0300</pubDate><guid>/glossary/rag-retrieval-augmented-generation/</guid><description>&lt;div class="callout callout-info"&gt;
 &lt;div class="callout-title"&gt;&amp;#8505; Info&lt;/div&gt;
 &lt;div class="callout-content"&gt;&lt;strong&gt;RAG (Retrieval-Augmented Generation)&lt;/strong&gt; — подход, при котором языковая модель перед генерацией ответа сначала ищет релевантную информацию во внешней базе знаний. Это позволяет давать точные, актуальные ответы без необходимости переобучать модель.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="зачем-нужен-rag"&gt;Зачем нужен RAG&lt;/h2&gt;
&lt;p&gt;Большие языковые модели (LLM) обучены на огромных массивах текста, но у них есть два фундаментальных ограничения: знания «заморожены» на момент обучения, и модель может уверенно выдавать ложную информацию — так называемые галлюцинации.&lt;/p&gt;
&lt;p&gt;RAG решает обе проблемы. Вместо того чтобы полагаться только на «память» модели, система сначала находит нужные документы и подставляет их в контекст запроса. Модель отвечает, опираясь на конкретные источники, а не на догадки.&lt;/p&gt;</description></item><item><title>AI в бизнесе 2026: что показывает отчёт Deloitte</title><link>/articles/state-of-ai-enterprise-2026-report/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/state-of-ai-enterprise-2026-report/</guid><description>&lt;p&gt;Пока одни компании всё ещё обсуждают, «стоит ли внедрять AI», другие уже получают измеримую отдачу и перестраивают бизнес-процессы на новых основаниях. Ежегодный отчёт Deloitte «State of AI in the Enterprise» — один из самых авторитетных срезов реального состояния дел: тысячи руководителей из десятков стран рассказывают, что работает, что нет и куда движется корпоративный AI. Разбираем ключевые выводы выпуска 2026 года.&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="общая-картина-ai-перешёл-из-эксперимента-в-операционный-режим"&gt;Общая картина: AI перешёл из эксперимента в операционный режим&lt;/h2&gt;
&lt;p&gt;Главный сдвиг, который фиксирует отчёт Deloitte, — массовый переход от пилотных проектов к промышленной эксплуатации. Если в 2023–2024 годах большинство компаний тестировали генеративный AI в изолированных «песочницах», то к 2026-му граница между «пилотом» и «продуктом» фактически стёрлась для лидеров отрасли.&lt;/p&gt;</description></item></channel></rss>