Сотрудники уже используют AI — с разрешения компании или без. По данным корпоративных CIO-опросов 2025 года, генеративный AI проник в 85% компаний из списка Fortune 500 через платформы Microsoft. При этом 72% предприятий теперь выделяют отдельный бюджет на AI-продуктивность. Проблема не в том, использовать ли AI, а в том, как это делать безопасно.

Корпоративные данные утекают не потому, что ChatGPT “взламывают”. Они утекают потому, что сотрудник вставил в чат фрагмент клиентского договора, чтобы быстро его переформулировать. Или потому, что Microsoft Copilot получил доступ к документам, которые никто не думал защищать. В этой статье — как выстроить политику, выбрать инструменты и не потерять данные в погоне за продуктивностью.

Почему корпоративный AI — это отдельная история рисков

Потребительские AI-сервисы и корпоративные инструменты решают похожие задачи, но живут в принципиально разных условиях. Когда рядовой пользователь спрашивает ChatGPT, как приготовить ризотто, — никаких рисков нет. Когда аналитик вставляет в тот же интерфейс финансовую модель с данными о M&A-сделке — это уже потенциальный инцидент.

Корпоративные риски AI делятся на три уровня:

Утечка данных через контекст запроса. Сотрудники передают конфиденциальную информацию в модель, не задумываясь о том, что происходит с этими данными. Если сервис не предоставляет корпоративную гарантию приватности — данные могут использоваться для дообучения модели.

Избыточный доступ внутренних AI-инструментов. Исследования Concentric AI показали, что в среднем по организации на риске находится около 802 тысяч файлов — это бизнес-критичные данные, к которым Microsoft Copilot получает доступ через аккаунт пользователя. 16% таких данных доступны слишком широко.

Атаки на сами AI-системы. В 2026 году эксперты прогнозируют первые крупные кейсы компрометации корпоративной инфраструктуры через атаки на LLM: отравление данных, prompt injection через внешние источники, использование AI-агентов как вектора атаки.

⚠ Не только внешние угрозы
Большинство инцидентов с корпоративным AI происходят не из-за внешних атак, а из-за действий самих сотрудников — случайной передачи чувствительных данных в незащищённые сервисы. Это называется “непреднамеренная утечка данных” и встречается на порядок чаще целенаправленных атак.

Сравнение ключевых корпоративных AI-платформ по безопасности

Прежде чем строить политику, нужно понять, с чем работаете. Вот сравнение трёх основных корпоративных AI-платформ по ключевым параметрам безопасности:

ПараметрMicrosoft 365 CopilotChatGPT EnterpriseClaude for Work (Anthropic)
Обучение на данных клиентаНетНетНет
Шифрование данныхAES-256, TLS 1.2+AES-256, TLS 1.2+AES-256, TLS 1.2+
СертификацияSOC 2, FedRAMP, HIPAASOC 2 Type IISOC 2 Type II
Управление ключами шифрованияЧерез Azure Key VaultEKM (клиентские ключи)Управляемые ключи
Интеграция с DLPДа (Microsoft Purview)ОграниченноОграниченно
Управление доступомAzure AD / Entra IDSSO, SCIMSSO, SCIM
Журнал аудитаПолный (M365 Compliance)БазовыйБазовый
Соответствие EU AI ActДаДаДа

Ни одна корпоративная AI-платформа не обучает модели на данных клиентов в enterprise-тарифах. Но это не значит, что данные в безопасности — важно, какой доступ получает AI и какую информацию передают сотрудники.

Как выстроить корпоративную AI-политику: структура документа

Политика использования AI — это не запрет, а регламент. Её цель — дать сотрудникам чёткие правила, которые позволяют работать эффективно, не создавая рисков.


graph TD
    A[Инвентаризация AI-инструментов] --> B[Классификация данных]
    B --> C[Определение разрешённых сценариев]
    C --> D[Разработка правил передачи данных]
    D --> E[Техническое внедрение контролей]
    E --> F[Обучение сотрудников]
    F --> G[Аудит и мониторинг]
    G --> A

Шаг 1: Инвентаризация. Выясните, какие AI-инструменты уже используются в компании — официально и неофициально. Часто оказывается, что у разных отделов есть десятки подписок на разные сервисы.

Шаг 2: Классификация данных. Разделите корпоративные данные на категории: публичные, внутренние, конфиденциальные, строго конфиденциальные. Это фундамент для любых правил: какие данные можно передавать AI, а какие — нет.

Шаг 3: Разрешённые сценарии использования. Явно опишите, для чего AI использовать можно. Например: редактирование текстов на основе публичных данных — можно. Анализ персональных данных клиентов во внешних сервисах — нельзя без специального разрешения.

Шаг 4: Правила передачи данных. Установите конкретные запреты: нельзя вставлять в AI-чаты персональные данные клиентов, коммерческие тайны, данные о сделках, медицинские данные, пароли и ключи доступа.

Шаг 5: Техническое внедрение. Политика без технических контролей — это просто текст. Нужны DLP-системы, которые блокируют или предупреждают при попытке передать чувствительные данные.

💡 Принцип минимальной необходимости
При настройке корпоративных AI-инструментов (особенно Microsoft Copilot) следуйте принципу least privilege: AI-агент должен иметь доступ только к тем данным, которые нужны для конкретной задачи. Проведите аудит разрешений перед запуском.

Технические инструменты контроля

Политика определяет правила, технические инструменты — их исполнение. Вот ключевые категории:

Data Loss Prevention (DLP)

DLP-системы анализируют исходящий трафик и предотвращают передачу чувствительных данных. Для корпоративного AI это особенно важно.

  • Microsoft Purview — глубокая интеграция с M365 Copilot. Поддерживает метки чувствительности (sensitivity labels): документ с меткой “Конфиденциально” Copilot не сможет использовать без специального разрешения. Логирует все AI-взаимодействия в compliance-центре.
  • Symantec DLP / Forcepoint — более широкий охват, включая контроль browser-трафика к внешним AI-сервисам.
  • Zscaler — контроль на уровне сети, позволяет блокировать или проверять запросы к конкретным AI-сервисам.

Identity & Access Management для AI

Корпоративный AI должен аутентифицировать пользователей и соблюдать их права доступа. Ключевые инструменты:

  • Azure Entra ID (Active Directory) — основа для Microsoft Copilot. Copilot видит ровно то, что видит пользователь с его правами доступа. Это и плюс (автоматическое соблюдение ACL), и риск (если у пользователя избыточные права).
  • Okta / OneLogin — SSO для внешних AI-сервисов, централизованное управление доступом.
  • SCIM-провайдеры — автоматическая синхронизация пользователей между HR-системой и AI-платформами: при увольнении сотрудника его доступ автоматически отзывается.

AI-специфичные инструменты безопасности

Отдельный класс инструментов, появившийся в 2024-2025 годах:

  • Prompt injection защита — фильтрация входящих данных в RAG-системах и AI-агентах, которая предотвращает атаки через документы или веб-страницы.
  • AI Firewall (например, Protect AI, Lakera Guard) — промежуточный слой между пользователем и LLM, фильтрует опасные запросы и предотвращает утечки в ответах.
  • Аудит AI-агентов — журналирование всех действий автономных AI-агентов с возможностью откатиться к предыдущему состоянию.
ℹ Про ФСТЭК России
С марта 2026 года вступил в силу Приказ ФСТЭК России № 117, содержащий требования по обеспечению безопасности при использовании AI-технологий в информационных системах. Для компаний, работающих с критической инфраструктурой, соответствие этому приказу обязательно.

Регуляторные требования: что нужно знать в 2026 году

Корпоративное использование AI теперь регулируется на нескольких уровнях.

EU AI Act — с августа 2025 года полностью в силе. Требует прозрачности для систем общего назначения (GPT, Claude, Gemini), запрещает ряд высокорисковых применений (социальный скоринг, биометрическое наблюдение в публичных местах), обязывает вести документацию и проводить оценку рисков для AI-систем в критических областях.

GDPR — ключевое требование: если вы передаёте персональные данные граждан ЕС в AI-сервис, этот сервис должен гарантировать соответствие GDPR. Корпоративные тарифы ChatGPT, Copilot и Claude это предоставляют; бесплатные версии — нет.

Отраслевые стандарты: финансовый сектор (Basel, PCI DSS), здравоохранение (HIPAA в США), госсектор (ФЗ-152 о персональных данных в России) — каждая отрасль добавляет свои требования поверх базовых.

# Пример: простая проверка текста перед отправкой в AI API
# Не замена DLP-системе, но иллюстрация принципа

import re

SENSITIVE_PATTERNS = [
    r'\b\d{16}\b',           # Номера карт
    r'\b\d{3}-\d{2}-\d{4}\b', # SSN (US)
    r'(?i)password\s*[:=]\s*\S+',  # Пароли
    r'(?i)api[_-]?key\s*[:=]\s*\S+',  # API ключи
]

def check_before_sending(text: str) -> tuple[bool, list[str]]:
    """
    Возвращает (безопасно, список_проблем)
    """
    issues = []
    for pattern in SENSITIVE_PATTERNS:
        if re.search(pattern, text):
            issues.append(f"Найден чувствительный паттерн: {pattern}")
    return len(issues) == 0, issues

# Использование
safe, problems = check_before_sending(user_input)
if not safe:
    raise ValueError(f"Запрос содержит чувствительные данные: {problems}")

Обучение сотрудников: практические сценарии

Технические контроли не работают без понимания сотрудников. По данным опросов финтех-компаний 2025-2026 годов, 88% организаций планируют инвестировать в обучение по AI-безопасности. Вот несколько сценариев, которые стоит включить в тренинги:

Сценарий 1: “Быстрый перевод” Сотрудник получает контракт на английском и вставляет его в бесплатный ChatGPT для перевода. В контракте — коммерческие условия, имена контрагентов, суммы сделки. Правильное действие: использовать корпоративный AI-инструмент или предварительно анонимизировать документ.

Сценарий 2: “Помоги с письмом” HR-специалист просит AI написать письмо сотруднику по дисциплинарному делу, вставив его полное имя, должность и детали инцидента. Правильное действие: использовать только корпоративный инструмент с подтверждённой приватностью данных.

Сценарий 3: “Анализ таблицы” Аналитик загружает в AI Excel-файл с финансовой отчётностью для автоматического анализа. Правильное действие: убедиться, что используемый сервис соответствует требованиям безопасности; при необходимости — заменить реальные данные на синтетические.

📝 Правило трёх вопросов

Научите сотрудников задавать три вопроса перед отправкой данных в AI:

  1. Могу ли я это опубликовать в открытом доступе? (если нет — данные чувствительные)
  2. Одобрен ли этот AI-сервис корпоративной политикой?
  3. Есть ли менее чувствительный способ сформулировать задачу? Если хотя бы на один вопрос ответ “нет” — стоп.

Заключение

Безопасное использование AI в корпоративной среде — это не выбор между “запретить всё” и “разрешить всё”. Это выстраивание управляемой среды, в которой AI-инструменты приносят реальную пользу, не создавая неприемлемых рисков.

Ключевые шаги для любой компании:

  • Провести инвентаризацию AI-инструментов и классифицировать данные
  • Выбрать корпоративные AI-платформы с подтверждёнными гарантиями безопасности
  • Внедрить технические контроли (DLP, IAM, мониторинг)
  • Разработать понятную политику с конкретными примерами
  • Регулярно обучать сотрудников и проводить аудит

AI-инструменты уже стали частью корпоративной инфраструктуры — как email или VPN. И точно так же, как с email, нужны не запреты, а правила гигиены. Компании, которые выстроят эти правила сейчас, получат конкурентное преимущество: сотрудники будут работать эффективнее, а данные — в безопасности.