Безопасное использование AI в корпоративной среде
Как выстроить политику безопасного использования AI в компании: какие риски существуют, какие инструменты защищают корпоративные данные и как соответствовать требованиям регуляторов.
Сотрудники уже используют AI — с разрешения компании или без. По данным корпоративных CIO-опросов 2025 года, генеративный AI проник в 85% компаний из списка Fortune 500 через платформы Microsoft. При этом 72% предприятий теперь выделяют отдельный бюджет на AI-продуктивность. Проблема не в том, использовать ли AI, а в том, как это делать безопасно.
Корпоративные данные утекают не потому, что ChatGPT “взламывают”. Они утекают потому, что сотрудник вставил в чат фрагмент клиентского договора, чтобы быстро его переформулировать. Или потому, что Microsoft Copilot получил доступ к документам, которые никто не думал защищать. В этой статье — как выстроить политику, выбрать инструменты и не потерять данные в погоне за продуктивностью.
Почему корпоративный AI — это отдельная история рисков
Потребительские AI-сервисы и корпоративные инструменты решают похожие задачи, но живут в принципиально разных условиях. Когда рядовой пользователь спрашивает ChatGPT, как приготовить ризотто, — никаких рисков нет. Когда аналитик вставляет в тот же интерфейс финансовую модель с данными о M&A-сделке — это уже потенциальный инцидент.
Корпоративные риски AI делятся на три уровня:
Утечка данных через контекст запроса. Сотрудники передают конфиденциальную информацию в модель, не задумываясь о том, что происходит с этими данными. Если сервис не предоставляет корпоративную гарантию приватности — данные могут использоваться для дообучения модели.
Избыточный доступ внутренних AI-инструментов. Исследования Concentric AI показали, что в среднем по организации на риске находится около 802 тысяч файлов — это бизнес-критичные данные, к которым Microsoft Copilot получает доступ через аккаунт пользователя. 16% таких данных доступны слишком широко.
Атаки на сами AI-системы. В 2026 году эксперты прогнозируют первые крупные кейсы компрометации корпоративной инфраструктуры через атаки на LLM: отравление данных, prompt injection через внешние источники, использование AI-агентов как вектора атаки.
Сравнение ключевых корпоративных AI-платформ по безопасности
Прежде чем строить политику, нужно понять, с чем работаете. Вот сравнение трёх основных корпоративных AI-платформ по ключевым параметрам безопасности:
| Параметр | Microsoft 365 Copilot | ChatGPT Enterprise | Claude for Work (Anthropic) |
|---|---|---|---|
| Обучение на данных клиента | Нет | Нет | Нет |
| Шифрование данных | AES-256, TLS 1.2+ | AES-256, TLS 1.2+ | AES-256, TLS 1.2+ |
| Сертификация | SOC 2, FedRAMP, HIPAA | SOC 2 Type II | SOC 2 Type II |
| Управление ключами шифрования | Через Azure Key Vault | EKM (клиентские ключи) | Управляемые ключи |
| Интеграция с DLP | Да (Microsoft Purview) | Ограниченно | Ограниченно |
| Управление доступом | Azure AD / Entra ID | SSO, SCIM | SSO, SCIM |
| Журнал аудита | Полный (M365 Compliance) | Базовый | Базовый |
| Соответствие EU AI Act | Да | Да | Да |
Ни одна корпоративная AI-платформа не обучает модели на данных клиентов в enterprise-тарифах. Но это не значит, что данные в безопасности — важно, какой доступ получает AI и какую информацию передают сотрудники.
Как выстроить корпоративную AI-политику: структура документа
Политика использования AI — это не запрет, а регламент. Её цель — дать сотрудникам чёткие правила, которые позволяют работать эффективно, не создавая рисков.
graph TD
A[Инвентаризация AI-инструментов] --> B[Классификация данных]
B --> C[Определение разрешённых сценариев]
C --> D[Разработка правил передачи данных]
D --> E[Техническое внедрение контролей]
E --> F[Обучение сотрудников]
F --> G[Аудит и мониторинг]
G --> A
Шаг 1: Инвентаризация. Выясните, какие AI-инструменты уже используются в компании — официально и неофициально. Часто оказывается, что у разных отделов есть десятки подписок на разные сервисы.
Шаг 2: Классификация данных. Разделите корпоративные данные на категории: публичные, внутренние, конфиденциальные, строго конфиденциальные. Это фундамент для любых правил: какие данные можно передавать AI, а какие — нет.
Шаг 3: Разрешённые сценарии использования. Явно опишите, для чего AI использовать можно. Например: редактирование текстов на основе публичных данных — можно. Анализ персональных данных клиентов во внешних сервисах — нельзя без специального разрешения.
Шаг 4: Правила передачи данных. Установите конкретные запреты: нельзя вставлять в AI-чаты персональные данные клиентов, коммерческие тайны, данные о сделках, медицинские данные, пароли и ключи доступа.
Шаг 5: Техническое внедрение. Политика без технических контролей — это просто текст. Нужны DLP-системы, которые блокируют или предупреждают при попытке передать чувствительные данные.
Технические инструменты контроля
Политика определяет правила, технические инструменты — их исполнение. Вот ключевые категории:
Data Loss Prevention (DLP)
DLP-системы анализируют исходящий трафик и предотвращают передачу чувствительных данных. Для корпоративного AI это особенно важно.
- Microsoft Purview — глубокая интеграция с M365 Copilot. Поддерживает метки чувствительности (sensitivity labels): документ с меткой “Конфиденциально” Copilot не сможет использовать без специального разрешения. Логирует все AI-взаимодействия в compliance-центре.
- Symantec DLP / Forcepoint — более широкий охват, включая контроль browser-трафика к внешним AI-сервисам.
- Zscaler — контроль на уровне сети, позволяет блокировать или проверять запросы к конкретным AI-сервисам.
Identity & Access Management для AI
Корпоративный AI должен аутентифицировать пользователей и соблюдать их права доступа. Ключевые инструменты:
- Azure Entra ID (Active Directory) — основа для Microsoft Copilot. Copilot видит ровно то, что видит пользователь с его правами доступа. Это и плюс (автоматическое соблюдение ACL), и риск (если у пользователя избыточные права).
- Okta / OneLogin — SSO для внешних AI-сервисов, централизованное управление доступом.
- SCIM-провайдеры — автоматическая синхронизация пользователей между HR-системой и AI-платформами: при увольнении сотрудника его доступ автоматически отзывается.
AI-специфичные инструменты безопасности
Отдельный класс инструментов, появившийся в 2024-2025 годах:
- Prompt injection защита — фильтрация входящих данных в RAG-системах и AI-агентах, которая предотвращает атаки через документы или веб-страницы.
- AI Firewall (например, Protect AI, Lakera Guard) — промежуточный слой между пользователем и LLM, фильтрует опасные запросы и предотвращает утечки в ответах.
- Аудит AI-агентов — журналирование всех действий автономных AI-агентов с возможностью откатиться к предыдущему состоянию.
Регуляторные требования: что нужно знать в 2026 году
Корпоративное использование AI теперь регулируется на нескольких уровнях.
EU AI Act — с августа 2025 года полностью в силе. Требует прозрачности для систем общего назначения (GPT, Claude, Gemini), запрещает ряд высокорисковых применений (социальный скоринг, биометрическое наблюдение в публичных местах), обязывает вести документацию и проводить оценку рисков для AI-систем в критических областях.
GDPR — ключевое требование: если вы передаёте персональные данные граждан ЕС в AI-сервис, этот сервис должен гарантировать соответствие GDPR. Корпоративные тарифы ChatGPT, Copilot и Claude это предоставляют; бесплатные версии — нет.
Отраслевые стандарты: финансовый сектор (Basel, PCI DSS), здравоохранение (HIPAA в США), госсектор (ФЗ-152 о персональных данных в России) — каждая отрасль добавляет свои требования поверх базовых.
# Пример: простая проверка текста перед отправкой в AI API
# Не замена DLP-системе, но иллюстрация принципа
import re
SENSITIVE_PATTERNS = [
r'\b\d{16}\b', # Номера карт
r'\b\d{3}-\d{2}-\d{4}\b', # SSN (US)
r'(?i)password\s*[:=]\s*\S+', # Пароли
r'(?i)api[_-]?key\s*[:=]\s*\S+', # API ключи
]
def check_before_sending(text: str) -> tuple[bool, list[str]]:
"""
Возвращает (безопасно, список_проблем)
"""
issues = []
for pattern in SENSITIVE_PATTERNS:
if re.search(pattern, text):
issues.append(f"Найден чувствительный паттерн: {pattern}")
return len(issues) == 0, issues
# Использование
safe, problems = check_before_sending(user_input)
if not safe:
raise ValueError(f"Запрос содержит чувствительные данные: {problems}")
Обучение сотрудников: практические сценарии
Технические контроли не работают без понимания сотрудников. По данным опросов финтех-компаний 2025-2026 годов, 88% организаций планируют инвестировать в обучение по AI-безопасности. Вот несколько сценариев, которые стоит включить в тренинги:
Сценарий 1: “Быстрый перевод” Сотрудник получает контракт на английском и вставляет его в бесплатный ChatGPT для перевода. В контракте — коммерческие условия, имена контрагентов, суммы сделки. Правильное действие: использовать корпоративный AI-инструмент или предварительно анонимизировать документ.
Сценарий 2: “Помоги с письмом” HR-специалист просит AI написать письмо сотруднику по дисциплинарному делу, вставив его полное имя, должность и детали инцидента. Правильное действие: использовать только корпоративный инструмент с подтверждённой приватностью данных.
Сценарий 3: “Анализ таблицы” Аналитик загружает в AI Excel-файл с финансовой отчётностью для автоматического анализа. Правильное действие: убедиться, что используемый сервис соответствует требованиям безопасности; при необходимости — заменить реальные данные на синтетические.
Научите сотрудников задавать три вопроса перед отправкой данных в AI:
- Могу ли я это опубликовать в открытом доступе? (если нет — данные чувствительные)
- Одобрен ли этот AI-сервис корпоративной политикой?
- Есть ли менее чувствительный способ сформулировать задачу? Если хотя бы на один вопрос ответ “нет” — стоп.
Заключение
Безопасное использование AI в корпоративной среде — это не выбор между “запретить всё” и “разрешить всё”. Это выстраивание управляемой среды, в которой AI-инструменты приносят реальную пользу, не создавая неприемлемых рисков.
Ключевые шаги для любой компании:
- Провести инвентаризацию AI-инструментов и классифицировать данные
- Выбрать корпоративные AI-платформы с подтверждёнными гарантиями безопасности
- Внедрить технические контроли (DLP, IAM, мониторинг)
- Разработать понятную политику с конкретными примерами
- Регулярно обучать сотрудников и проводить аудит
AI-инструменты уже стали частью корпоративной инфраструктуры — как email или VPN. И точно так же, как с email, нужны не запреты, а правила гигиены. Компании, которые выстроят эти правила сейчас, получат конкурентное преимущество: сотрудники будут работать эффективнее, а данные — в безопасности.
Источники
- https://habr.com/ru/articles/1000736/
- https://investfuture.ru/articles/finansovye-kompanii-aktiviziruyut-vnedrenie-ai-security-v-otvet-na-ugrozy-2026-goda-2A1F78AA37FFFB0D43258D620019D18A
- https://concentric.ai/chatgpt-security-risks-in-2026-a-guide-to-risks-your-team-might-be-missing/
- https://intuitionlabs.ai/articles/claude-vs-chatgpt-vs-copilot-vs-gemini-enterprise-comparison
- https://learn.microsoft.com/en-us/purview/ai-chatgpt-enterprise