
Anthropic блокирует аккаунты несовершеннолетних в Claude
Anthropic активно блокирует аккаунты пользователей младше 18 лет на платформе Claude, используя классификаторы и возрастную верификацию.
Anthropic ужесточает контроль возраста на платформе Claude. Пользователи сообщают о блокировках аккаунтов за несоответствие возрастным требованиям — причём даже подписчики платного плана Pro не защищены от бана. Компания использует комбинацию AI-классификаторов и сторонних сервисов верификации для выявления несовершеннолетних.
Что произошло
На Reddit в сообществе r/ClaudeAI пользователь рассказал, что его аккаунт был заблокирован после ручной проверки командой Anthropic. По словам автора поста, для восстановления доступа ему предложили пройти верификацию через сервис Yoti — стороннюю платформу для подтверждения возраста.
Yoti предлагает три способа подтверждения:
- Digital ID — загрузка цифрового удостоверения личности
- Facial Scan — оценка возраста по фотографии лица с помощью AI
- Biometrics — биометрическая верификация
Примечательно, что пользователь утверждает, что ему больше 18 лет и он пытается оспорить блокировку через процедуру апелляции.
Как Anthropic выявляет несовершеннолетних
Согласно официальной документации Anthropic и публикации «Protecting the wellbeing of our users», компания применяет многоуровневый подход к обнаружению несовершеннолетних пользователей.
graph TD
A[Регистрация аккаунта] --> B[Подтверждение возраста 18+]
B --> C[Использование Claude]
C --> D{AI-классификатор анализирует диалоги}
D -->|Прямое упоминание возраста| E[Флаг на ручную проверку]
D -->|Косвенные признаки| F[Углублённый анализ]
D -->|Нет подозрений| C
E --> G[Блокировка аккаунта]
F --> G
G --> H{Апелляция}
H -->|Верификация через Yoti| I[Восстановление доступа]
H -->|Отклонена| J[Аккаунт удалён]
Первый уровень — при регистрации каждый пользователь подтверждает, что ему 18 или больше. В некоторых штатах США магазины приложений (App Store, Google Play) дополнительно верифицируют возраст и передают данные разработчикам.
Второй уровень — AI-классификаторы сканируют активные диалоги. Если пользователь прямо называет свой возраст (например, «мне 16 лет»), аккаунт немедленно отправляется на проверку.
Третий уровень — Anthropic разрабатывает продвинутые классификаторы, которые распознают косвенные признаки несовершеннолетия: упоминания школьных занятий, подростковый сленг, ссылки на родительские ограничения.
Масштабы блокировок
| Показатель | Данные (H2 2025) |
|---|---|
| Заблокировано аккаунтов | ~1,45 млн |
| Подано апелляций | 52 000 |
| Успешных апелляций | 1 700 |
| Процент восстановления | 3,3% |
Данные из отчёта Anthropic Transparency Hub (январь 2026) показывают масштаб модерации. Блокировки касаются не только несовершеннолетних — сюда входят нарушения условий использования, подозрительные платежи и использование неофициальных клиентов.
Контекст: отрасль ужесточает правила
Anthropic не одинока в этом тренде. В конце 2025 года и OpenAI, и Anthropic анонсировали новые инструменты для выявления несовершеннолетних пользователей. Регулирование AI-сервисов в отношении детей и подростков становится одним из ключевых направлений.
Главный вопрос не в том, нужно ли ограничивать доступ несовершеннолетних к AI — а в том, где проходит граница между безопасностью и приватностью.
Помимо возрастных ограничений, Anthropic внедрила классификатор для выявления диалогов, связанных с суицидом и самоповреждением. При срабатывании пользователь видит баннер с контактами служб психологической помощи.
- Проверьте email — Anthropic отправляет уведомление с причиной блокировки
- Подайте апелляцию через форму в письме
- Будьте готовы пройти верификацию возраста (Digital ID или сканирование лица)
- Убедитесь, что возраст в вашем аккаунте Google/Apple указан корректно — Anthropic использует эти данные в некоторых регионах
Выводы
Тренд очевиден: AI-компании переходят от формального «галочку поставил — значит 18+» к реальной верификации. Для обычных пользователей это означает больше трений при регистрации и риск ложных блокировок. Для отрасли — неизбежный этап взросления, особенно на фоне растущего регуляторного давления в США и ЕС.