Как Anthropic «развела» 2,5 млн пользователей ChatGPT

В конце февраля 2026 года разразился один из крупнейших потребительских скандалов в истории ИИ-индустрии. OpenAI подписала соглашение с американским Министерством обороны (переименованным администрацией Трампа в «Министерство войны»), а Anthropic отказалась — и внезапно оказалась главным бенефициаром волны народного гнева. Пользователи Reddit сейчас задаются неудобным вопросом: а не была ли вся эта история аккуратно срежиссирована?


Что произошло: хронология событий


timeline
    title Хронология скандала QuitGPT
    27 февраля 2026 : Anthropic отказывается от сделки с Пентагоном
    28 февраля 2026 : OpenAI заключает соглашение с Министерством войны США
    28 февраля 2026 : ChatGPT теряет 295% удалений за один день — Claude выходит на #1 в App Store
    1 марта 2026 : Движение QuitGPT набирает более 1,5 млн участников
    2 марта 2026 : Anthropic делает функцию импорта памяти бесплатной для всех
    3 марта 2026 : Сэм Альтман признаёт сделку «оппортунистической и небрежной»
    4 марта 2026 : IT Industry Council требует снять с Anthropic статус «риска цепочки поставок»

27 февраля Anthropic отказалась предоставить Пентагону неограниченный доступ к своему ИИ для массовой слежки за американцами и создания автономного летального оружия. Уже через несколько часов генеральный директор ChatGPT Сэм Альтман принял условия Пентагона.

Движение бойкота под названием QuitGPT задокументировало более 2,5 млн человек, которые пообещали отменить подписки, удалить приложение или публично распространить информацию о бойкоте. Впервые в истории Claude — ИИ-ассистент от Anthropic — поднялся на первое место в американском App Store, обогнав ChatGPT.


Кто выиграл — и стоит ли этому удивляться?

⚠ Неудобный вопрос
Пользователи Reddit задались вопросом: не финансировала ли Anthropic само движение QuitGPT? Официальных подтверждений нет, но хронология событий вызывает вопросы.

Anthropic обновила инструмент, позволяющий пользователям импортировать настройки и память из конкурирующих чат-ботов, — именно в тот момент, когда спор с военными вывел Claude на вершину чартов. 2 марта 2026 года Anthropic сделала функцию импорта памяти бесплатной для всех пользователей, максимально упростив переход с ChatGPT: функция позволяла перенести сохранённый контекст разговоров и предпочтения прямо в Claude.

Количество платных подписчиков Anthropic более чем удвоилось за неделю бойкота — это подтверждено самой компанией.

«Я перешёл на этичную альтернативу» — хаха, упс. — Пользователь Reddit, r/ChatGPT

При этом история имеет важный контекст: кампания «Keep Thinking» («Продолжай думать»), созданная независимым агентством Mother, стала первым платным рекламным усилием Anthropic. Многомиллионная кампания запустилась на международных рынках ещё в сентябре 2025 года. То есть Anthropic заблаговременно выстраивала имидж «этичной альтернативы» — и скандал с Пентагоном пришёлся как нельзя кстати.


Насколько обоснованы претензии к OpenAI?

ℹ Позиция OpenAI
OpenAI утверждает, что её соглашение с Министерством обороны содержит те же «красные линии», на которых настаивала Anthropic, — запрет массовой слежки и полностью автономного оружия. Пользователи скептически восприняли эти заверения.

Президент OpenAI Грег Брокман и его супруга пожертвовали $25 млн в MAGA Inc в 2025 году, а генеральный директор Сэм Альтман — $1 млн в инаугурационный фонд Трампа. Именно это стало главным аргументом для многих покидающих платформу.

Стоит отметить, что OpenAI — не единственная компания, допускающая использование своего ИИ в военных целях: Google, например, тихо убрала прямой запрет на подобные применения из своих внутренних правил.

Сравнение позиций крупных игроков

КомпанияПозиция по военному использованиюСтатус в App Store (март 2026)
Anthropic (Claude)Жёсткие ограничения: нет слежке, нет автооружию#1 (впервые)
OpenAI (ChatGPT)Соглашение с DoW, «красные линии» декларируютсяПотеря позиций
Google (Gemini)Убрала явный запрет на военное применениеБез изменений
xAI (Grok)Соглашение с военными по засекреченным системамБез изменений
Meta (Llama) / MistralOpen-source, контроль у пользователяРост интереса

Почему бойкот не заглох — в отличие от обычных

💡 Почему QuitGPT устойчивее других бойкотов
Обычно технологические бойкоты затухают через неделю — люди возвращаются, потому что альтернативы хуже. В случае с ChatGPT и Claude ситуация иная: переход почти не требует усилий.

Стоимость переключения в мире ИИ-ассистентов исключительно низка: в отличие от корпоративного ПО, где миграция данных создаёт мощный «замок», переход с одного чат-бота на другой требует не больше, чем открыть новую вкладку в браузере.

Альтернатива действительно конкурентоспособна — Claude не является деградацией по сравнению с ChatGPT. Для пользователей, наиболее склонных платить $20 в месяц, — разработчиков, исследователей, писателей и работников умственного труда — Claude показывает сопоставимые или лучшие результаты в задачах, которые важны им больше всего: качество кода, анализ документов, работа с длинным контекстом и следование инструкциям.


Что это значит для отрасли

📝 Урок для всей индустрии
Скандал наглядно показал: в эпоху, когда ИИ-ассистенты практически взаимозаменяемы технически, победит тот, кто выиграет битву за доверие и ценности. Позиционирование через этику — это не просто PR, это стратегическое конкурентное преимущество.

Критерии выбора ИИ-инструментов стремительно смещаются от простого «удобства» к «корпоративной этике и прозрачности». В рынке, где каждая ИИ-компания гонится за скоростью выпуска и масштабом, вся идентичность Anthropic строится на одном контраргументе: а что, если ответственная разработка — это и есть конкурентное преимущество?

Пользователи Reddit правы, задаваясь неудобным вопросом о том, случайно ли всё совпало. Но даже если предположить идеальное стечение обстоятельств — урок для индустрии однозначен: репутация строится годами, а капитализируется в один момент.