Гонка за вычислительными мощностями в сфере искусственного интеллекта вступила в новую фазу. Пока весь мир обсуждает модели и бенчмарки, Anthropic тихо делает ход, который может переопределить расстановку сил в ИИ-индустрии на годы вперёд: компания объявила о расширении стратегического партнёрства сразу с двумя технологическими гигантами — Google и Broadcom — для получения доступа к вычислительным мощностям в несколько гигаватт. Это не просто новость о железе. Это заявка на то, чтобы стать одним из ключевых игроков в эпоху, когда масштаб вычислений напрямую определяет качество ИИ-систем.

Почему гигаватты — это новая валюта ИИ

Чтобы понять масштаб происходящего, нужно сначала разобраться, что такое «несколько гигаватт» в контексте ИИ-вычислений. Один современный дата-центр корпоративного уровня потребляет от 100 до 500 МВт энергии. Гигаватт — это мощность средней атомной электростанции. Несколько гигаватт — это беспрецедентный масштаб для одной компании.

ℹ Для понимания масштаба
1 гигаватт (ГВт) = 1000 мегаватт. Средняя АЭС производит около 1 ГВт. Крупнейшие существующие ИИ-кластеры сегодня работают в диапазоне 100–500 МВт. Заявка Anthropic на «несколько гигаватт» означает потенциальное создание самой энергоёмкой ИИ-инфраструктуры в истории.

Логика простая: современные большие языковые модели (LLM) требуют колоссальных ресурсов не только для обучения, но и для инференса — то есть для ответа на каждый запрос пользователя. Когда у вас миллионы пользователей Claude по всему миру, проблема инфраструктуры становится экзистенциальной. Без достаточных вычислительных мощностей даже самая умная модель превращается в бутылочное горлышко.

«Доступ к вычислительным ресурсам — это не просто техническая проблема. Это стратегический вопрос о том, кто сможет создать следующее поколение ИИ-систем.»

Структура трёхстороннего партнёрства

Сделка Anthropic выстроена вокруг двух ключевых направлений, каждое из которых отвечает за разные уровни инфраструктурного стека.


graph TD
    A[Anthropic] --> B[Google Cloud]
    A --> C[Broadcom]
    B --> D[TPU v5 / v6 Trillium]
    B --> E[Облачная инфраструктура]
    C --> F[Кастомные ASIC-чипы]
    C --> G[Проектирование следующего поколения]
    D --> H[Обучение и инференс Claude]
    E --> H
    F --> I[Масштабирование до нескольких ГВт]
    G --> I
    H --> J[Продукты Anthropic: Claude API, Claude.ai]
    I --> J

Google — облако и специализированные чипы TPU. Партнёрство с Google Cloud существовало и раньше, но теперь оно выходит на принципиально новый уровень. Речь идёт о доступе к чипам TPU (Tensor Processing Units) нового поколения — в частности, к TPU v5 и потенциально к следующей версии Trillium (TPU v6). Google разрабатывал TPU специально под задачи машинного обучения, и они демонстрируют значительные преимущества по энергоэффективности по сравнению с GPU в задачах трансформерных архитектур.

Broadcom — кастомные чипы следующего поколения. Это, пожалуй, самая интригующая часть сделки. Broadcom является одним из мировых лидеров в разработке кастомных ASIC (Application-Specific Integrated Circuits) для ИИ-нагрузок. Компания уже работает с Google над чипами TPU, а теперь будет участвовать в создании специализированного железа под нужды Anthropic. Это означает, что Anthropic движется в сторону вертикальной интеграции — получения чипов, оптимизированных именно под архитектуру и требования моделей Claude.

Что это даёт Anthropic стратегически

Для понимания стратегической логики сравним позиции ключевых игроков ИИ-рынка в части вычислительного обеспечения:

КомпанияСобственные чипыОблачный партнёрЭнергетические мощности
OpenAIНет (пока)Microsoft Azure + NVIDIA~200 МВт (оценочно)
Google DeepMindTPU (Google)Google CloudНесколько ГВт
Meta AIMTIA (в разработке)Собственные ЦОД~1–2 ГВт
Amazon (Trainium)Trainium, InferentiaAWS~1–1,5 ГВт
AnthropicЧерез BroadcomGoogle CloudНесколько ГВт (план)

Партнёрство решает для Anthropic сразу несколько критических проблем:

1. Независимость от дефицита NVIDIA GPU. NVIDIA H100 и H200 по-прежнему остаются в дефиците, цены на аренду держатся на уровне $2–4 в час за чип. Опираясь на TPU и кастомные ASIC через Broadcom, Anthropic снижает зависимость от этого узкого места.

2. Стоимость инференса. Один из ключевых барьеров для коммерциализации Claude — высокая стоимость обработки запросов. Специализированные чипы потенциально могут снизить cost-per-token в разы.

3. Конкурентные позиции в «гонке масштаба». Многие исследователи считают, что следующий скачок в возможностях ИИ потребует на порядки больше вычислений. Кто успеет зарезервировать мощности сейчас — тот получит преимущество.

💡 Для разработчиков
Если вы строите продукты на базе Claude API, расширение вычислительной инфраструктуры Anthropic в долгосрочной перспективе означает более низкие цены на токены, лучшую доступность и меньшие задержки. Следите за обновлениями в разделе ценообразования на console.anthropic.com.

Технический контекст: чем TPU лучше GPU для больших моделей

Чтобы понять, почему ставка на Google TPU и кастомные ASIC — это не просто политическое решение, стоит разобраться в архитектурных различиях.

GPU (NVIDIA H100/H200) изначально проектировались для графики и лишь потом адаптировались под ML-нагрузки. Они универсальны, но «универсальность» стоит денег в виде дополнительных транзисторов и энергопотребления. TPU и ASIC изначально заточены под матричные вычисления — основу трансформерных архитектур.

Ключевые преимущества специализированных чипов для LLM-задач:

  • Энергоэффективность: TPU v5e демонстрирует до 2× лучший показатель FLOPS/Watt по сравнению с H100 на трансформерных нагрузках
  • Пропускная способность памяти: Специализированная HBM-конфигурация снижает узкие места при работе с большими матрицами весов
  • Стоимость: При производстве в масштабе кастомные ASIC дешевле в эксплуатации, чем GPU
⚠ Важный нюанс
Кастомные чипы под конкретную архитектуру — это стратегия с высоким риском. Если Anthropic существенно изменит архитектуру следующих поколений Claude (например, перейдёт к принципиально новым подходам beyond трансформеров), оптимизированное под старую архитектуру железо может стать обузой. Именно поэтому партнёрство с Broadcom, а не полностью собственная разработка — более гибкое решение.

Экологический и регуляторный контекст

Несколько гигаватт — это не только техническое достижение, но и серьёзный вызов. При средней углеродной интенсивности электросетей США (около 386 г CO₂/кВтч) 3 ГВт непрерывной нагрузки генерируют около 10 млн тонн CO₂ в год. Это сопоставимо с выбросами небольшой страны.

Anthropic последовательно позиционирует себя как «ответственная» ИИ-компания. Это создаёт определённое напряжение: как совместить принципы безопасного и этичного ИИ с экологическим следом в несколько гигаватт?

Скорее всего, ответ будет в стратегии «чистой энергии» — Google уже обязался работать на 100% возобновляемой энергии, и партнёрство с ним может отчасти снять остроту этого вопроса. Broadcom также активно инвестирует в энергоэффективные архитектуры.

Регуляторная сторона вопроса тоже важна. США активно обсуждают экспортный контроль над передовыми ИИ-чипами и вычислительными мощностями. Ориентация на американских партнёров — Google и Broadcom — потенциально упрощает регуляторный ландшафт для Anthropic и снижает риски, связанные с возможными ограничениями.

📝 Аналогия из энергетики
Происходящее напоминает эпоху строительства железных дорог в XIX веке. Тогда компании, успевшие проложить пути через ключевые маршруты, получили долгосрочное структурное преимущество. Сегодня «рельсами» являются вычислительные мощности, а «поезда» — это ИИ-модели. Кто первым построит инфраструктуру — тот и определяет правила движения.

Что это означает для рынка и конкурентов

Шаг Anthropic неизбежно ускорит гонку вооружений в части инфраструктуры. Несколько важных следствий:

Для OpenAI: Microsoft и OpenAI уже инвестируют в проект Stargate — инициативу на $500 млрд по строительству ИИ-инфраструктуры. Партнёрство Anthropic с Google и Broadcom усилит давление на Microsoft в сторону ещё более агрессивных инвестиций в Azure.

Для стартапов и менее крупных игроков: Концентрация вычислительных мощностей в руках двух-трёх компаний создаёт серьёзные барьеры для входа. Стартапы, не имеющие доступа к подобной инфраструктуре, будут вынуждены специализироваться на задачах, где масштаб менее критичен — например, нишевые приложения, дообучение (fine-tuning) или инференс на краю сети.

Для пользователей API: В краткосрочной перспективе — минимальные изменения. В среднесрочной — вероятное снижение цен на токены по мере масштабирования инфраструктуры и роста операционной эффективности.

Для Broadcom: Это подтверждает статус компании как ключевого игрока в экосистеме кастомных ИИ-чипов — наряду с уже существующими контрактами с Google (TPU), Meta и потенциально другими гиперскейлерами.

Выводы

Партнёрство Anthropic с Google и Broadcom — это не просто новость о железе и инфраструктуре. Это стратегический сигнал о том, в каком направлении движется индустрия в целом.

Три ключевых вывода:

1. Вычислительная мощность становится стратегическим активом первого порядка. Компании, контролирующие гигаватты, будут контролировать возможности следующего поколения ИИ. Anthropic делает ставку на то, что этот разрыв только увеличится.

2. Вертикальная интеграция в кремний — новая норма для ведущих ИИ-лабораторий. Google TPU, Meta MTIA, Amazon Trainium, теперь кастомные чипы через Broadcom для Anthropic — разработка специализированного железа перестала быть уделом только чипмейкеров.

3. Партнёрства важнее, чем полная независимость. Anthropic не строит собственные фабрики и не создаёт дата-центры «с нуля» — компания работает через партнёров с уже существующей инфраструктурой и экспертизой. Это позволяет сохранить фокус на ключевой компетенции — разработке безопасных и эффективных ИИ-систем.

Для тех, кто следит за развитием ИИ: эта сделка — один из важнейших индикаторов того, что «мирный» период в ИИ-гонке заканчивается. Следующие два-три года определят, кто войдёт в элитный клуб компаний, способных создавать модели фронтира. И вычислительные мощности в несколько гигаватт — входной билет в этот клуб.