Anthropic, Google и Broadcom: гигаватты ИИ-вычислений
Anthropic расширяет партнёрство с Google и Broadcom для получения мощностей в несколько гигаватт. Разбираем, что это значит для индустрии ИИ и почему это меняет правила игры.
Гонка за вычислительными мощностями в сфере искусственного интеллекта вступила в новую фазу. Пока весь мир обсуждает модели и бенчмарки, Anthropic тихо делает ход, который может переопределить расстановку сил в ИИ-индустрии на годы вперёд: компания объявила о расширении стратегического партнёрства сразу с двумя технологическими гигантами — Google и Broadcom — для получения доступа к вычислительным мощностям в несколько гигаватт. Это не просто новость о железе. Это заявка на то, чтобы стать одним из ключевых игроков в эпоху, когда масштаб вычислений напрямую определяет качество ИИ-систем.
Почему гигаватты — это новая валюта ИИ
Чтобы понять масштаб происходящего, нужно сначала разобраться, что такое «несколько гигаватт» в контексте ИИ-вычислений. Один современный дата-центр корпоративного уровня потребляет от 100 до 500 МВт энергии. Гигаватт — это мощность средней атомной электростанции. Несколько гигаватт — это беспрецедентный масштаб для одной компании.
Логика простая: современные большие языковые модели (LLM) требуют колоссальных ресурсов не только для обучения, но и для инференса — то есть для ответа на каждый запрос пользователя. Когда у вас миллионы пользователей Claude по всему миру, проблема инфраструктуры становится экзистенциальной. Без достаточных вычислительных мощностей даже самая умная модель превращается в бутылочное горлышко.
«Доступ к вычислительным ресурсам — это не просто техническая проблема. Это стратегический вопрос о том, кто сможет создать следующее поколение ИИ-систем.»
Структура трёхстороннего партнёрства
Сделка Anthropic выстроена вокруг двух ключевых направлений, каждое из которых отвечает за разные уровни инфраструктурного стека.
graph TD
A[Anthropic] --> B[Google Cloud]
A --> C[Broadcom]
B --> D[TPU v5 / v6 Trillium]
B --> E[Облачная инфраструктура]
C --> F[Кастомные ASIC-чипы]
C --> G[Проектирование следующего поколения]
D --> H[Обучение и инференс Claude]
E --> H
F --> I[Масштабирование до нескольких ГВт]
G --> I
H --> J[Продукты Anthropic: Claude API, Claude.ai]
I --> J
Google — облако и специализированные чипы TPU. Партнёрство с Google Cloud существовало и раньше, но теперь оно выходит на принципиально новый уровень. Речь идёт о доступе к чипам TPU (Tensor Processing Units) нового поколения — в частности, к TPU v5 и потенциально к следующей версии Trillium (TPU v6). Google разрабатывал TPU специально под задачи машинного обучения, и они демонстрируют значительные преимущества по энергоэффективности по сравнению с GPU в задачах трансформерных архитектур.
Broadcom — кастомные чипы следующего поколения. Это, пожалуй, самая интригующая часть сделки. Broadcom является одним из мировых лидеров в разработке кастомных ASIC (Application-Specific Integrated Circuits) для ИИ-нагрузок. Компания уже работает с Google над чипами TPU, а теперь будет участвовать в создании специализированного железа под нужды Anthropic. Это означает, что Anthropic движется в сторону вертикальной интеграции — получения чипов, оптимизированных именно под архитектуру и требования моделей Claude.
Что это даёт Anthropic стратегически
Для понимания стратегической логики сравним позиции ключевых игроков ИИ-рынка в части вычислительного обеспечения:
| Компания | Собственные чипы | Облачный партнёр | Энергетические мощности |
|---|---|---|---|
| OpenAI | Нет (пока) | Microsoft Azure + NVIDIA | ~200 МВт (оценочно) |
| Google DeepMind | TPU (Google) | Google Cloud | Несколько ГВт |
| Meta AI | MTIA (в разработке) | Собственные ЦОД | ~1–2 ГВт |
| Amazon (Trainium) | Trainium, Inferentia | AWS | ~1–1,5 ГВт |
| Anthropic | Через Broadcom | Google Cloud | Несколько ГВт (план) |
Партнёрство решает для Anthropic сразу несколько критических проблем:
1. Независимость от дефицита NVIDIA GPU. NVIDIA H100 и H200 по-прежнему остаются в дефиците, цены на аренду держатся на уровне $2–4 в час за чип. Опираясь на TPU и кастомные ASIC через Broadcom, Anthropic снижает зависимость от этого узкого места.
2. Стоимость инференса. Один из ключевых барьеров для коммерциализации Claude — высокая стоимость обработки запросов. Специализированные чипы потенциально могут снизить cost-per-token в разы.
3. Конкурентные позиции в «гонке масштаба». Многие исследователи считают, что следующий скачок в возможностях ИИ потребует на порядки больше вычислений. Кто успеет зарезервировать мощности сейчас — тот получит преимущество.
Технический контекст: чем TPU лучше GPU для больших моделей
Чтобы понять, почему ставка на Google TPU и кастомные ASIC — это не просто политическое решение, стоит разобраться в архитектурных различиях.
GPU (NVIDIA H100/H200) изначально проектировались для графики и лишь потом адаптировались под ML-нагрузки. Они универсальны, но «универсальность» стоит денег в виде дополнительных транзисторов и энергопотребления. TPU и ASIC изначально заточены под матричные вычисления — основу трансформерных архитектур.
Ключевые преимущества специализированных чипов для LLM-задач:
- Энергоэффективность: TPU v5e демонстрирует до 2× лучший показатель FLOPS/Watt по сравнению с H100 на трансформерных нагрузках
- Пропускная способность памяти: Специализированная HBM-конфигурация снижает узкие места при работе с большими матрицами весов
- Стоимость: При производстве в масштабе кастомные ASIC дешевле в эксплуатации, чем GPU
Экологический и регуляторный контекст
Несколько гигаватт — это не только техническое достижение, но и серьёзный вызов. При средней углеродной интенсивности электросетей США (около 386 г CO₂/кВтч) 3 ГВт непрерывной нагрузки генерируют около 10 млн тонн CO₂ в год. Это сопоставимо с выбросами небольшой страны.
Anthropic последовательно позиционирует себя как «ответственная» ИИ-компания. Это создаёт определённое напряжение: как совместить принципы безопасного и этичного ИИ с экологическим следом в несколько гигаватт?
Скорее всего, ответ будет в стратегии «чистой энергии» — Google уже обязался работать на 100% возобновляемой энергии, и партнёрство с ним может отчасти снять остроту этого вопроса. Broadcom также активно инвестирует в энергоэффективные архитектуры.
Регуляторная сторона вопроса тоже важна. США активно обсуждают экспортный контроль над передовыми ИИ-чипами и вычислительными мощностями. Ориентация на американских партнёров — Google и Broadcom — потенциально упрощает регуляторный ландшафт для Anthropic и снижает риски, связанные с возможными ограничениями.
Что это означает для рынка и конкурентов
Шаг Anthropic неизбежно ускорит гонку вооружений в части инфраструктуры. Несколько важных следствий:
Для OpenAI: Microsoft и OpenAI уже инвестируют в проект Stargate — инициативу на $500 млрд по строительству ИИ-инфраструктуры. Партнёрство Anthropic с Google и Broadcom усилит давление на Microsoft в сторону ещё более агрессивных инвестиций в Azure.
Для стартапов и менее крупных игроков: Концентрация вычислительных мощностей в руках двух-трёх компаний создаёт серьёзные барьеры для входа. Стартапы, не имеющие доступа к подобной инфраструктуре, будут вынуждены специализироваться на задачах, где масштаб менее критичен — например, нишевые приложения, дообучение (fine-tuning) или инференс на краю сети.
Для пользователей API: В краткосрочной перспективе — минимальные изменения. В среднесрочной — вероятное снижение цен на токены по мере масштабирования инфраструктуры и роста операционной эффективности.
Для Broadcom: Это подтверждает статус компании как ключевого игрока в экосистеме кастомных ИИ-чипов — наряду с уже существующими контрактами с Google (TPU), Meta и потенциально другими гиперскейлерами.
Выводы
Партнёрство Anthropic с Google и Broadcom — это не просто новость о железе и инфраструктуре. Это стратегический сигнал о том, в каком направлении движется индустрия в целом.
Три ключевых вывода:
1. Вычислительная мощность становится стратегическим активом первого порядка. Компании, контролирующие гигаватты, будут контролировать возможности следующего поколения ИИ. Anthropic делает ставку на то, что этот разрыв только увеличится.
2. Вертикальная интеграция в кремний — новая норма для ведущих ИИ-лабораторий. Google TPU, Meta MTIA, Amazon Trainium, теперь кастомные чипы через Broadcom для Anthropic — разработка специализированного железа перестала быть уделом только чипмейкеров.
3. Партнёрства важнее, чем полная независимость. Anthropic не строит собственные фабрики и не создаёт дата-центры «с нуля» — компания работает через партнёров с уже существующей инфраструктурой и экспертизой. Это позволяет сохранить фокус на ключевой компетенции — разработке безопасных и эффективных ИИ-систем.
Для тех, кто следит за развитием ИИ: эта сделка — один из важнейших индикаторов того, что «мирный» период в ИИ-гонке заканчивается. Следующие два-три года определят, кто войдёт в элитный клуб компаний, способных создавать модели фронтира. И вычислительные мощности в несколько гигаватт — входной билет в этот клуб.