Broadcom объявила о крупных договоренностях в сфере кастомных чипов для искусственного интеллекта. Компания подписала долгосрочные соглашения с Google и Anthropic, предусматривающие разработку и поставки будущих поколений специализированных компонентов для AI-инфраструктуры, которая будет использоваться в новых стойках (racks) — так называют серверные шкафы, объединяющие вычислительные модули в дата-центрах.
Соглашение с Google: кастомные ИИ-чипы до 2031 года
По условиям сделки, Broadcom будет разрабатывать и поставлять будущие поколения собственных чипов и других компонентов для следующего поколения AI racks Google. Горизонт соглашения рассчитан до 2031 года.
Речь идет о специализированной «начинке» под конкретные задачи в ИИ. Такие решения часто называют custom AI chips — чипы, оптимизированные под определенную архитектуру и сценарии вычислений, чтобы ускорять обучение моделей и их дальнейший запуск.
Партнерство с Anthropic: доступ к 3,5 ГВт вычислительной мощности с 2027 года
Отдельный контракт Broadcom заключила с Anthropic — компанией, известной своей моделью Claude. По данным условий, Anthropic получит доступ примерно к 3,5 гигаватта (ГВт) вычислительной мощности для ИИ-вычислений, опираясь на AI-процессоры Google. Использование мощностей предполагается начать в 2027 году.
Показатель в гигаваттах обычно отражает масштаб энергетических возможностей дата-центров и косвенно характеризует объем вычислительных ресурсов, которые могут быть выделены под тренировки и работу моделей.
Финансовые детали не раскрыты
Суммы сделок и прочие финансовые условия обеих договоренностей стороны не публиковали.
Реакция рынка
После объявления о соглашениях акции Broadcom в расширенных торгах прибавляли около 3%.
Почему спрос на кастомные чипы растет
Интерес к специализированным решениям, включая тензорные процессоры Google — TPU (Tensor Processing Units), заметно увеличился в последние годы. TPU применяются для вычислений при работе с ИИ-нагрузками, а их популярность объясняется стремлением компаний искать альтернативы дорогим графическим процессорам.
Под «альтернативой» в индустрии чаще всего подразумевается желание снизить стоимость владения инфраструктурой и улучшить эффективность под конкретные типы вычислений, особенно на больших объемах данных и при постоянных запусках моделей.
Контекст: TPUs как ставка Google в гонке за ИИ-вычислениями
TPU стали для Google важной опорой в облачной стратегии. На фоне того, что клиенты активно переносят ИИ-нагрузки в облако, собственные чипы дают провайдеру возможность оптимизировать экономику сервиса и доказать инвесторам, что вложения в ИИ превращаются в измеримый результат.
Google продвигает TPU как жизнеспособную альтернативу GPU, которые доминируют в отрасли благодаря универсальности и масштабной экосистеме. Однако специализированные ускорители нередко выигрывают в производительности и стоимости на определенных типах задач.
Что сказал Anthropic: инвестиции в инфраструктуру США
Anthropic, комментируя договоренности, подчеркнула, что новый контракт опирается на ее план инвестировать $50 миллиардов в укрепление вычислительной инфраструктуры в США. Подобные заявления обычно связаны как с расширением мощностей для обучения моделей, так и с созданием долгосрочной технологической базы для дальнейшего развития.
Рост Claude и «железная» гибкость Anthropic
Компания также сообщила, что спрос на ее ИИ-модель Claude ускорился в 2026 году. При этом текущая выручка в пересчете на годовой темп (run-rate) превысила $30 миллиардов — это больше примерно $9 миллиардов по итогам 2025 года.
Кроме того, Anthropic отмечает, что обучает и запускает Claude на разных типах вычислительного оборудования. В перечень входят Trainium от Amazon Web Services, TPU от Google и GPU компании Nvidia.
При этом Amazon остается для Anthropic ключевым облачным провайдером и партнером по обучению моделей.
