Ставки на инфраструктуру для искусственного интеллекта продолжают расти: Bank of America пересмотрел прогноз по рынку AI-датацентров и ряду ключевых сегментов, связанных с чипами и сетями. В фокусе — не только вычисления для обучения и работы моделей, но и то, как будут сосуществовать разные типы ускорителей, памяти и архитектур в стойках дата-центров. По оценке банка, к 2030 году общий масштаб рынка может приблизиться к 1,7 трлн долларов.
Прогноз Bank of America: рынок AI-датацентров к 2030 году
Финансовая организация повысила оценку рынка систем для AI-датацентров примерно до 1,7 трлн долларов к 2030 году. Ранее ожидания были более скромными — около 1,4 трлн. В пересмотренных расчетах это соответствует среднегодовому темпу роста (CAGR) около 45% — то есть бизнес может увеличиваться примерно на 45% в год в среднем на протяжении прогнозного периода.
Отдельно Bank of America выделяет несколько причин оптимизма по ближайшим годам. Ожидается, что в 2026 году ускорятся продажи решений для AI и начнутся более заметные возвраты инвестиций (ROI) — то есть эффект от вложений в инфраструктуру станет измеримее для клиентов дата-центров и разработчиков.
Дополнительный позитивный фактор — планируемые первичные размещения акций (IPO) у компаний OpenAI и Anthropic. Такие события банк рассматривает как индикатор зрелости отрасли и как стимул для роста интереса инвесторов к поставщикам инфраструктуры и технологий.
На 2027 год в прогнозе приходится ставка на улучшение токеномики и эффективности — в частности, благодаря появлению новых архитектурных решений в вычислениях и памяти. Простыми словами, речь о том, что новые поколения чипов и модулей могут обеспечить больше производительности на единицу стоимости и энергии.
Что именно пересмотрено: ускорители, CPU и сети
Помимо общего масштаба рынка, банк уточнил ожидания по нескольким технологическим направлениям.
- AI-ускорители (accelerators): прогноз повышен до примерно 1,2 трлн долларов с 1,0 трлн. Рост связывается с увеличением поставок заказных ASIC для гиперскейлеров — крупных облачных провайдеров, которые разрабатывают собственные чипы под свои нужды.
- Примеры заказных ASIC: упомянуты Google TPU и AWS Trainium — специализированные ускорители, ориентированные на задачи машинного обучения.
- CPU для серверов дата-центров: прогноз увеличен до около 110 млрд долларов. При этом доля AI-CPU — то есть центральных процессоров, рассчитанных на задачи искусственного интеллекта, — оценивается в 88 млрд долларов против 80 млрд.
- AI-сети (networking): оценка поднята до примерно 316 млрд долларов с 240 млрд. Идея в том, что для крупных AI-нагрузок критически важны пропускная способность и задержки в сетевой инфраструктуре.
Почему “диверсификация” железа важна для роста рынка
Отдельный акцент в обновленном прогнозе — на том, что расширение номенклатуры компонентов (вычисления, память и коммуникации) будет “добавляться” к общему рынку, а не заменять уже существующие решения. Это связано с тем, что AI-загрузки неоднородны: разные модели, рабочие режимы и требования к скорости/энергопотреблению заставляют дата-центры комбинировать компоненты.
Bank of America ожидает, что CPU будут работать в связке с уже существующими стойками GPU-CPU — то есть архитектура дата-центров будет усложняться, а не упрощаться. В то же время предполагается параллельное развитие разных типов памяти:
- SRAM-модули с сверхнизкой задержкой (ultra-low-latency) будут присутствовать в стойках, рассчитанных на быстрый доступ к данным.
- HBM-память (High Bandwidth Memory) — то есть высокоскоростная память с широкой полосой пропускания — будет использоваться в стойках с GPU.
В практическом плане это означает, что поставщикам компонентов придется конкурировать не только за “главный” ускоритель, но и за место в общей компоновке: где-то ключевыми станут решения для памяти с минимальной задержкой, где-то — HBM под задачи GPU.
Финансовые ориентиры по Micron и другим компаниям
Помимо рыночных оценок, банк пересмотрел и индивидуальные цели по ряду публичных компаний.
Micron Technology: новый таргет и логика “суммы частей”
Bank of America повысил ценовой ориентир для Micron Technology (NASDAQ: MU) до 950 долларов с 500. Решение основано на методе sum-of-parts — подходе, при котором бизнес компании оценивается как сумма разных направлений (например, отдельно производство памяти для AI и отдельно “традиционные” сегменты).
Новая структура оценки включает:
- сегмент sustainable AI и HBM: около 240 долларов за акцию;
- традиционные направления DRAM и NAND: примерно 710 долларов за акцию.
Top picks: кого банк выделяет в секторе
В перечне наиболее предпочтительных бумаг (top picks) Bank of America оставил несколько ключевых игроков полупроводникового и инфраструктурного сегмента.
- Nvidia (NASDAQ: NVDA): таргет повышен до 320 с 300.
- Broadcom (NASDAQ: AVGO): упомянута как один из приоритетов, без изменения в предоставленных данных.
- Micron Technology: также входит в топ-выбор банка.
- Advanced Micro Devices (NASDAQ: AMD): в списке приоритетов.
- Marvell Technology (NASDAQ: MRVL): таргет повышен до 200 с 125.
Контекст: что стоит за ростом и почему важны IPO
Инфраструктура для AI — это “невидимый” слой технологий, который определяет, сколько вычислений можно получить и как быстро данные будут передаваться между компонентами. Когда компании вкладываются в дата-центры, они покупают не только ускорители, но и целые комплексы: серверные CPU, память разных типов (включая HBM и SRAM), сетевые решения и специализированные архитектуры.
Ожидания по IPO OpenAI и Anthropic банк рассматривает как часть более широкого процесса: чем выше публичная капитализация и финансовая прозрачность ведущих игроков в AI, тем активнее рынок может финансировать цепочку поставок — от чипов и памяти до сетевой инфраструктуры.
В итоге пересмотр прогнозов Bank of America выглядит как сигнал: отрасль переходит от “экспериментов с моделями” к масштабированию инфраструктуры, где выигрывают те, кто способен поставлять компоненты под растущие и усложняющиеся AI-нагрузки.
