Резкое падение бумаг, связанных с сегментом памяти для вычислений, после появления у Google технологии TurboQuant вызвало волну сомнений у инвесторов. Однако аналитики Bank of America считают, что распродажа во многом носит преувеличенный характер и может открывать окно возможностей для тех, кто ориентируется на долгосрочный спрос на инфраструктуру для ИИ.
Почему инвесторы испугались памяти
Поводом для снижения котировок стали опасения вокруг того, сколько высокоскоростной памяти потребуется дата-центрам для работы моделей искусственного интеллекта. В центре обсуждения оказался так называемый KV cache — служебная память, которая помогает ускорять обработку последовательностей в нейросетях при генерации текста, изображений и других данных. Чем эффективнее управление этим кэшем, тем меньше объем памяти требуется на единицу вычислений.
По мнению Bank of America, реакция рынка на TurboQuant оказалась чрезмерной: технологический прогресс в области сжатия не отменяет фундаментальный фактор спроса на инфраструктуру ИИ.
Позиция Bank of America: акцент не на «эффективности», а на капитальных расходах
В аналитической записке от пятницы экономист и аналитик Vivek Arya отметил, что страхи вокруг потребности в памяти высокой пропускной способности (high-bandwidth memory) недостаточно обоснованы. Смысл аргумента сводится к следующему: реальные планы компаний по наращиванию мощности и закупкам оборудования подтверждаются не только внутренними метриками эффективности, а прежде всего капитальными затратами на ИИ.
Как подчеркнул аналитик, «AI capex остается главным доказательством того, каков реальный уровень расходов и спроса на ИИ — а не показатели эффективности». Здесь capex — это сокращение от capital expenditures, то есть капитальные расходы компаний на строительство и обновление инфраструктуры: дата-центров, серверов, ускорителей и сопутствующих компонентов.
Что делает TurboQuant и почему рынок воспринял это как угрозу
Технология Google TurboQuant, по сути, снижает «вес» KV cache. В материалах компании говорится, что подход позволяет уменьшить footprint (занимаемый объем/требуемую память) примерно в до 6 раз, при этом без потери точности.
Именно это и вызвало реакцию: часть участников рынка решила, что если можно сжимать кэш, то в будущем может понадобиться меньше памяти на один и тот же объем вычислений. В результате бумаги в секторе памяти начали дешеветь быстрее рынка.
Рыночная реакция: падение Micron и снижение индекса SOX
Согласно динамике торгов, акции Micron Technology снизились на 7% в четверг, а более широкий полупроводниковый индикатор SOX упал примерно на 5%. На этом фоне Bank of America предложил смотреть на ситуацию иначе: компрессионные методы, подобные TurboQuant, уже не являются чем-то принципиально новым.
Почему старые техники не означают падение спроса
В комментариях BofA указал, что методы сжатия не появились на рынке внезапно. В частности, банк отмечает, что Google публиковала похожие подходы на протяжении 18 месяцев. То есть речь идет не о полностью новой логике, которая могла бы мгновенно изменить долгосрочный прогноз по закупкам.
Дополнительный аргумент в пользу сохранения спроса — планы по инвестициям. Параллельно с развитием TurboQuant Google удвоила прогноз капитальных расходов на 2026 год: рост составил 100%, а ориентир приблизился к $180 млрд.
Новые ускорители: больше HBM и другие чипы с повышенной памятью
Bank of America также связал дискуссию о памяти с тем, как меняются аппаратные решения для ИИ.
Ожидаемые функции TPU v7 в изложении аналитиков предполагают масштабирование объема памяти. Указывается, что TPU v7 будет иметь 6x больше HBM — 192GB против 32GB у TPUv6.
Кроме того, в заметке отмечено, что в будущих поколениях чипов от Nvidia, AMD и Meta также предусмотрено увеличение объемов памяти. HBM — это High Bandwidth Memory, высокопроизводительная память с широкой пропускной способностью, которая особенно важна для задач ИИ, где важны скорость обмена данными и пропускная способность при работе с большими моделями.
Ставка на то, что эффективность поможет масштабировать модели
В BofA подчеркнули: компания по-прежнему считает, что спрос на ИИ-память остается устойчивым. В их интерпретации выигрыш от сжатия и других оптимизаций чаще всего используется для того, чтобы наращивать масштабы моделей — то есть размещать и обучать более крупные нейросети, а не обязательно урезать потребность в памяти.
Иными словами, снижение требований к памяти на единицу вычислений может привести не к сокращению закупок, а к расширению возможностей — когда индустрия получает «дополнительное пространство» для роста нагрузки.
Урок DeepSeek: опасения по эффективности оказались временными
Отдельно банк сослался на эпизод начала 2025 года, связанный с DeepSeek. Тогда рынок также обсуждал, что технологические прорывы в эффективности могут быстро уменьшить потребность в памяти и ускорителях. Однако, по оценке BofA, эти опасения не материализовались в устойчивое падение спроса: капитальные расходы Китая на ИИ выросли на 66% в 2025 году.
Какие направления и компании BofA выделяет как приоритетные
В качестве областей, где инвесторы могут искать наиболее интересные точки входа, Bank of America назвал несколько сегментов, напрямую связанных с развертыванием ИИ-инфраструктуры: AI compute (вычисления), semicap equipment (оборудование для полупроводниковой отрасли), networking (сетевая инфраструктура) и memory (память).
Среди конкретных компаний в приоритетном списке упомянуты: Nvidia, Broadcom, Advanced Micro Devices, Lam Research, Applied Materials, Marvell Technology и Credo Technology.
Справка: что стоит за термином KV cache и почему его сжатие так важно
- KV cache — это часть вычислительного контура в трансформерных моделях, которая хранит ключи и значения для ускорения последующих шагов обработки последовательности.
- Сжатие KV cache означает уменьшение объема памяти, нужного для хранения этих данных, при сохранении качества результата.
- Если память действительно требуется меньше, рынок ожидает возможной корректировки спроса на чипы и модули памяти. Но, как считают в BofA, общий спрос может компенсироваться ростом капитальных расходов и масштабированием моделей.
Таким образом, логика Bank of America сводится к следующему: даже если технологии вроде TurboQuant уменьшают «вес» памяти в конкретных задачах, это не обязательно ведет к снижению отраслевого спроса. Наоборот, текущие инвестиционные планы и рост объемов памяти в новых поколениях ускорителей могут поддерживать рынок, несмотря на краткосрочные распродажи.
