Акции Intel на торгах в четверг прибавили около 1% после сообщения о многолетнем партнерстве с Google в области искусственного интеллекта и облачной инфраструктуры. В центре сотрудничества — серверные процессоры Intel Xeon и специализированные вычислительные блоки для обработки инфраструктуры, которые дополняют работу ускорителей и помогают эффективнее строить «умные» дата-центры.
О чем договорились Intel и Google
Согласно условиям соглашения, Intel Xeon продолжат оставаться базой для инфраструктуры Google Cloud. Речь идет о поддержке различных типов нагрузок — от задач, связанных с обучением моделей ИИ, до выполнения «инференса» (то есть применения уже обученных моделей) и вычислений общего назначения.
Помимо этого стороны планируют нарастить совместную разработку пользовательских решений на базе ASIC. В этой терминологии важно уточнить: ASIC — это специализированные интегральные схемы, которые проектируются под конкретные функции. В данном случае речь идет о IPU (Infrastructure Processing Unit) — устройствах, ориентированных на обработку инфраструктурных задач, а не на «чистые» вычисления нейросетей.
Как именно используются Xeon в Google Cloud
Сегодня Google Cloud задействует процессоры Intel Xeon в экземплярах, оптимизированных под разные типы рабочих нагрузок. В частности, отмечается, что на платформе используются новейшие Intel Xeon 6, которые применяются в конфигурациях C4 и N4.
Такие решения рассчитаны на широкий спектр сценариев: от координации обучения больших моделей (где критичны надежность, пропускная способность и согласованность ресурсов) до операций с низкой задержкой при инференсе, а также вычислений общего назначения, которым важны стабильность и эффективность.
Зачем нужны IPU на базе ASIC
Ключевая идея IPU — разгрузить центральные процессоры (host CPUs) от задач, связанных с инфраструктурой. К таким функциям относятся обработка сетевых взаимодействий, работа со storage (хранилищем) и функции безопасности. Когда эти обязанности берет на себя специализированный блок, процессор может больше времени отдавать вычислениям, а система в целом становится более предсказуемой по производительности.
В контексте гипермасштабных сред — то есть дата-центров, обслуживающих огромные объемы запросов — предсказуемость особенно важна. IPU должны помочь облачным провайдерам эффективнее масштабировать мощности, высвобождая вычислительный ресурс и упрощая загрузку инфраструктуры.
Позиции компаний
Глава Intel Лип-Бу Тан (Lip-Bu Tan) подчеркнул, что ИИ меняет не только модели, но и подходы к построению и масштабированию инфраструктуры. По его словам, масштабирование ИИ требует не только ускорителей: нужны «сбалансированные системы», в которых процессоры и IPU играют ключевую роль, обеспечивая производительность, энергоэффективность и гибкость, необходимые современным рабочим нагрузкам в сфере ИИ.
Со своей стороны Амин Вахдат (Amin Vahdat), старший вице-президент и главный технолог по AI Infrastructure в Google, отметил, что CPU и ускорение инфраструктуры остаются фундаментом архитектур ИИ. Он также добавил, что Intel является надежным партнером для Google на протяжении почти двух десятилетий.
Что означает партнерство для рынка
Сотрудничество фактически ориентировано на выстраивание согласованной экосистемы на нескольких поколениях Intel Xeon. Главная цель — улучшить показатели производительности и энергоэффективности, а также снизить совокупную стоимость владения (total cost of ownership, TCO). TCO — это суммарные расходы на оборудование и его эксплуатацию: от закупки и обновлений до энергопотребления и обслуживания.
В практическом смысле партнерство Intel и Google отражает общий тренд отрасли: современные платформы для ИИ все чаще рассматриваются как «комплексная инфраструктура», где центральные процессоры, специализированные блоки для инфраструктурной обработки и облачные сервисы должны работать как единый, оптимизированный механизм.
