Компания Uber объявила о расширении сотрудничества с Amazon, сделав ставку на специализированное «железо» для ускорения вычислений и более эффективного обучения искусственного интеллекта. Решение связано с ростом цифровых нагрузок в сервисе: чем больше данных обрабатывает платформа, тем критичнее становится скорость работы дата-центров и точность алгоритмов, которые отвечают за рекомендации, подбор поездок и работу приложений.
Какие чипы будут использовать в Uber
По словам Amazon, Uber начнет применять разработанные компанией чипы для задач, где важны производительность и энергоэффективность. Речь идет о двух направлениях: обработке данных и обучении моделей ИИ.
- Graviton — процессоры семейства Amazon Web Services, которые Uber будет использовать для поддержки сервисов, связанных с доставками и поездками. Ожидаемый эффект — более плавная работа и ускорение вычислений в облачной инфраструктуре.
- Trainium — специализированные процессоры для обучения нейросетей. Они нужны, чтобы «обучать» модели искусственного интеллекта, которые затем применяются в приложениях Uber.
Расширение облачного партнерства
Новый контракт фактически углубляет уже существующую облачную договоренность между компаниями. В рамках сотрудничества Uber получает возможность задействовать мощности Amazon Web Services более точечно — под конкретные вычислительные задачи.
Если объяснять простыми словами, то в облачных системах есть два типа операций:
- Инференс — применение обученной модели к новым данным (например, подбор наиболее подходящей поездки или рекомендации в приложении).
- Тренировка — обучение модели на больших массивах данных, чтобы она лучше распознавала закономерности и принимала решения. Именно для этого и предназначены Trainium.
Зачем Uber ускоряет вычисления
Uber, по сути, пытается оптимизировать ключевые части своей цифровой «машины»: интерфейс, скорость сопоставления запросов пассажиров и водителей, а также персонализацию. В подобных сервисах даже небольшая задержка может означать хуже подобранный маршрут, снижение качества рекомендаций и дополнительные издержки на вычисления.
В сообщении компании акцент делается на трех практических целях:
- Оптимизация цифрового интерфейса — чтобы приложение работало быстрее и предсказуемее.
- Ускорение подбора поездок — сокращение времени между запросом пользователя и нахождением подходящего варианта.
- Персонализация — более точные рекомендации и предложения, основанные на поведении и предпочтениях пользователей.
Параллельная стратегия Amazon
Для Amazon это также часть более широкой стратегии: компания активно вкладывается в продвижение собственных разработок в области чипов и стремится привлечь корпоративных клиентов. Логика проста — спрос на вычисления для искусственного интеллекта продолжает расти, а предприятиям нужны решения, которые ускоряют обучение моделей и делают инфраструктуру более экономичной.
Фокус сделан на том, чтобы использовать растущий интерес рынка к обучению и применению ИИ-моделей (в том числе для задач аналитики, рекомендаций и автоматизации) и превратить его в долгосрочную клиентскую базу для облачных сервисов.
Контекст: почему «кастомные» чипы важны
В последние годы крупные облачные игроки все чаще переходят к специализированным процессорам вместо универсальных решений. «Кастомные» чипы — это аппаратная архитектура, созданная под конкретные задачи: обучение нейросетей, ускорение обработки данных или выполнение типовых вычислительных операций. Как правило, такие решения позволяют добиться лучшего соотношения производительности и стоимости, а также снизить энергопотребление на единицу вычислений.
Именно поэтому Uber, развивая ИИ-функции и увеличивая объем данных, выбирает аппаратную платформу, способную работать быстрее и эффективнее — и закрепляет это через расширение сотрудничества с Amazon Web Services.
