► Подписывайтесь на телеграм-канал «Минфина»: главные финансовые новости

Детали потенциальной сделки

По информации источников, Meta ведет активные переговоры о закупке чипов Google, известных как TPU (Tensor Processing Units). Речь идет о многомиллиардных инвестициях.

План сотрудничества предусматривает два этапа:

  • Краткосрочный: Meta может начать арендовать мощности облачных чипов Google уже в следующем году.
  • Долгосрочный: К 2027 году компания Марка Цукерберга планирует массово внедрить TPU в свои центры обработки данных.

Если соглашение будет подписано, это станет важной победой для Google, чьи процессоры получат статус реальной альтернативы продукции Nvidia, которая сейчас считается «золотым стандартом» для обучения искусственного интеллекта.

Реакция рынков: Азия взлетает, Nvidia падает

Инвесторы мгновенно отреагировали на новость. Акции Nvidia на постмаркете упали на 2,7%, поскольку рынок опасается потери эксклюзивности компании в поставках «железа» для техногигантов. Зато акции Alphabet (владельца Google) выросли на 2,7%.

Положительную динамику подхватили и азиатские поставщики Google:

  • Акции южнокорейской IsuPetasys Co., которая производит платы для Alphabet, подскочили на 18%.
  • Тайваньская MediaTek Inc. прибавила в стоимости почти 5%.

Стратегия диверсификации

Аналитики Bloomberg Intelligence Мандип Сингх и Роберт Биггар считают этот шаг Meta логическим продолжением стратегии уменьшения зависимости от одного поставщика.

«Капитальные расходы Meta в размере не менее 100 миллиардов долларов на 2026 год свидетельствуют о том, что в следующем году компания потратит по крайней мере 40−50 миллиардов долларов на мощности чипов для работы нейросетей», — отмечают эксперты.

Стоит подчеркнуть, что это не первый успех Google в этой области. Ранее компания заключила соглашение на поставку до 1 миллиона своих чипов стартапу Anthropic (разработчик Claude), что стало серьезным сигналом для рынка.

Война архитектур — GPU против TPU

  • GPU (Nvidia): Графические процессоры изначально создавались для видеоигр и рендеринга изображений. Они универсальны и мощны, поэтому идеально подошли для обучения нейросетей, когда нужно обрабатывать огромные массивы разнородных данных. Именно на этом Nvidia построила свою империю.
  • TPU (Google): Тензорные процессоры — это ASIC (Application-Specific Integrated Circuit), то есть микросхемы, созданные исключительно для одной задачи — работы с машинным обучением.

В чем разница? TPU от Google менее универсальны, но в конкретных задачах искусственного интеллекта они могут быть более энергоэффективными и дешевыми в эксплуатации. Поскольку Google разрабатывает и чипы, и сами модели (Gemini, DeepMind), они могут оптимизировать «железо» под софт лучше, чем кто-либо другой.