► Підписуйтесь на телеграм-канал «Мінфіну»: головні фінансові новини

Деталі потенційної угоди

За інформацією джерел, Meta веде активні переговори про закупівлю чіпів Google, відомих як TPU (Tensor Processing Units). Йдеться про багатомільярдні інвестиції.

План співпраці передбачає два етапи:

  • Короткостроковий: Meta може почати орендувати потужності хмарних чіпів Google вже у наступному році.
  • Довгостроковий: До 2027 року компанія Марка Цукерберга планує масово впровадити TPU у власні центри обробки даних.

Якщо угоду буде підписано, це стане важливою перемогою для Google, чиї процесори отримають статус реальної альтернативи продукції Nvidia, яка зараз вважається «золотим стандартом» для навчання штучного інтелекту.

Реакція ринків: Азія злітає, Nvidia падає

Інвестори миттєво відреагували на новину. Акції Nvidia на постмаркеті впали на 2,7%, оскільки ринок побоюється втрати ексклюзивності компанії в постачанні «заліза» для техногігантів. Натомість акції Alphabet (власника Google) зросли на 2,7%.

Позитивну динаміку підхопили й азійські постачальники Google:

  • Акції південнокорейської IsuPetasys Co., яка виготовляє плати для Alphabet, підскочили на 18%.
  • Тайванська MediaTek Inc. додала у вартості майже 5%.

Стратегія диверсифікації

Аналітики Bloomberg Intelligence Мандіп Сінгх і Роберт Біггар вважають цей крок Meta логічним продовженням стратегії зменшення залежності від одного постачальника.

«Капітальні витрати Meta у розмірі щонайменше 100 мільярдів доларів на 2026 рік свідчать про те, що наступного року компанія витратить принаймні 40−50 мільярдів доларів на потужності чіпів для роботи нейромереж», — зазначають експерти.

Варто підкреслити, що це не перший успіх Google на цьому полі. Раніше компанія уклала угоду на постачання до 1 мільйона своїх чіпів стартапу Anthropic (розробник Claude), що стало серйозним сигналом для ринку.

Війна архітектур — GPU проти TPU

  • GPU (Nvidia): Графічні процесори спочатку створювалися для відеоігор та рендерингу зображень. Вони універсальні та потужні, тому ідеально підійшли для навчання нейромереж, коли потрібно обробляти величезні масиви різнорідних даних. Саме на цьому Nvidia побудувала свою імперію.
  • TPU (Google): Тензорні процесори — це ASIC (Application-Specific Integrated Circuit), тобто мікросхеми, створені виключно для однієї задачі — роботи з машинним навчанням.

У чому різниця? TPU від Google менш універсальні, але в конкретних завданнях штучного інтелекту вони можуть бути енергоефективнішими та дешевшими в експлуатації. Оскільки Google розробляє і чіпи, і самі моделі (Gemini, DeepMind), вони можуть оптимізувати «залізо» під софт краще за будь-кого іншого.