► Читайте страницу «Минфина» в фейсбуке: главные финансовые новости
Зачем это Apple
Разработчик iPhone планирует внедрить ИИ-модель с 1,2 трлн параметров, что значительно превосходит нынешнюю модель со 150 млрд параметров.
Такой шаг значительно расширит возможности системы и ее способность обрабатывать сложные данные и понимать контекст. Ранее Apple рассматривала возможность внедрения ChatGPT от OpenAI и Claude от Anthropic, однако после проведения тестов остановилась на Gemini.
В соответствии с готовящимся соглашением Gemini будет выполнять функции сумматора (создание сводок уведомлений, веб-страниц, текстов
Как будет работать модель
Обновленная модель будет работать на собственных облачных вычислительных серверах Apple, что гарантирует защиту пользовательских данных от инфраструктуры Google. Apple уже выделила серверное оборудование для поддержки этой модели, пишет Bloomberg.
Apple надеется использовать эту технологию в качестве временного решения, пока ее собственные модели не станут достаточно мощными. Над адаптацией Siri к сторонней ИИ-модели, известной как Glenwood, работает команда под руководством создателя гарнитуры Vision Pro Майка Рокуэлла и главы отдела разработки программного обеспечения Крейга Федериги. Сам обновленный голосовой помощник, который планируется выпустить для iOS 26.4, имеет кодовое название Linwood.
Читайте также: MacBook дешевле, чем iPhone: Apple готовит новую линейку ноутбуков
Когда планируется запуск
Запуск обновленной Siri запланирован на весну, так что параметры партнерства могут измениться, отмечает агентство. По его данным, это соглашение не получит широкой огласки, Apple будет рассматривать Google просто как стороннего поставщика технологий. Также не предусмотрено внедрение искусственного интеллекта от Google в операционные системы Apple.
Напомним
Акции Apple за последние три месяца выросли на треть и в конце октября достигли исторического максимума на фоне возобновившегося интереса к iPhone.