Нещодавно інформаційне джерело Bloomberg повідомило, що Apple розвиває нову, більш інтелектуальну версію Siri, яка буде ґрунтуватися на штучному інтелекту Google Gemini. Інсайдер Марк Гурман поділився додатковими деталями цього партнерства.
Apple буде сплачувати Google приблизно $1 мільярд щорічно за використання моделі, яка містить 1,2 трлн параметрів. Це значно більше в порівнянні з поточними моделями Apple Intelligence, які мають лише 150 млрд параметрів.
Модель Gemini використовуватиметься для завдань, таких як стислий виклад текстів, організація складних дій та виконання послідовності команд. Деякі функції Siri також будуть реалізовані за допомогою власних моделей Apple. При цьому штучний інтелект від Google буде працювати на приватних серверах Apple, що забезпечить захист даних користувачів від доступу Google.
Архітектура Gemini функціонує за принципом Mixture-of-Experts, що означає, що лише невелика частина параметрів буде активована для кожного запиту, що підвищує ефективність при зменшених витратах на обробку.
Раніше Apple розглядала різні варіанти, включаючи власні моделі та рішення від OpenAI та Anthropic, але зрештою обрала Gemini через високу вартість послуг Anthropic. Це партнерство розвиває тривалі відносини між компаніями: Google вже сплачує Apple близько $20 мільярдів щороку, щоб залишатися основним пошуковиком на iPhone.
Незважаючи на співпрацю з Google, Apple продовжує розробку власних моделей. У компанії триває робота над хмарним штучним інтелектом з трильйоном параметрів, що може бути готовий до 2026 року. Ймовірно, що саме тоді Apple поступово перейде на повністю власне рішення.
Варто зазначити, що першочергово оновлену Siri планували представити в iOS 18, однак через проблеми з архітектурою реліз був перенесений. Тепер поліпшена версія Siri з Apple Intelligence очікується в iOS 26.4 навесні 2026 року. Вона зможе обробляти складні запити і виконувати багатоетапні завдання в різних додатках, наближаючись за функціональністю до ChatGPT і Claude, але без створення окремого чат-бота.





