Firmy Apple i Google ogłosiły dziś, że platforma Google Gemini będzie wspierać nie tylko bardziej spersonalizowaną wersję Siri, ale także szereg przyszłych funkcji Apple Intelligence.
Zgodnie z zapowiedzią, kolejne generacje Apple Foundation Models mają być rozwijane w oparciu o modele Gemini oraz infrastrukturę chmurową Google. Nowe rozwiązania mają zasilać przyszłe funkcje Apple Intelligence, w tym odświeżoną, bardziej osobistą Siri, której debiut zaplanowano jeszcze na ten rok. Apple podkreśla, że jest entuzjastycznie nastawione do innowacyjnych doświadczeń, jakie umożliwi to partnerstwo, choć na tym etapie nie ujawniono szczegółów dotyczących konkretnych funkcji.
Nie jest obecnie jasne, czy technologia Gemini będzie wykorzystywana także w istniejących już elementach Apple Intelligence, takich jak Narzędzia pisania, Image Playground czy Podsumowania powiadomień. Firmy nie odniosły się bezpośrednio do tego, czy aktualne funkcje zostaną rozszerzone lub przebudowane w oparciu o nowe modele.
Joint Statement: Apple and Google have entered into a multi-year collaboration under which the next generation of Apple Foundation Models will be based on Google’s Gemini models and cloud technology. These models will help power future Apple Intelligence features, including a…
— News from Google (@NewsFromGoogle) January 12, 2026
Apple zapewnia jednocześnie, że Apple Intelligence nadal będzie działać bezpośrednio na urządzeniach użytkowników oraz na serwerach Apple Private Cloud Compute. Firma podkreśla, że mimo współpracy z Google zachowane zostaną wiodące w branży standardy ochrony prywatności, które od lat stanowią jeden z filarów jej strategii.
Bardziej spersonalizowana wersja Siri ma zostać udostępniona wraz z aktualizacją iOS 26.4, planowaną na marzec lub kwiecień. Premiera ta nastąpi po znacznym opóźnieniu, o którym informowano już wcześniej. Nowa Siri ma oferować znacznie lepsze rozumienie osobistego kontekstu użytkownika, świadomość treści wyświetlanych na ekranie oraz głębszą kontrolę nad aplikacjami.
Podczas jednej z prezentacji Apple zaprezentował przykładowy scenariusz, w którym użytkownik iPhone’a pyta Siri o szczegóły lotu swojej matki oraz plany dotyczące rezerwacji lunchu. Asystent potrafił odpowiedzieć, korzystając z informacji zawartych w aplikacjach Mail oraz Wiadomości, co pokazuje kierunek, w jakim rozwijana jest nowa generacja Siri.

