Apple hat offiziell bestätigt, dass die nächste Generation von Siri auf Googles Gemini-KI-Modellen basieren wird. Die Zusammenarbeit geht dabei über die reine Sprachassistenz hinaus und soll künftig eine Vielzahl von Apple-Intelligence-Funktionen unterstützen.
- Apple bestätigt mehrjährige Partnerschaft mit Google: Siri wird ab iOS 26.4 im Frühjahr 2026 auf Gemini-Modellen mit 1,2 Billionen Parametern basieren.
- Die Verarbeitung erfolgt auf Apples Private-Cloud-Compute-Servern ohne Datenzugriff für Google, Apple zahlt rund eine Milliarde US-Dollar jährlich.
- Gemini soll künftig nicht nur Siri, sondern weitere Apple-Intelligence-Features unterstützen, während Apple parallel eigene KI-Modelle entwickelt.
Wie Siri mit Gemini funktionieren wird
Apple-CEO Tim Cook erläuterte während der Telefonkonferenz zu den Quartalszahlen die Struktur der Partnerschaft genauer. Gemini wird vor allem für Funktionen zur Zusammenfassung und mehrstufigen Aufgabenplanung eingesetzt. Gleichzeitig werden aber auch weiterhin Apple-eigene Modelle für bestimmte Siri-Funktionen zum Einsatz kommen.
Private Cloud Compute ist Apples eigene Server-Infrastruktur für die Verarbeitung von KI-Anfragen, die nicht auf dem Gerät selbst bearbeitet werden können. Die Server nutzen speziell gesicherte Apple-Hardware und -Software, um höchste Datenschutzstandards zu gewährleisten. Im Gegensatz zu herkömmlichen Cloud-Diensten hat selbst Apple keinen dauerhaften Zugriff auf die verarbeiteten Nutzerdaten – sie werden nach der Verarbeitung sofort gelöscht.
Cook betonte, dass es sich um eine Zusammenarbeit handle, bei der Apple parallel eigene KI-Technologien weiterentwickle. Die personalisierte Version von Siri werde jedoch durch die Kooperation mit Google angetrieben. Wichtig dabei: Obwohl Google die KI-Modelle bereitstellt, hat das Unternehmen keinen Zugriff auf Apple-Nutzerdaten. Die Verarbeitung erfolgt auf Apples Private-Cloud-Compute-Servern.
Neue Siri-Funktionen ab Frühjahr 2026
Die überarbeitete Version von Siri soll mit iOS 26.4 im Frühjahr 2026 erscheinen – voraussichtlich im März oder April. Die neuen Funktionen wurden bereits auf der WWDC 2024 vorgestellt, mussten aber aufgrund technischer Herausforderungen verschoben werden.
Zu den angekündigten Verbesserungen gehören ein besseres Verständnis des persönlichen Kontexts der Nutzenden, Bildschirmerkennung und tiefere App-Integration. Ein Beispiel: Siri soll künftig Fragen wie „Wann kommt der Flug meiner Mutter an und wann haben wir eine Mittagsreservierung?“ beantworten können, indem der Assistent Informationen aus Mail und Nachrichten auswertet.
Über Siri hinaus: Weitere Apple-Intelligence-Features
Die Partnerschaft zwischen Apple und Google beschränkt sich nicht nur auf Siri. Die Unternehmen haben angekündigt, dass Gemini künftig eine Reihe weiterer Apple-Intelligence-Funktionen unterstützen wird. Details zu konkreten Features wurden bisher nicht genannt. Unklar ist auch, ob bereits bestehende Funktionen wie Writing Tools, Image Playground oder Benachrichtigungszusammenfassungen von Gemini profitieren werden.
Finanzielle Dimension der Zusammenarbeit
Berichten zufolge zahlt Apple rund eine Milliarde US-Dollar pro Jahr für die Nutzung der speziell angepassten Gemini-Modelle. Diese Investition reiht sich in die bereits bestehende finanzielle Beziehung zwischen den beiden Unternehmen ein: Google zahlt Apple jährlich etwa 20 Milliarden US-Dollar, um die Standard-Suchmaschine auf Apple-Geräten zu bleiben.
Apples langfristige KI-Strategie
Trotz der Partnerschaft mit Google arbeitet Apple weiterhin an eigenen KI-Modellen. Das Unternehmen entwickelt bereits ein cloudbasiertes Modell mit einer Billion Parametern, das möglicherweise schon 2026 einsatzbereit sein könnte. Die Zusammenarbeit mit Google dient also auch dazu, Zeit zu gewinnen, bis Apple seine eigenen Lösungen auf ein vergleichbares Niveau gebracht hat.
Cook betonte, dass Apple Intelligence als Feature verstanden werden solle, das über alle Apple-Plattformen hinweg integriert ist – nicht als eigenständiger Umsatztreiber. Die Integration schaffe Mehrwert und eröffne Möglichkeiten für Produkte und Dienste des Unternehmens.
Technische Architektur
Das von Google für Apple entwickelte Gemini-Modell nutzt eine Mixture-of-Experts-Architektur. Das bedeutet: Obwohl das Modell über mehr als eine Billion Parameter verfügt, wird für jede Anfrage nur ein Bruchteil davon aktiviert. Diese Architektur ermöglicht eine große Rechenkapazität, ohne dass dabei übermäßige Verarbeitungskosten anfallen.







