Siri wird extern

Apple erwägt ChatGPT oder Claude als Siri-Grundlage

Apple könnte seinen Sprachassistenten Siri künftig mit externen KI-Modellen von OpenAI oder Anthropic betreiben, da die eigene Entwicklung stockt.

Von   Uhr
3 Minuten Lesezeit

Apple erwägt eine drastische Neuausrichtung für Siri – und zwar durch die Integration von externen KI-Modellen von OpenAI oder Anthropic. Berichten von Bloomberg zufolge führt das Unternehmen derzeit Gespräche mit beiden Anbietern, um deren Sprachmodelle als Grundlage für eine überarbeitete Version des Sprachassistenten zu nutzen.

Quickread: Auf einen Blick
  • Apple führt Gespräche mit OpenAI und Anthropic über externe KI-Modelle für eine überarbeitete Siri-Version.
  • Anthropics Claude-Modelle gelten als vielversprechendste Option, verlangen aber Milliardengebühren pro Jahr.
  • Die erweiterten Siri-Funktionen wurden bereits auf 2026 verschoben, interne Entwicklung läuft schleppend.

Apple testet externe KI-Modelle für Siri

Die Diskussionen befinden sich noch in einem frühen Stadium, doch beide Unternehmen arbeiten bereits an angepassten Versionen ihrer Modelle, die mit Apples Private Cloud Compute-Servern kompatibel sind. Apple führt interne Tests durch, hat aber noch keine endgültige Entscheidung getroffen, ob das Unternehmen seine eigenen Siri-Entwicklungen aufgeben wird.

Besonders interessant: Anthropics Claude-Modelle scheinen sich als vielversprechendste Option zu erweisen. Die ersten Gespräche über finanzielle Konditionen haben bereits stattgefunden, wobei Anthropic eine jährliche Gebühr im Milliardenbereich fordert, die mit der Zeit steigen soll. Diese hohen Kosten sind ein Grund, warum Apple auch andere Partner wie OpenAI in Betracht zieht.

Siri-Entwicklung gerät ins Stocken

Die Entscheidung kommt nicht überraschend, wenn man die jüngsten Schwierigkeiten bei der Siri-Entwicklung betrachtet. Apple hatte bereits im März angekündigt, dass die erweiterten Apple Intelligence-Funktionen für Siri erst 2026 verfügbar sein werden – eine Verzögerung, die bei Kundinnen und Kunden für Unmut sorgte und sogar zu Klagen führte.

Die Probleme reichen tief in die Unternehmensstruktur. Interne Berichte sprechen von einer entspannten Arbeitskultur in der KI-Abteilung, mangelnder Risikobereitschaft und technischen Schwierigkeiten beim Zusammenführen alter und neuer Siri-Funktionen. Mitarbeitende bezeichnen das System intern als „heißes Eisen“, das zwischen verschiedenen Teams hin- und hergereicht wird.

Large Language Model (LLM) erklärt!

Ein Large Language Model ist ein KI-System, das mit riesigen Textmengen trainiert wurde und natürliche Sprache verstehen und generieren kann. Diese Modelle bilden die Grundlage für Chatbots wie ChatGPT oder Claude und können komplexe Gespräche führen. Apple möchte solche Technologie nutzen, um Siri conversationeller und intelligenter zu machen.

Zwei parallele Entwicklungsstränge

Apple verfolgt derzeit zwei getrennte Ansätze: Zum einen arbeitet das Unternehmen an personalisierten Siri-Funktionen, die mit iOS 26 im Frühjahr 2026 erscheinen sollen. Zum anderen entwickelt Apple eine LLM-basierte Version von Siri, die vermutlich erst mit iOS 27 im Herbst 2026 debütieren wird.

Die Partnerschaft mit externen Anbietern würde Apple Zeit verschaffen, um an eigenen KI-Modellen zu arbeiten, während gleichzeitig moderne KI-Funktionen angeboten werden können, die Kundinnen und Kunden mittlerweile erwarten. Apple kooperiert bereits mit OpenAI – iOS 18-Nutzende können Siri-Anfragen an ChatGPT weiterleiten lassen, wenn detailliertere Antworten benötigt werden.

Interne Tests zeigen vielversprechende Ergebnisse

Berichten zufolge hat Apple in internen Tests verschiedene Modelle mit unterschiedlicher Komplexität getestet – von 3 Milliarden bis zu 150 Milliarden Parametern. Das größte Modell, das auf Cloud-Infrastruktur angewiesen ist, soll in Benchmarks „die Qualität aktueller ChatGPT-Versionen erreichen“. Allerdings bestehen weiterhin Bedenken über die Tendenz des Systems zu Halluzinationen.

Die Entwicklung einer neuen Siri-Architektur findet in Apples KI-Büros in Zürich statt. Dort arbeiten Ingenieurinnen und Ingenieure an einem „monolithischen Modell“, das vollständig auf einer LLM-Engine basiert und die aktuelle „hybride“ Architektur von Siri ersetzen soll, die über Jahre hinweg unzusammenhängend mit verschiedenen Funktionen erweitert wurde.

Erweiterte KI-Integration geplant

Neben der Siri-Überarbeitung plant Apple weitere KI-Integrationen. Google Gemini soll als Alternative zu ChatGPT in iOS 26 hinzugefügt werden. Zudem führt Apple Gespräche mit Perplexity über eine mögliche Integration sowohl in Siri als auch in die Safari-Suche.

Diese Entwicklungen zeigen, wie sehr sich Apple von seiner ursprünglich zurückhaltenden Haltung gegenüber externer KI-Technologie entfernt. Das Unternehmen erkennt offenbar, dass die eigenen Entwicklungsbemühungen nicht schnell genug voranschreiten, um mit der Konkurrenz Schritt zu halten.

Die endgültige Entscheidung über die Zukunft von Siri steht noch aus, doch die Gespräche mit externen Anbietern zeigen deutlich: Apple ist bereit, neue Wege zu gehen, um seinen Sprachassistenten wieder konkurrenzfähig zu machen.

Mehr zu diesen Themen:

Diskutiere mit!

Hier kannst du den Artikel "Apple erwägt ChatGPT oder Claude als Siri-Grundlage" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Zum Verfassen von Kommentaren bitte mit deinem Mac-Life-Account anmelden.

oder anmelden mit...