Apples Ingenieure verraten Tricks

Deshalb versteht Apples Siri Restaurantnamen besser

Apple-Ingenieure nutzen ortsbasierte Sprach-Cluster für Siri. Demnächst auch in einer Stadt in Ihrer Nähe? Tatsächlich präsentieren Apples Mitarbeiter derzeit einen interessanten Bericht über ortsbasierte Sprach-Cluster, die man einsetzt, um Siris Verständnis vor allem für Restaurantnamen und Sehenswürdigkeiten zu verbessern. Das System kommt in den USA schon zur Anwendung und hat die Fehlerquote des Sprachassistenten drastisch reduziert.

Von   Uhr

In einem neuen Eintrag in seinem hauseigenen Machine Learning Journal erklären Apples Ingenieure, wie sie die Fähigkeiten des Sprachassistenten weiter verbessern.

Siri versteht Points of Interest besser

Apples Ingenieure entschieden sich dazu, Standortdaten des Nutzers für die Verwendung von Siri mit einzubeziehen. Sie entwickelten sogenannte „geolocation-based language models“ (GEO-LMs). Darüber bekommt der Sprachassistent individuellere Sprachmodelle zur Erkennung von lokalen Sehenswürdigkeiten, Unternehmen und Restaurants an die Hand, sogenannten Points of Interest.

Diese GEO-LMs verbessern die Genauigkeit von Siris automatischem Spracherkennungssystem. So weiß der Sprachassistent beispielsweise auch die beabsichtigte Wortfolge des Benutzers besser einzuschätzen.

169 GEO-LMs für die USA

Alleine für die USA entwickelte Apple knapp 170 solcher speziellen Sprachmodelle für die Künstliche Intelligenz. Die Zahl 169 geht dabei zurück auf Definitionen des „US Census Bureau“. Demnach gibt es so viele statistisch erhebbare regionale Bereiche, in denen Sprachunterschiede vorherrschen, die die Unterscheidung erlauben, bzw. notwendig machen. Apples Ingenieuren zufolge würden diese Modelle die sprachlichen Gewohnheiten von rund 80 Prozent der US-Bevölkerung berücksichtigen.

Daneben gibt es noch ein globales Geo-LM, das alle die Bereiche abdeckt, die nicht von den bereits anderweitig ortsbasierten Modellen weltweit berücksichtigt wird.

Siri klüger, wenn es Ihren Standort kennt

Wenn ein Benutzer ins Gespräch mit Siri tritt, passt der Sprachassistent sein Sprachmodell entsprechend dem verwendeten GEO-LM an. Wenn Sie sich jedoch außerhalb einer definierten Zone befinden oder aber Siri keinen Zugriff auf Ihre Standortdaten hat, wird standardmäßig das globale Geo-LM verwendet, das womöglich aber schlechtere Ergebnisse liefert.

Bei seinen Tests stellte Apple fest, dass die angepassten Sprachmodelle Siris Fehlerquote in acht großen US-Metropolen um 41,9 bis 48,4 Prozent reduzierten.

Mehr zu diesen Themen:

Diskutiere mit!

Hier kannst du den Artikel "Deshalb versteht Apples Siri Restaurantnamen besser" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Ist die Spracherkennung eigentlich Gerätegekoppelt? Seitdem ich nach 4 Jahren vom iPhone 6 aufs 8er gewechselt bin, versteht mich Siri wesentlich schlechter und verhört sich ziemlich oft. Selbst nach einem halben Jahr hat sie nichts dazugelernt. Das war mit dem 6er deutlich besser.
Auch am Mac wird meine Stimme wesentlich genauer erkannt.

Die Kommentare für diesen Artikel sind geschlossen.