Dem sprechenden Computer zwei Schritte näher

Google und Microsoft haben fast gleichzeitig Meilensteine vorgestellt. Sprachassistenten könnten so schon bald deutlich besser werden.

Smarte Lautsprecher wie der Google Home sind nur eines von vielen Zuhause für Sprachassistenten. Auch auf Smartphones, Laptops, Tablets und in Kopfhörern werden sie eine immer wichtigere Rolle spielen.

Smarte Lautsprecher wie der Google Home sind nur eines von vielen Zuhause für Sprachassistenten. Auch auf Smartphones, Laptops, Tablets und in Kopfhörern werden sie eine immer wichtigere Rolle spielen.

(Bild: Reuters)

Rafael Zeier@RafaelZeier

Als Apple 2011 Siri vorstellte, staunte die Welt. Doch in den Jahren seither sind zwar zahlreiche weitere Sprachassistenten hinzugekommen, aber in unserem Alltag spielen sie nach wie vor eine bescheidene Rolle. Sie sind zu langsam, unzuverlässig und kompliziert.

Einzelne wiederkehrende Aufgaben können sie zwar Jahr für Jahr besser erledigen, und selbst beim Fussball kennen sie sich ein bisschen aus (Siri, was ist Offside?). Aber wehe, man formuliert die Frage nicht genau so, wie es die Software erwartet, oder man hat keine Internetverbindung, dann klappt es nicht, und es gibt keine Antwort.

Aber um zu sehen, wie viel Potenzial in einem sprechenden Computer steckt, braucht man keinen Uniabschluss in Informatik. Man muss sich nur vor Augen halten, dass Menschen schon viel länger sprechen als schreiben und lesen.

Vielerlei an Assistenten

Letzte Woche fanden an Amerikas Westküste fast parallel die Entwicklerkonferenzen von Microsoft und Google statt. Die Konzerne nutzen solche Anlässe, um Technologien vorzustellen, die in den nächsten Jahren strategisch wichtig werden.

Microsoft zeigte an der eigenen Konferenz neue Möglichkeiten, für Firmen eigene, lernfähige Sprachassistenten zu entwickeln. Firmenchef Satya Nadella wies darauf hin, wie wichtig es künftig für Firmen werden würde, diese Technologie zu nutzen. Das werde so selbstverständlich, wie man heute Websites oder Apps haben muss. Als Beispiel nannte er BMW. Der Autobauer entwickelt, basierend auf Microsoft-Technologie, einen Sprachassistenten für die eigenen Kunden.

Interessant war an der Microsoft-Präsentation auch, wie die vor fünf Jahren vorgestellte firmeneigene Sprachassistenz Cortana an Wichtigkeit verliert. Statt auf einen eigenen Assistenzdienst setzt Microsoft nun auf das Zusammenspiel vieler verschiedener Sprachassistenten. Je nach Anforderung oder Aufgabe soll ein anderer Assistent zum Einsatz kommen. Und das ganz unabhängig von Geräten, Betriebssystemen und Plattformen.

Schneller und offline

An der Konferenz von Google ging es dagegen hauptsächlich um den eigenen Google-Assistenten. Wenn man die neusten Zahlen ansieht, überrascht das nicht: Pro Monat seien nun über 2,5 Milliarden Android-Geräte im Einsatz. Von den zahlreichen Google-Nutzerinnen und -Nutzern auf anderen Plattformen ganz zu schweigen. So gesehen, darf es nicht überraschen, dass Google lieber auf den eigenen Assistenten als ein Vielerlei an Assistenten wie Microsoft setzt.

  • loading indicator

Letztes Jahr hat Google Beobachter mit der Möglichkeit, den Computer per Telefon Restaurantreservationen vornehmen zu lassen, gleichermassen beeindruckt wie verschreckt (So klingt es, wenn der Google-Roboter anruft). Heuer verzichtete Google auf derartige Kabinettstückchen.

Dafür hatte der Konzern etwas technisch noch Beeindruckenderes dabei. Während andere Sprachassistenten für die Spracherkennung auf per Internet verbundene Server angewiesen sind, sollen neue Google-Handys das auch offline können.

Google-Ingenieuren sei es gelungen, die für die Spracherkennung nötige Datei auf ein halbes Gigabyte zu schrumpfen, sodass alles auf dem Handy selbst ablaufen könne. Das bringt mehrere Vorteile: So funktioniert die Spracherkennung deutlich schneller, wenn der Umweg über Server irgendwo auf der Welt eingespart wird, und aus Datenschutz-Perspektive fällt ein erhebliches Privatsphäre-Risiko weg.

Eine erste Vorführung auf der Bühne der Entwicklerkonferenz war, wie es Vorführungen in der Regel sind, beeindruckend. Das Handy verstand sofort und ohne langwierige Warterei, was die Google-Managerin wollte.

So unterschiedlich die Strategien von Microsoft und Google auch sind, etwas haben beide Unternehmen gemein: In ihren Vorführungen zeigten sie, wie schnellere und schlauere Sprachassistenten künftig unseren Umgang mit Computern erleichtern können.

Gerade was Multitasking angeht, versprechen sich beide Konzerne dank Stimmbefehlen deutliche Verbesserungen gegenüber Touchscreens und anderen manuellen Eingabegeräten. Per Sprache liessen sich Handys so viel schneller bedienen als mit Fingern.

Und Siri?

Man darf nun gespannt sein, was Apple zu diesem Thema zu sagen hat. Anfang Juni findet mit der WWDC die jährliche Entwicklerkonferenz des iPhone-Konzerns statt. Gelingt es dem in den letzten Jahren in Sachen Sprachassistenten zusehends ins Hintertreffen geratenen Siri-Pionier mit den anderen Techkonzernen wieder gleichzuziehen und ähnlich wie Google eine Offline-Siri vorzustellen?

Gerade Letzteres würde sehr gut zu Apples Fokus auf Privatsphäre und Datenschutz passen. Schliesslich weist Apple gern darauf hin, wie viele Prozesse direkt auf dem iPhone und eben nicht wie bei der Konkurrenz irgendwo auf der Welt auf Serverfarmen ablaufen.

Diese Inhalte sind für unsere Abonnenten. Sie haben noch keinen Zugang?

Erhalten Sie unlimitierten Zugriff auf alle Inhalte:

  • Exklusive Hintergrundreportagen
  • Regionale News und Berichte
  • Tolle Angebote für Kultur- und Freizeitangebote

Abonnieren Sie jetzt