LUXEMBURG
LJ MIT DPA

Smarte Assistenten sollen das Leben erleichtern - wie das überhaupt funktioniert

Foto: Shutterstock - Lëtzebuerger Journal
Foto: Shutterstock
 

Mittlerweile stecken sie in (fast) jedem Smartphone: Intelligente persönliche Sprachassistenten, die uns das Leben erleichtern sollen. Sie organisieren per Sprachbefehl den Kalender, erinnern im Zweifel an Termine oder Geburtstage und beantworten die typischen Fragen nach dem Wetter, der Strecke oder der letzten ungelesenen Mail. All das, ohne ihren Nutzer jemals auch nur einen Finger krumm machen zu lassen: Diener in Reinform.

Das macht die kleinen Dinger durchaus beliebt: Eine Studie aus Deutschland bescheinigt etwa, dass quasi jeder zweite Nutzer schon einmal einen solchen Helfershelfer benutzt hat. Besonders häufig genannt wurden dabei Googles „Assistant“, Apples „Siri“ oder „Cortana“ von Microsoft. Amazon und sein relativer Newcomer „Alexa“ belegen dort den vierten Platz. Noch. Denn der Konzern startet seine Offensive mit immer neuen smarten Lautsprechern und einer direkten Einbettung von „Alexa“ in den anderen Amazon-Produkten.

 

Eine Reihe von Wahrscheinlichkeiten

Assistenten wie „Alexa“ sollen Nutzern vor allem Arbeit abnehmen, und das nicht nur beim Bestellen. Auch beim Kochen und in der Freizeit hilft der Assistent: Man kann bei einem Rezept fragen: „Wie viel Gramm Mehl kommen in den Teig?“ Oder natürlich direkt beim Handel, zum Beispiel von Amazon, online einkaufen. Auch Musik, Hörbücher und Nachrichten lassen sich über den Lautsprecher aufrufen. All diese Teile sind keine Notwendigkeit, eher Spielerei. Ihre Anbieter versprechen, den Alltag bequemer zu machen. Über die Verknüpfung mit einer digitalen Steuerung via Internet im eigenen Zuhause („Smart Home“) lassen sich Fernseher, Jalousien und Lampen per Sprachbefehl dirigieren. Banken nutzen sie, um telefonisch den Kontostand abfragen und Geld überweisen zu können. Die Systeme kennen nach einer Übungsphase die Stimme und Sprechweise eines Kunden. Und sie erkennen diese später auch wieder. Häufig genutzt sind sie also schon, die smarten Helferlein.

Ihre Funktionsweise ist zum Glück denkbar einfach - und lernt ständig hinzu: Der eigentliche Computer, der die Befehle verarbeitet, steckt nicht in den Lautsprechern. Er befindet sich in der „Cloud“. Also auf großen Rechenzentren der Unternehmen. Die gleichen das Gesagte mit den hinterlegten Daten auf ihren Servern ab und machen in Windeseile eine Wahrscheinlichkeitsrechnung, was wirklich gesagt wurde. Damit werden sie deshalb auch immer besser: Alles, was gesagt wird, wird laufend zur Datenbank hinzugefügt. Sprachsteuerung und maschinelles Lernen haben dadurch in den vergangenen Jahren enorme Fortschritte gemacht. Durch unser Alltagsverhalten füttern wir die Datenbanken nur noch weiter an.

Auch ihre Sprachausgabe basiert auf bereits bestehenden, abgespeicherten Tonaufnahmen, die dann nur der Antwort entsprechend abgespielt werden. Klang das anfangs noch sehr hölzern, so bessert sich die Ausgabe entsprechend ebenfalls mit jeder neuen Version, weil die zur Verfügung stehenden Ressourcen immer besser werden. Die ständige Verbesserung beider Dienste bedeutet aber auch: Um möglichst schnelle Reaktionszeiten zu ermöglichen, werden die meisten Daten online verarbeitet - eine Internetverbindung ist da also immer noch notwendig.

Das hat - wie so oft - einen ernsten Hintergrund: Die Anfänge der maschinellen Spracherkennung liegen im medizinischen Bereich. „Die Diktierfunktion für Radiologen war die erste Anwendung, die wirklich etwas geändert hat“, sagt Dietrich Klakow. Er ist Professor für Sprach- und Signalverarbeitung an der Universität des Saarlandes. „Das war in den 1990ern und funktionierte aus einem einfachen Grund: Radiologen diktieren viel.“ Inzwischen profitieren davon immer mehr Menschen. 

Über die Grenzen der künstlichen Intelligenz und die Sicherheit der Daten

Der Segen hat einen Preis

So gut die Stimmen sind, und so gut maschinelles Lernen funktioniert: Es existieren Grenzen, sagt Dietrich Klakow, Professor für Sprach- und Signalverarbeitung an der Universität des Saarlandes . Und zwar „dort, wo es keine Trainingsdaten gibt, wo Menschen sich nicht sicher sind, ob die Antwort dieses oder jenes ist“. Ironie ist so ein Bereich - und Humor. Auch Fragen nach dem „Warum“ sind von Maschinen bisher schwer zu beantworten. „Alles wo man Beispiele geben kann, und wo Menschen unzweifelhaft sagen, das wäre die richtige Antwort, da funktioniert es“, erläutert Klakow. Fakt ist: Die Sprachsysteme werden besser. Sie erobern immer mehr Lebensbereiche. Und mit den Assistenten dringt auch die Künstliche Intelligenz weiter vor. Deshalb mahnen Experten, man müsse die Risiken im Blick haben: So haben manche Menschen Angst davor, von „Alexa“ & Co. ungewollt belauscht zu werden. Die Anbieter betonen zwar, dass die Systeme nicht rund um die Uhr Gespräche aufzeichnen, sondern nur auf die Eingabe des Schlüsselwortes warten. Aber es kann Pannen geben. So horchte der Lautsprecher „Google Home Mini“ ungewollt. Grund war ein Hardware-Fehler: Die Aufnahme sollte zusätzlich zum Sprachbefehl „Okay Google“ auch per Fingerdruck auf das Gehäuse aktiviert werden können. Wegen eines Defekts registrierten einige Geräte eine Berührung, auch wenn es keine gab. Die Funktion wurde deaktiviert. Und selbst wenn Lautsprecher und Smartphone-Systeme wie vorgesehen laufen, tun sich Datenschutz-Probleme auf. Bei führenden Sprachassistenten werden die Eingaben auf Servern der US-Anbieter verarbeitet und zum Teil sehr lange gespeichert. Bei Google und Amazon kann der Nutzer sich die Liste der Sprachaufzeichnungen anschauen und bei Bedarf einzeln löschen.

Der Direktor des Hasso-Plattner-Instituts in Potsdam, Christoph Meinel, sagt: „Alle Segnungen, die IT bringt, haben ihren Preis.“ Früher habe es eine Verletzung der Privatsphäre bedeutet, wenn man ausspionierte, wo jemand ist und was er tut. Heute teilen viele ihren Standort den Anbietern verschiedener Apps sorgenfrei mit. Nutzt man Sprachsteuerung, kommen viele weitere Daten hinzu, „die da herumschwirren und von denen man nicht weiß, wer darauf Zugriff hat“. Wie die Gesellschaft damit umgehe, werde sich in einem langen Prozess zeigen müssen, sagt Meinel.               DPA

Die verschiedenen digitalen Sprachassistenten auf dem Markt

Hey, alles Okay?

„Hey Bixby“ Der südkoreanische Technologie-Gigant Samsung hat gerade eine neue Version seines Sprachassistenten „Bixby“ auf den Markt gebracht. Die erste, die mit dem Galaxy 8- Smartphone im Laufe von 2016 auf den Markt kam, hatte einige Startschwierigkeiten. Die Plattform „Bixby 2.0“ ist offen für Entwickler, die den Sprachassistenten somit in weitere Geräte integrieren können. „Hey Cortana“ Microsoft platzierte seinenDienst „Cortana“ im April 2014, hatte aber mit den dazugehörigen Windows-Smartphones keinen wirtschaftlichen Erfolg. Vorgestellt worden war der digitale Assistent bereits 2013. Inzwischen steckt es auch in Windows 10 Der „Sense Companion“ Im Januar 2017 kündigte der taiwanesische Telekom-Gigant HTC den „Sense Companion“ auf zwei neuen Smartphones der U-Serie an. Zuvor hatten verschiedene HTC-Smartphones „Alexa“ an Bord. Auch Panasonic hat mit „Arbo“ einen eigenen AI-basierten Assistenten entwickelt. Auch andere Unternehmen tüfteln an solchen Lösungen. „Hey Siri“ 2011 preschte Apple mit seinem Sprachassistenten „Siri“ vor, der zusammen mit dem iPhone 4S eingeführt wurde. „Siri“ kommt mit einer natürlich klingenden Sprache daher. „Okay Google“ Bei seiner Entwicklerkonferenz im Mai 2016 zog Google mit dem „Google Assistant“ nach. Der war zunächst Teil der Google MessagingApp „Allo“ und integriert in die Google Home-Lautsprecher. „Alexa“ Amazon startete mit seinem Dienst Ende 2014. „Alexa“ steuert seither die smarten Lautsprecher des Internetgiganten. Den Anbietern ist es sogar gelungen, ihren Systemen eine gewisse Persönlichkeit zu verpassen. Amazons „Alexa“ bringt manche Besitzer mit einer Art Nerd-Humor zum lächeln und kann ein wenig wie die „Star-Wars“-Figur Yoda reden.

Tippen, drücken, wischen - Computernutzer tun das seit Jahrzehnten ständig, um ihre Rechner zu steuern. Zuletzt werden Bildschirm, Maus und Tastatur beim Weg in die digitale Welt aber immer öfter überflüssig. Die neue Schnittstelle ist die Sprache. Reden ersetzt Tastatur, Maus und das Tippen auf Handy-Bildschirmen. Als Vorreiter wie Apple (2011) und Microsoft (2013) damit den Anfang machten, wurde das noch belächelt. Inzwischen gehört Sprachsteuerung zum guten Ton und hält bei immer mehr Menschen zuhause Einzug. Gemeint sind die smarten Lautsprecher.
Damit wurde Sprachsteuerung erstmals wirklich massentauglich. Und es bestätigt einen Trend: Es braucht das richtige Gerät. Apples „Siri“ landete seinen Einstand mit einer neuen Smartphone-Generation, Googles und Amazons Sprachassistenten gelang mit den mittlerweile bekannten smarten Lautsprechern der Durchbruch. Manchmal schreibt die Realität die besten Gags: Googles Assistent schaffte den Sprung vom Lautsprecher hinein ins Telefon. „Siri“ soll schon bald den Sprung vom Telefon in einen Lautsprecher schaffen. Selbst Ephraim Kishon, der alte Meister der Satire, hätte es nicht besser witzeln können.
Das zeigt aber auch: Der Bedarf nach smarten Assistenten ist ungebremst. Bis 2021 sollen rund 1,8 Milliarden Menschen nicht mehr ohne Sprachassistenten auskommen. Zu Hause, im Auto, überall, wo wir die Hände nicht frei haben oder uns nicht bewegen wollen, werden Menschen künftig oft Sprache zur Steuerung von Geräten nutzen - davon sind Experten überzeugt. In einer immer stärker vernetzten Welt, in der selbst der Kühlschrank und das heimische Thermostat einen Netzwerkanschluss und ein eigenes Onlinekonto haben, muss sich ja schließlich jemand um die Verwaltung kümmern. Warum also nicht der digitale Butler, der schon im Auto auf dem Nachhauseweg per Sprachbefehl dazu bewegt werden kann, den Ofen anzuwärmen oder das Bad einzulassen.
Weil sie smart sind, lernen sie ständig weiter dazu. Die ganzen Berechnungen werden auf schweineteuren Serverfarmen der Unternehmen Google, Amazon oder Microsoft durchgeführt; dort läuft auch die Analyse der Spracheingabe, um das Gesagte möglichst präzise zu verarbeiten. Für die Unternehmen, die einen solchen Assistenten anbieten, ist das also vor allem ein teures, aber sehr rentables Geschäft: Der Assistent kann nur verwalten, was er weiß - und muss daher fleißig mit Daten gefüttert werden. Dadurch lernt er auch hinzu, kann uns noch besser verstehen, noch besser Vorschläge machen oder an Termine erinnern. Unternehmen verdienen damit jetzt schon fast 690 Millionen Dollar im Jahr. Bis 2021 sollen das fast zwölf Milliarden Dollar sein, die mit den Assistenten verdient werden könnten.
Sie bekommen Namen und sogar teilweise einprogrammierte Persönlichkeiten: „Alexa“, „Siri“, „Cortana“ und Konsorten werden mit programmierten Phrasen hinter dem digitalen Ofen hervorgelockt. Das heißt aber auch: Sie hören ständig zu, warten nur auf ihren Einsatz. Auch skurril: Durch laufende Aufzeichnungen wurden sogar schon Mordfälle gelöst. Jede Sprachnachricht, die wir verschicken, jede Frage, die wir den Assistenten stellen - all das wird auf den großen Rechner-Farmen gespeichert, verarbeitet und zur besseren Erkennung ausgewertet. Eigentlich ein gigantisches Horrorszenario für alle Datenschützer, die seit Jahren mahnen, möglichst wenige private Details zu Ramschpreisen zu verhökern.
Aber Bequemlichkeit ist hier ganz eindeutig auf dem Vormarsch. Dafür sind sie zu praktisch!

DANIEL OLY