Zusammenfassung: Sprachsteuerung soll uns im Alltag unterstützen, allerdings haben Siri, Cortana, Alexa & Co noch viele Schwächen und funktionieren nur in bestimmten Anwendungsfälle. Aus unseren UX-Projekten konnten wir Best-Practices für die Gestaltung von virtuellen sprachgesteuerte Assistenten ableiten.

 

Sonntagabend, Super Bowl. 111,3 Millionen US-Amerikaner sitzen gebannt vor dem Fernseher. Der große Favorit liegt weit abgeschlagen zurück, doch kämpft sich langsam wieder heran.

Dann, wie sollte es anders sein: Werbung. In einem Spot wird der neue sprachgesteuerte Assistent von Google beworben. Die Protagonisten rufen fröhlich „OK, Google…“-Anweisungen umher.

Und plötzlich geht in tausenden US-Haushalten das Licht an, der Fernseher wird laut, die Fenster öffnen sich…

Spuk?

Nein, aber die Smart-Home-Geräte hatten sich wohl von den vielen Anweisungen im Spot angesprochen gefühlt und sie – hörig wie sie sind – direkt in die Tat umgesetzt.

Auch wenn dieses Beispiel eher ein negatives Licht auf sprachgesteuerte Assistenten wirft, bergen sie doch aus Usability-Sicht einige Vorteile.

 

Worum geht es hier?

  • Was sind die Stärken von Sprachsteuerung?
  • Welche Best-Practices gibt es bei der Umsetzung?
  • Wann sollten Sie besser die Finger davon lassen?

Was sind die Stärken von Sprachsteuerung?

Siri, Cortana, Alexa und eben Google – alle großen Technikunternehmen setzen auf virtuelle sprachgesteuerte Assistenten. Sie sind softwarebasiert und reagieren auf Befehle, die ihr Nutzer ihnen per Stimme erteilt. Diese Sprachsteuerung (eng. Voice Control) wird aktuell vorwiegend auf dem Smartphone und für Smart-Home-Devices verwendet.

 

Die Usability-Stärken von Sprachsteuerung:

  • Aufgaben beschleunigen: Voice Control kann einfache Aufgaben abkürzen, z.B. Termine und Erinnerungen im Smartphone anlegen, den Wetterbericht abrufen, nach Sportergebnissen suchen.
  • Aufgaben-Schritte überspringen: Mit Sprachsteuerung kann beispielsweise ein Termin mit nur einem Kommando erstellt werden, statt zunächst die Kalender-App zu öffnen und den richtigen Tag zu suchen.
  • Die Hände sind frei: Solange sich das Gerät in der Nähe befindet, kann es rein mit der Stimme gesteuert werden. Die Hände werden nicht benötigt.
  • Gut für klare Kommandos: Aufgaben, die sich klar und deutlich ausdrücken lassen, werden von der Spracherkennung meist richtig gedeutet.

Sprachgesteuerte Assistenten, wie Amazon Echo und Google Home können im Alltag unterstützen und kleine Aufgaben erleichtern (Bild: YouTube/Google)

Und in welchen Use-Cases erhöht Sprachsteuerung die Usability?

Wenn es ein klares Ziel gibt, Aufgaben vereinfacht und Schritte übersprungen werden können, ist der Einsatz von sprachgesteuerten Assistenten sinnvoll. Dies ist bei Smartphone-Use-Cases, wie der Suche nach einfachen Informationen, der Fall („Wie wird das Wetter morgen?“) oder auch bei Smart-Home-Anwendungen, wie der Steuerung von Fernseher oder Stereoanlage („Spiele ‚The Walking Dead‘ ab“).

Im Auto oder auf dem Fahrrad ist Sprachsteuerung hilfreich, weil die Hände freibleiben. Auch beim Eingeben von Textnachrichten kann die Diktierfunktion hilfreich sein, wenn sie denn zuverlässig funktioniert.

Was sind die Schwächen von sprachgesteuerten Assistenten?

  • Komplexe Kommandos: Bei komplexeren Kommandos oder Fragen funktioniert Sprachsteuerung in der Mehrzahl der Fälle noch nicht. Die einzelnen Wörter werden zwar meist erkannt, doch nicht richtig interpretiert. Das Risiko: Weil viele Befehle nicht zu sinnvollen Reaktionen führen, wird die Sprachsteuerung in der Praxis nur selten oder nur für sehr spezifische Aufgaben genutzt. Die künstliche Intelligenz hinter dieser Technik verbessert sich in dieser Hinsicht allerdings stetig.
  • Störgeräusche: Mit Umgebungslärm, undeutlicher Aussprache, Akzenten und Dialekten tun sich sprachgesteuerte Assistenten schwer. Auch das wird sich in Zukunft sicherlich verbessern.
  • Datenschutz: Die Datenschutzlage ist in manchen Fällen noch bedenklich, vor allem, wenn Geräte ununterbrochen „zuhören“. Gerade bei vertraulichen Daten ist die Nutzung kritisch, da andere bei der Spracheingabe mithören können.
  • Es stört andere: In manchen Situationen ist es unangemessen oder sozial nicht akzeptiert mit technischen Geräten zu sprechen, z. B. weil man andere Menschen stört (während Veranstaltungen, in der Bibliothek…).
  • Gewohnheitssache: Für viele Menschen ist es ungewohnt mit einem Computer zu sprechen und sie nutzen aus purer Gewohnheit die bekannten Interaktionsformen, wie Touch oder Point & Click.
  • Intransparente Möglichkeiten: Im Gegensatz zu grafischen User-Interfaces sind den Nutzern von Sprachsteuerung die möglichen Kommandos völlig unbewusst. Wenn es keine Übersicht oder kein Tutorial gibt, muss er durch Trial & Error herausfinden, was funktioniert. Das Risiko: Auch in diesem Fall wird er nach einiger Zeit aufgeben und die Sprachsteuerung nicht mehr nutzen.

Best-Practices für die Umsetzung von sprachgesteuerten Assistenten

Aus einem kürzlich durchgeführten Projekt, bei dem ein sprachgesteuerter Assistent zum Einsatz kam, konnten wir folgende Best-Practices ableiten:

  • Rückmeldungen: Der Nutzer benötigt Rückmeldungen über die Aktivität seines „Interaktionspartners“. Zum Beispiel sollte er Feedback bekommen, wann der sprachgesteuerte Assistent zuhört (z. B. durch eine sich bewegende Amplitude) und ob ein Kommando erfolgreich ausgeführt wurde. So kann der Nutzer sicher sein, dass er gehört bzw. verstanden wird.
  • Kein kontinuierliches Zuhören: Hört der Assistent durchgängig zu, wird dies einerseits von den Nutzern aus Datenschutzgründen kritisch gesehen, andererseits kann es zu praktischen Problemen führen, wenn unbeabsichtigte Kommandos ausgeführt werden (zum Beispiel, wenn Befehle von anderen Menschen in der näheren Umgebung ausgeführt werden).
  • Aktivierungsbefehl: Es sollte einen Befehl geben, der das Zuhören aktiviert (wie beispielsweise „Ok, Google“), damit der Assistent keine Kommandos ausführt, die nicht als solche gemeint waren.
  • Alternative Durchführung: Sprachsteuerung kann nicht in allen Situationen genutzt werden. Deshalb sollten alle Tätigkeiten, die durch Sprachsteuerung ausgeführt werden können, auch auf anderem Wege möglich sein.
  • Virtuellen Assistenten unterbrechen: Damit die Nutzer die Kontrolle über den Assistenten behalten können, ist es wichtig, dass sie ihn zum Beispiel durch Tapping oder einen Befehl deaktivieren oder unterbrechen können. So müssen sie sich nicht die gesamte Antwort anhören, wenn sie merken, dass sie nicht relevant für sie ist.
  • Tutorial: Sprachsteuerung ist nicht so selbsterklärend wie ein gutes grafisches User-Interface. Nutzer sollten daher Inspiration für Kommandos bekommen und diese in einem Tutorial erlernen.

Best-Practice für Sprachsteuerung am Beispiel von Siri

Best-Practice: Der sprachgesteuerte Assistent sollte anzeigen, ob er zuhört, wie Siri mit einer sich bewegenden Amplitude

Fazit: Richtig eingesetzt kann Sprachsteuerung den Alltag nutzerfreundlicher machen!

Sprachgesteuerte Assistenten sind im Alltag schon sehr hilfreich, indem sie kleine Tasks vereinfachen und beschleunigen.
Aber egal wie praktisch die Sprachsteuerung in manchen Situationen ist, in vielen anderen Situationen hilft sie noch nicht wirklich weiter.
Sprachgesteuerte Assistenten sollten also momentan als eine Kommando-Steuerung verstanden werden. Deshalb sollte der Nutzer in einem Tutorial inspiriert werden, welche Kommandos ihm wirklich das Leben erleichtern. Die Technik entwickelt sich allerdings stetig weiter, so dass wir sicherlich in ein paar Jahren einen natürlichen Dialog mit unseren virtuellen Assistenten führen können.

Sie bieten Ihren Nutzern bereits Sprachsteuerung oder planen den Einsatz? In einem Labor-Usability-Test können Sie herausfinden, wie Sie die Usability optimieren können.

Welche Erfahrungen haben Sie mit virtuellen Assistenten und Sprachsteuerung gemacht? Wir freuen uns auf Ihre Anekdoten in den Kommentaren!

Diesen Artikel teilen

Über den Autor

Constanze Schmidt

User-Experience-Specialist

Constanze ist Medien- und Kommunikationswissenschaftlerin und hat zudem Interkulturelle Wissenskommunikation studiert. Ihre Spezialgebiete sind das qualitative und internationale Usability-Testing. Im Bereich des Account-Managements greift sie auf jahrelange Projektmanagement-Erfahrung zurück. Erfolgreich betreute sie bereits zahlreiche internationale Kunden, darunter NOKIA und Zeiss.

Kontaktieren Sie Constanze