
Sprachassistenten So lässt sich mit Personalisierung das Vertrauen in den Voice Commerce stärken
Sprachassistenten wie Amazons Alexa oder Googles Assistant sind weit verbreitet, doch in Sachen Voice Commerce gibt es in Deutschland noch Luft nach oben. Das lässt sich ändern - wenn die Stimme des Sprachassistenten zur Persönlichkeit des Kunden oder der Kundin passt.
Von Fabian Reinkemeier, Senior Consultant bei elaboratum & Dr. Ulrich Gnewuch, Postdoktorand am Karlsruher Institut für Technologie
Es ist fast ein bisschen wie im echten Leben: Mit den besten Freund*innen teilen wir Gemeinsamkeiten, Vorlieben und Hobbies - und haben ein großes Vertrauen in sie. Das ist sogar wissenschaftlich erwiesen: So stellt die "Ähnlichkeits-Attraktions-Theorie" unter Beweis, dass Menschen anderen Menschen sympathischer sind und ihnen mehr Vertrauen schenken, wenn diese ihnen selbst ähnlich sind. Und das gilt nicht nur für das Zwischenmenschliche, sondern funktioniert auch im Miteinander von Mensch und Technologie.
So schreiben Menschen Computern gar menschliche Züge zu, wenn sie mit diesen interagieren. Wer morgens nach dem Aufstehen Alexa nach dem Wetter fragt, spricht also nicht nur mit einem kleinen schwarzen Lautsprecher - sondern auch ein bisschen mit einer Bekannten.
Sprachassistenten sind weit verbreitet: Einer Studie zufolge nutzen 55 Prozent der Deutschen regelmäßig Sprachtechnologien. Dabei werden diese bisher hauptsächlich für einfache Aufgaben wie für Recherchezwecke oder zum Abspielen von Musik genutzt. Voice Commerce, also der Onlineeinkauf über die Stimme mit dem Sprachassistenten, hinkt deutlich hinterher. Ein Grund: Die Nutzer*innen haben zu wenig Vertrauen in die neue Technologie. Und das könnte auch mit dem Sprachstil zusammenhängen: Viele Sprachassistenten sind mit Standard-Stimmen ausgestattet, die sich immer gleich anhören - ganz egal, wer mit ihnen spricht.
Wie wirkt sich die Stimme auf das Vertrauen aus?
Wir wollten daher wissen: Könnte es sich positiv auswirken, wenn Geschlecht und Stimme von Sprachassistenten an die Nutzer*innen angepasst würden? Vertrauen Frauen weiblichen Stimmen mehr und introvertierte Menschen langsameren, ruhigeren Tönen? Sind extrovertierte Menschen eher bereit, per Sprache einzukaufen, wenn Sprachassistenten laut und schnell sprechen?
Um das herauszufinden, haben wir ein Experiment mit 380 Teilnehmer*innen durchgeführt: Dafür wurden vier verschiedene Sprachassistenten mit unterschiedlichen Geschlechtern und Persönlichkeiten kreiert: "Hans" mit einer männlichen, tieferen Stimme, "Vicky" mit einer weiblichen, höheren. Außerdem bekamen sie über die Stimmlage, die Lautstärke und die Schnelligkeit verschiedene Persönlichkeiten zugeordnet: eine schnellere, höhere, lautere Stimme für den extrovertierten Typ, eine langsamere, leisere Stimme für den introvertierten. Mit jeder der vier Varianten wurde dasselbe Verkaufsgespräch aufgezeichnet, das sich die Teilnehmenden des Experiments anhören sollten.
Keine Einheitsstrategie fahren
Es zeigte sich: Sind sich Nutzer*in und Sprachassistent in ihrer Persönlichkeit ähnlich, steigt das Vertrauen der Nutzer*innen - und zwar in allen gemessenen Vertrauensdimensionen: Integrität (d.h. der Sprachassistent ist ehrlich), Kompetenz (der Sprachassistent ist in der Lage, seine Aufgabe effektiv zu erfüllen) und Wohlwollen (der Sprachassistent handelt im besten Interesse des Nutzers / der Nutzerin). Keine signifikante Auswirkung auf das Vertrauen hatte es dagegen, wenn Sprachassistent und Nutzer*in demselben Geschlecht angehörten. Dieses Ergebnis zeigt, dass bestimmte Übereinstimmungen zwischen den Sprachassistenten und ihren Nutzer*innen effektiver sind als andere.
Für Unternehmen ist das eine wertvolle Erkenntnis: Denn bei der Gestaltung von Sprachassistenten reicht es demnach nicht, sich nur auf technische Komponenten und Inhalte zu konzentrieren. Was Kund*innen wollen, sind keine einheitlichen Standard-Stimmen, sondern personalisierte Angebote, in denen sie sich selbst wiederfinden. Über die Analyse der Nutzer-Stimmen können Unternehmen Daten gewinnen, mit denen sie Rückschlüsse auf die Persönlichkeit ziehen können - und damit den Sprachstil des Assistenten (Tonlage, Lautstärke, Schnelligkeit) an die jeweiligen Kund*innen anpassen.
Künftig wäre dabei sogar noch ein weiterer Schritt denkbar: Indem die Stimme des Nutzenden während der Interaktion unter die Lupe genommen wird, könnten auch Rückschlüsse über seinen oder ihren emotionalen Zustand während des Gesprächs gezogen werden. Ist der/die Kund*in heute entspannt? Oder doch eher frustriert? Im Verlauf der Unterhaltung kann sich der Sprachassistent dann automatisch an den Gefühlszustand der Nutzer*innen anpassen. So, wie ein echter Freund es tut.