Suchen

Sentiment-Analyse bei Sprachassistenten So verstehen Alexa & Co gesprochene Sprache

| Autor / Redakteur: Daniel Fitzpatrick / Ann-Marie Struck

In der Kommunikation via Sprach-Technologie hat die „Sentiment“-Analyse noch Nachholbedarf. Dabei ist es gerade im Kundenservice oder bei Produkt-Rezensionen entscheidend, dass Sprachassistenten die Stimmung oder Tonalität von Gesagtem richtig erkennen und interpretieren.

Firmen zum Thema

Wie können Sprachassistenten unsere Sprache verstehen?
Wie können Sprachassistenten unsere Sprache verstehen?
(Bild: © lassedesignen - stock.adobe.com)

Spracherkennung ist kein ganz neues Thema. Bereits im Jahr 1952 stellten Wissenschaftler von Bell Labs „Audrey“ vor. Audrey als Kurzform für „Automatic Digit Recognition“ konnte mit 90 prozentiger Sicherheit gesprochene Ziffern erkennen. Seitdem ist viel passiert. Wir leben in einer Zeit, in der sich zahlreiche Anwendungen über leistungsfähige Sprachschnittstellen bequem und nutzerfreundlich bedienen lassen.

Je mehr Menschen via Alexa, Siri & Co kommunizieren, desto größer wird auch die Anzahl derer, die die Technologie hinter einer Sprachanwendung verstehen möchten. Mancher Nutzer hat sich sicher schon gefragt: „Was passiert mit meiner Sprache, wenn sie vom Mikrofon aufgenommen wird?“ Die vereinfachte Antwort darauf lautet: Mustererkennung. Das Gesprochene wird erst digitalisiert, quasi in Binärsprache umgewandelt. Einzelne Laute, Wörter und Zusammenhänge verlieren in der Folge an Bedeutung – zumindest für den Menschen. Maschinen nutzen diese Sprach-Bausteine, um sie mit gespeicherten digitalen Modellen zu vergleichen. Dieser Vergleich findet auf vielen Ebenen statt – von einfacher Mustererkennung von Ziffern, um eine Auswahl in der Hotline-Warteschleife zu verarbeiten bis hin zum Errechnen von hochkomplexen semantischen Netzwerken, die in der Lage sind, relationale Bedeutungen in Fließtexten zu erkennen. Ein Beispiel dafür ist Sentiment Analysis.

Wenn aus Syntax Semantik wird

Sentiment Analysis macht aus Syntax Semantik. Aus der korrekten Verknüpfung einzelner sprachlicher Einheiten wird ein Satz. So bekommt eine Aussage durch ihre Tonalität, den Kontext sowie durch Stimmungen und Gefühle eine Bedeutung. Hochleistungsanwendungen, unterstützt durch komplexe Machine-Learning-Modelle, erfassen den Kontext gesprochener oder schriftlicher Aussagen, um unter anderem Emotionen, Höflichkeit, Vehemenz und natürlich den sachlichen Inhalt zu quantifizieren.

Die meisten Anwendungen liefern eine recht einfache Auswertung zurück, die aus Keywords und einer passenden Wahrscheinlichkeitsrechnung besteht. Diese lässt sich umgehend algorithmisch verarbeiten, speichern und für andere Applikationen verwenden. Dafür wird sowohl eine Emotionslage als Polarität – etwa Freude versus Wut – ermittelt, als auch zusätzlich die jeweilige Wahrscheinlichkeit als ein bestimmter Wert zwischen null und eins. Die Rückgabe „Freude: 0,78456“ gibt dann beispielsweise an, dass es sich sehr wahrscheinlich um eine glückliche, positive Aussage des Anwenders handelt.

Sentiment-Analysis-Anwendungen gibt es in unterschiedlichen Leistungsstufen. Die einfachsten Software-Versionen durchsuchen Texte nach eindeutigen Begriffen – nach sogenannten „Bag of Words“, die sich zweifellos einer Emotionslage zuordnen lassen. „Heute fühle ich mich ausgezeichnet“ oder „Mann, ist das Wetter fies!“ sind Aussagen, die anhand der enthaltenen Adjektive leicht quantifizierbar sind. Komplizierter wird es, wenn die Anwendung den gesamten Sinn längerer Aussagen oder Texte und eine innerhalb einer Aussage wechselnde Tonalität erkennen muss. Hierzu werden semantische Netzwerke eingesetzt, die die Verhältnisse von einzelnen Wörtern zueinander verstehen. Setzt etwa ein Nutzer den Sprachbefehl „Ich suche eine Unterkunft für mich und meine 100 Hühner“ ab, muss die Sprachtechnologie erkennen, dass hier kein Hotel gesucht wird, sondern eher eine ländliche Immobilie.

Eine weitere Stufe der Komplexität bilden sogenannte Ontologien ab, die einzelne Begriffe als eine Sammlung von Eigenschaften erkennen, welche wiederum konzeptuell mit anderen Begriffen verbunden sind. Der Aussagesatz: „Das war total überraschend!“ veranschaulicht leicht nachvollziehbar eine solche Ontologie: Bezogen auf einen Kinofilm wäre die Aussage positiv, aber im Rahmen der Nutzung einer Software-Applikation eher negativ.

Sentiment Analysis im Marketing-Kontext

Der Mehrwert und die Vorteile von Sentiment Analysis für Unternehmen liegen auf der Hand: Wo der Mensch mühsam lange, verschachtelte oder gar fehlerhafte Texte selbst durchlesen und interpretieren muss, wertet eine Software automatisch Textressourcen oder eben gesprochene Inhalte aus. Solche Anwendungen sparen insbesondere dann Zeit und Geld, wenn es darum geht, Social-Media-Monitoring zu betreiben oder Kundenrezensionen und Service-Feedbacks zu analysieren, wie etwa: „Dieser Kinofilm war so ziemlich das Langweiligste, was ich je gesehen habe. Spart euch den Eintritt!“ oder „Bei meiner Hausbank hing ich schon wieder stundenlang in der Warteschleife, die können wohl auf Geschäfte mit mir verzichten!“

Unternehmen setzen Sentiment Analysis häufig für „Opinion Mining“ oder Meinungsanalyse ein. So will etwa jeder Onlinehändler oder jeder Finanzdienstleister wissen, was über ihn, seine Produkte oder seinen Service in den sozialen Medien geschrieben wird, was sich seine Zielgruppe wünscht oder wie die Stimmung eines Verbrauchers ist, wenn er im Call-Center anruft. Mittels speziell für diese Kontexte programmierter Sprachschnittstellen – etwa für Amazon Alexa oder Google Home – ist es möglich, Aussagen dieser Art per Speech-to-Text umzuwandeln, um diese mit Sentiment-Analysis-APIs auszuwerten. Solch eine Anwendung ist in der Lage, Emotionalität und Polarität einer Aussage wie „Mein Baby hat von den herkömmlichen Windeln Ausschlag bekommen, aber seit dem Wechsel zu einer parfümfreien Marke hat sich das erübrigt!“ auszuwerten. Allerdings: Da Sprachassistenten in der Verarbeitung von Aussagen in der Regel nur wenige Sekunden „zuhören“, ist eine tiefergehende Analyse, wie beispielsweise bei einem Fließtext, nicht möglich. Für das Erfassen von kurzen Empfehlungen oder Meinungen sind sie jedoch hervorragend geeignet.

Daniel Fitzpatrick ist bei Reply Practice Leader „Voice Machine Interfaces“ und leitet als Head of Experience Technology das Technik-Team von Triplesense Reply.
Daniel Fitzpatrick ist bei Reply Practice Leader „Voice Machine Interfaces“ und leitet als Head of Experience Technology das Technik-Team von Triplesense Reply.
(Bild: Reply)

Durch den Einsatz von Sentiment Analysis bei Sprachanwendungen, können Unternehmen eingesprochene Aussagen via Alexa & Co. dazu nutzen, um etwa ihre Produkte oder ihren Service zu verbessern – eine Entwicklung, die die Vorteile von Sprachtechnologie im Marketing auf eine neues Level hebt.

(ID:46872033)