Anzeige
Anzeige
Anzeige
Anzeige
Aufmacher 1 Bildrechte Aud Eering
Stimmveränderungen können viel über den gesundheitlichen Zustand aussagen. (Bild: audEERING)
KI Marketing

Alexa, deine Seelen-Therapeutin

Mit Künstlicher Intelligenz lassen sich Stimmmuster und damit Emotionen erkennen. So eröffnen sich im Marketing ganz neue Optionen. Aber auch die Medizin kann davon profitieren.

Anzeige
Anzeige
Anzeige

Dagmar Schuller ist CEO/Geschäftsführerin und Mitbegründerin des Audio Intelligence-Unternehmens audEERING, das kürzlich beim Digital Marketing Innovation World Cup den Preis als Innovator des Jahres erhielt. Sie war schon immer neugierig auf Innovationen und technische Trends, insbesondere solche, die Fiktion in die Realität umsetzen, um Lebensstil und Wohlbefinden nachhaltig positiv zu beeinflussen. Bei audEERING verfolgt sie das Ziel, genau solche Ideen in reale Konzepte umzuwandeln. LEAD hat sie nach ein paar dieser Konzepte gefragt.

LEAD: Stimmveränderungen können Krankheiten wie Alzheimer und Parkinson frühzeitig vorhersagen. Können Sie verraten, was genau sich da an der Stimme ändert und wie treffsicher diese Art der Prognose ist?

Dagmar Schuller: Die Stimme ist EIN möglicher Indikator, um eine Erkrankung frühzeitig anzuzeigen. Wer beispielsweise Alzheimer hat, unterliegt häufig Stimmungsschwankungen, die nicht vorhersehbar sind und oft grundlos auftreten. Diese Stimmungsschwankungen, die sehr heftig sind, kann man über Motion Sensing aus dem Audiosignal messen, ebenso wie andere akustische Parameter. Einem zweiten möglichen Indikator kommt man mit Hilfe von Sprachanomalieerkennung auf die Spur. Das funktioniert bei Krankheiten, die kognitiv verursacht werden. Dabei verändern sich die Stimmlage und die Tonalität. Manchmal werden Wörter anders ausgesprochen und anders betont als früher. Oder es werden Buchstaben oder ganze Wörter verschluckt, an die der Kranke sich nicht mehr erinnert.

Anzeige

LEAD: Und so kann audEERING helfen, Krankheiten zu diagnostizieren?

Schuller: Nein. Wir diagnostizieren keine Krankheiten. Wir sagen nicht: Jemand hat Alzheimer. Oder Parkinson. Oder Tourette-Syndrom. Oder Burn-Out, Depression. Aber es gibt eben die Möglichkeit, solche Biomarker oder Indikatoren aus dem Sprachsignal zu finden. Kliniken, Ärzte oder Therapeuten können sich bei der Diagnostik und auch Therapie diese Techniken zunutze machen.

LEAD: Stimmlage, Stimmungsschwankungen: Was macht diese Emotionen eigentlich aus? Woher weiß mein Gegenüber immer genau, ob ich fröhlich, wütend oder traurig bin?

Schuller: Da gibt es ganz, ganz viele Parameter. Da wäre erstens der Vokaltakt, also die Anatomie von Rachenraum, Mundhöhle und Nasenraum. Zweitens aktuelle Einflüsse wie eine Erkältung, die die Stimme verändern. Und natürlich Alter und Geschlecht: Ein Kind klingt anders als ein Jugendlicher und der wieder anders als ein Erwachsener oder ein älterer Mensch.

LEAD: Und bezogen auf Emotionen?

Schuller: Hier gibt es unter anderem zwei große Achsen, die wir zur Analyse heranziehen. Die Emotionsaktivierung und die Emotionspositivierung. Bei der Emotionsaktivierung wird gemessen, wie hoch der Grad der Erregung der Stimme ist. Bei der Emotionspositivierung wird angezeigt, wie angenehm oder unangenehm ein bestimmter Tonfall wirkt. Schon allein aus diesem zweidimensionalen Raster lassen sich sehr viele Stimmungslagen ablesen. Wir verwenden natürlich noch viel mehr und weitere Dimensionen und Features für unsere Analyse, um eine robuste Erkennungsleistung der Emotion oder des Emotionszustandes zu gewährleisten.

LEAD: Und was macht das nun genau aus, dass eine Stimme angenehm oder unangenehm wirkt? Lässt sich das mit Adjektiven beschreiben wie: Die Stimme klingt "tiefer" oder "holpriger" oder "flacher"?

Schuller: Mit Adjektiven kann man das weniger beschreiben. Es gibt generell angenehme/unangenehme Bereiche, aber es hängt auch von einem selbst ab. Es gibt Studien dazu, die besagen, dass die Wahrnehmung, wie sympathisch jemand klingt, davon abhängt, wie die eigene Stimme klingt.

LEAD: Und wie sympathisch klingt Alexa?

Schuller: Amazon hat sich hier sicherlich Gedanken gemacht und Marktforschung betrieben bei der Auswahl der Stimme für Alexa. Allerdings sind wir heute noch weit davon entfernt, dass sich Alexas Stimme unserer eigenen Stimmungslage stimmlich anpasst.

LEAD: Von Alexa zum Marketing: Welche Szenarien sind denn hier mit Stimmanalyse denkbar?

Schuller: Gut einsetzbar ist die Stimmanalyse bei Produkttests oder Marktforschungsbefragungen. Denn hier spielt der Bereich Emotion immer eine wesentliche Rolle. Unternehmen können erfahren, wie emotional du dich als Kunde an eine Marke bindest oder wie emotional du dich an ein Produkt bindest. Und so können Markforscher in entsprechenden Tests herausfinden, was ein Kunde empfindet, wenn er das Produkt nutzt. Das lässt sich beispielsweise in der Automobilindustrie einsetzen, wenn Automobilhersteller den Kunden fragen, wie er die Bedienung des neuen Bordcomputers findet. Wenn der Nutzer sprachlich antwortet, dass er das jetzt nicht so optimal findet, kann die Automobilindustrie neben dem Inhalt beispielsweise deutlich besser erkennen, wie stark dieses "nicht optimal" tatsächlich ist und was der Kunde wirklich meint. Das ist ein Indikator, wie dringend Änderungsbedarf geboten ist, um den Kunden zufrieden zu stellen.

LEAD: Anderes Beispiel für den Nutzen von Stimmanalyse?

Schuller: Der komplette Bereich Point-of-Sale, Intelligenter Kauf-Assistent und Event. Ich kann Feedback-Stationen beispielsweise auch mit Sprache ausstatten, um Emotionen auf Events zu analysieren. Oder ich kann am Point of Sale exakt analysieren, was der Kunde wirklich wünscht. Denn es ist eine Sache, ob der Kunde drei, vier oder fünf Sterne vergibt. Und es ist eine andere Sache, wie er sich dabei fühlt. Wenn ich etwas verkaufen will, sollte der Verkäufer bei der Person idealerweise ein schönes, glückliches Gefühl erzeugen, nicht nur etwas Mittelmäßiges. Wenn eine Person also den Laden betritt oder auf ein Event kommt, und selbst wenn sie anfangs nicht so gut gelaunt ist, versuche ich als Verkäufer, die Person gut zu stimmen und ihr ein angenehmes Gefühl zu vermitteln, sodass sie mit einem positiven Eindruck nach Hause geht. Wenn wir Sprache zur Bewertung einsetzen, um Feedback zu bekommen, wie der Emotionszustand der Person ist, habe ich als Unternehmen noch mal eine zusätzliche Möglichkeit zu interagieren und auf die Stimmung des Kunden zu reagieren.

LEAD: Und wie kommen nun ein analoger Verkäufer und die auf Algorithmen basierenden Erkenntnisse der Sprachanalysen zusammen?

Schuller: Das kann man sich ähnlich vorstellen wie in einem Callcenter. Wenn man das Kundengespräch aufzeichnen kann, kann man dem Verkäufer zeigen, dass er vielleicht gerade nicht optimal reagiert hat. Oder man kann ihm zeigen, dass er den Kunden zu einem verärgerten Kunden gemacht hat. Auch unmittelbares Feedback in Echtzeit ist möglich. Ein anderes Einsatzgebiet wären aber die digitalen persönlichen Assistenten, beispielsweise bei Mediamarkt. Wenn ein intelligenter Kauf-Assistent, beispielsweise ein Roboter, im Laden neben dem reinen Produktwunsch auch die Stimmung und Emotion des Kunden erkennt, kann er viel bessere Vorschläge für einen zufriedenstellenden Kauf anbieten.

Graph Bildrechte Aud Eering
Stimmanalyse im Callcenter (Bild: AudEERING)

LEAD: Was tun die dann genau?

Schuller: Wenn ein Kunde dem Verkäufer Auge in Auge gegenübersteht, geben Kunden meist nicht wieder, was sie wirklich denken. Einem digitalen Assistenten gegenüber ist der Kunde oft viel ehrlicher und direkter, da nicht die Angst besteht, sich selbst in eine unangenehme Situation mit einem anderen Menschen zu bringen. Und natürlich ist ein Sprachfeedback auch für den Kunden viel einfacher als wenn er im Rahmen eines Fragebogens viele Worte eintippen muss.

LEAD: Noch mal zurück zu Alexa: Was gibt es für Möglichkeiten, die Sprachanalyse zu nutzen?

Schuller: Für Alexa gibt es eine Vielzahl von Möglichkeiten. Alexa muss dafür aber noch einiges lernen. Sie hat zwar das Spracherkennungsproblem (größtenteils) gelöst. Aber auf dem Feld der Sprachanalyse kann Alexa noch mehr tun. So könnte man IoT-Möglichkeiten wie Licht einschalten mit der Stimmlage koppeln und das Licht in der zur Stimmung passenden Farbe anschalten – angepasst an den individuellen Zustand des Alexa-Nutzers. Oder Alexa kann basierend auf der Stimmung entsprechend die Musik anpassen. Hier ist eine Vielzahl von Anwendungen denkbar.

LEAD: Wäre das wäre schon anhand der Analyse eines einfachen "Guten Abend" möglich?

Schuller: Ja, das wäre prinzipiell möglich. Wir brauchen dazu nur ein Ton-Snippet von ein bis zwei Sekunden. Das können wir dann in Echtzeit analysieren und erste Aussagen treffen.

LEAD: Erste Option wäre also, diverse Einstellmöglichkeiten anhand der Stimme zu regeln. Was gibt es noch an Möglichkeiten?

Schuller: Man könnte über Anomalieerkennung bei Geräuschen Alexa für Sicherheitsfragen einsetzen. Wenn Alexa also die Normalgeräusche deines Zuhause kennt, und plötzlich registriert sie ein abnormales Geräusch wie einen Glasbruch oder der Feueralarm geht los, dann könnte Alexa eine Alarmmeldung losschicken. Das könnte man auch für Senioren anpassen, wo es nach einem Sturz ja oft um Hilferufe geht.

LEAD: Und welche Möglichkeiten bieten sich, mit Alexa und Stimmerkennung auch den Verkauf von Produkten oder Dienstleistungen anzukurbeln?

Schuller: Wenn der Mensch abends ziemlich geschafft nach Hause kommt und Alexa das mitbekommt, könnte sie dir erst mal signalisieren: „Oh je, du hattest heute sicher einen anstrengenden Tag.“ Und dann einen Aufmunterungsversuch starten: „Weißt du was? Deine Lieblings-Schuhmarke hat heute eine Abverkaufs-Aktion: minus 40 Prozent. Das eine Modell, das du dir neulich gekauft hast, gibt es in Größe 39 in einer anderen Farbe. Ich glaube, das würde dir heute richtig gut tun.“

LEAD: Also Alexa fürs Frust-Shoppen optimieren?

Schuller: Ja, aber nicht nur das. Man könnte auch IoT-Anwendungen drankoppeln. Dann würde Alexa ein schönes Schaumbad empfehlen und vielleicht sogar schon mal das Wasser einlassen. Oder Alexa bietet dir eine Wellness-Massage von einem Studio zwei Blocks weiter an und sagt: „Stell dir vor: Das Massagestudio hat gerade zwischen 19 und 20 Uhr einen freien Slot reinbekommen, weil ein Termin abgesagt wurde. Soll ich den für dich buchen? Die Idee wäre also, einen Menschen aus einem negativen Emotionszustand in einen positiven Zustand zu bewegen. Das wäre gut für die Markenbindung und gut für den Nutzer. Und Alexa würde natürlich auch erkennen, wann ein Mensch in einer positiven Stimmung ist und kann dann entsprechende Kaufvorschläge unterbreiten.

LEAD: Danke für das Gespräch.

Teilen
Anzeige
Anzeige
Verlagsangebot
Das könnte dich auch interessieren
Anzeige
Anzeige