Anzeige
Anzeige
Anzeige
Anzeige
Kristina Flour Bcjdby Kwquw Unsplash
Dirty Talk und kriminelle Delikte: Apple-Mitarbeiter bekommen von Siri-Nutzern oft mehr mit, als ihnen lieb ist (Bild: Unsplash)
Sprachassistenten Siri Apple

Von Dirty Talk bis zum Drogendeal: Was Apples Siri alles zu hören bekommt

Seit Kurzem wissen wir dank eines Whistleblowers aus dem Apple-Umfeld, dass Konversationen mit Siri von realen Personen mitgehört werden. Und durch diese Menschen bekommen wir nun einen Einblick in die intimen Gespräche, die Siri sich anhören muss.

Anzeige
Anzeige
Anzeige

Zur Qualitätssicherung sollen sogenannte "Transcribers" und "Correctors" im Auftrag von Apple, Amazon oder Google überprüfen, ob ihre digitalen Assistenten Sprachbefehle korrekt verstehen und bei Bedarf korrigieren, um das System laufend zu verbessern. Nachdem ein Whistleblower eines Apple-Dienstleisters diese Praktik via The Guardian öffentlich machte, hat Apple als erster Konzern angekündigt, diese Auswertungen zu überdenken. Doch nun geben weitere Mitarbeiter Einblicke in die wunderliche Welt von Siri und Co.

"Hey Siri, talk dirty to me"

Wie eine anonyme Mitarbeiterin dem Tagesspiegel verriet, bekommt sie mehr schmutzige Konversationen mit der KI-Assistentin mit, als ihr lieb ist. "Der Dirty Talk mit Siri ist häufig derart detailliert, dass ich lieber nicht mehr davon hören will", sagt sie. Ausnahmen sind das keineswegs. Es sei erstaunlich, wie weit dies gerade unter Männern verbreitet ist.

Doch auch Einsamkeit ist ein wiederkehrendes Thema, mit dem die Mitarbeiterin bei den 1200 bis 1800 Sprachfetzen, die sie pro Schicht auswertet, konfrontiert wird. Sie berichtet von Hausfrauen, die Siri banale Details von ihrem Alltag erzählen oder von Kindern, die Siri als ihre beste Freundin bezeichnen – auch das sind demnach keine Einzelfälle.

Anzeige
Lead 4 Cta 1200X1200 V3 July 008

Philipp Kalweit ist der begehrteste Hacker Deutschlands – und gerade deshalb mit 18 Jahren bereits auf der Forbes „30 under 30“-Liste. Warum wir nach dem Interview direkt unsere Passwort-Cloud gekündigt haben, liest du im aktuellen LEAD Bookazine 2/2019!

Mitunter werden Straftaten mitgehört

Ganz zu schweigen von den Gesprächen sensibler Natur, die Siri-Nutzer unfreiwillig preisgeben – denn, wie die Quelle des Guardian verriet, kann auch das Wake Word “Hey Siri” versehentlich ausgelöst werden, beispielsweise durch das Geräusch eines Reisverschlusses. So landeten bereits Arztgespräche oder offenkundige Drogendeals in den Ohren der Contractor. Anonym, versteht sich – soll heißen nicht in Verbindung mit der betreffenden Apple-ID, durchaus aber in Verbindung mit Ortungsinformationen oder App-Daten.

Welche Konsequenzen kriminelle Delikte, die von Siri mitgehört werden, haben können, weiß die Informantin des Tagesspiegel selbst nicht. Ein Kollege habe einmal ein Gespräch gemeldet, das er für einen Drogendeal gehalten hatte. Ob die Angelegenheit weiterverfolgt wurde, wüssten weder sie noch der Kollege.

Das könnte dich auch interessieren: Studie - auch Sprachassistenten sind vergesslich

Lead 4 Cta 1200X1200 V3 July 007
Wer fühlen will, muss hören!

Neue Werbeformen im Podcast Marketing bringen deine Inhalte zum Klingen! Die Stimmen im Web werden lauter – und schaffen ein neues Audio-Universum. Lies alles über Native Ads und eigenen Podcasts im aktuellen LEAD Bookazine 2/2019!

Anzeige
Anzeige
Verlagsangebot
Anzeige
Anzeige
Aktuelle Stellenangebote
Alle Stellenangebote