Ende Juli 2019 wurde bekannt: Apple lässt Audiomitschnitte des iPhone-Sprachassistenten Siri, ohne explizite Einwilligung der Kunden, von externen Firmen auswerten und sah sich gezwungen, diese Praxis aufgrund der Berichterstattung zunächst wieder einzustellen. Doch wie geht’s jetzt weiter?

 
Siri
Facts 

Anfang August reagierte man prompt und stoppt wie bereits erwähnt die bisherige Vorgehensweise. Als Ergebnis verloren demnach sogar Mitarbeiter der beauftragen Firmen ihren Job, weil die Grundlage der Beschäftigung entfiel – wir berichteten.

Siri ist sonst recht hilfreich, beispielsweise auch im Zusammenspiel mit WhatsApp:

WhatsApp-Nachrichten mit Siri verschicken Abonniere uns
auf YouTube

Siri-Auswertungen: Apple entschuldigt sich und erklärt Änderungen

In einer aktuellen Pressemitteilung entschuldigt sich Apple nunmehr erneut für das bisherige Vorgehen des „Lauschangriffs“ und verspricht für die Zukunft entsprechende Verbesserungen. Konkret im Wortlaut:

„Als Ergebnis unserer Überprüfung stellen wir fest, dass wir unseren hohen Maßstäben nicht vollständig gerecht geworden sind, und dafür möchten wir uns entschuldigen. Wie bereits mitgeteilt, haben wir das Siri-Grading-Programm gestoppt. Wir planen, diese Arbeit später im Herbst wieder aufzunehmen, sobald Software-Updates für unsere Nutzer freigegeben werden — aber erst nach folgenden Änderungen:

  • Erstens werden wir standardmäßig keine Audioaufzeichnungen von Siri-Interaktionen mehr speichern. Wir werden weiterhin computergenerierte Transkripte verwenden, um Siri bei der Verbesserung zu unterstützen.
  • Zweitens können Nutzer per Opt-in selbst entscheiden, ob sie zur Verbesserung von Siri beitragen möchten, indem Siri aus den Audioproben der Anfragen lernen kann. Wir hoffen, dass viele Menschen sich dafür entscheiden werden zur Verbesserung von Siri beizutragen, mit dem Wissen, dass Apple die Privatsphäre respektiert und über starke Datenschutzkontrollen verfügt. Diejenigen, die sich für die Teilnahme entscheiden, können sich jederzeit abmelden.
  • Drittens dürfen, wenn sich Kunden per Opt-in entscheiden, ausschließlich Apple-Mitarbeiter Audioproben der Siri-Interaktionen hören. Unser Team wird daran arbeiten, jede Aufnahme, die als unbeabsichtigter Auslöser von Siri erkannt wurde, zu löschen.“

2017 wollten die GIGA-Leser von den Sprachassistenten noch nicht allzu viel wissen:

Im Kleingedruckten: Apple fertigt Abschriften der Aufzeichnungen an und „hört“ so weiter mit

Kurzum: Apple scheint gelernt zu haben und wird in Zukunft – wie von uns in einem Kommentar vorgeschlagen – ein Opt-in-Verfahren integrieren, bei dem der Kunde seine Einwilligung zur Sprachauswertung explizit abgeben muss. Allerdings behält sich Apple überraschenderweise noch eine Hintertür offen, wie ein genauer Blick in ein – derzeit nur in englischer Sprache verfügbares – Support-Dokument offenbart. Dort heißt es (übersetzt): „Standardmäßig speichert Apple keine Audiodaten Ihrer Siri-Anfragen mehr, beginnend mit einer zukünftigen Softwareversion im Herbst 2019. Computergenerierte Transkriptionen Ihrer Audioanfragen können zur Verbesserung von Siri verwendet werden. Diese Transkriptionen sind bis zu sechs Monate lang mit einer zufälligen Kennung, nicht mit Ihrer Apple ID, verknüpft. Wenn Sie nicht möchten, dass die Transkriptionen Ihrer Siri-Audioaufnahmen beibehalten werden, können Sie Siri und Diktieren in den Einstellungen deaktivieren.“

Ergo: Also selbst wer keine Zustimmung zur Auswertung  der Siri-Audioanfragen gegeben hat, der muss damit leben, dass Abschriften noch immer „abgehört“, oder besser formuliert, mitgelesen werden können, wenngleich anonymisiert. Wer dies nicht will, der muss auch zukünftig Siri komplett deaktivieren.

Frage an die GIGA-Leser: Könnt ihr mit der neuen Regelung leben oder ist es euch vielleicht sogar egal, ob Apple mithört oder auch mitliest?