Wie auch Alexa schickt Apples Siri ebenfalls Tonfragmente aus den Nutzeransprachen an externe Dienstleister, die im Auftrag von Apple arbeiten. Wie auch bei Alexa lässt sich dies nicht ohne einige Verrenkungen unterbinden. Apple selbst hat diesen Schritt offenbar nicht vorgesehen.
Amazon und seine Echo-Geräte nebst ihrer sprechenden Assistentin Alexa sind in manchen Kreisen das Synonym für Datenkraken und Abhörinstrumente, doch ein smarter Sprachassistent ist schlechterdings nicht ohne reichlich Training zu bekommen, das gilt für Apple ebenso für Siri. Und so ist ,kaum überraschend, was neulich bekannt wurde: Auch bei Apple fließen Sprachbefehle an Siri stichprobenartig an menschliche Operatoren, die die Fragmente durchhören und klassifizieren, wie es bei Alexa der Fall ist, apfelpage.de berichtete. Bei Amazon ist es möglich, die Alexa-Aufzeichnungen zu löschen, es ist jedoch umständlich und es wird auch nicht alles gelöscht. Bei Apple sieht es ähnlich aus.
So lassen sich die Siri-Aufzeichnungen unterbinden
Eins ist offensichtlich: Apple hat es nicht vorgesehen, dass der Durchschnittsnutzer die Weitergabe von Siri-Mitschnitten an Dritte unterbindet. Es ist jedoch dennoch möglich, hierfür aber muss der Nutzer einige Umwege nehmen. Der Sicherheitsspezialist Jan Kaiser hilft dabei.
Nowhere in the reporting about contractors listening to Siri requests have I seen a guide how to disable this. The piece by Guardian says it is not possible to opt-out, and all following publications are repeating the same error. This is how: https://t.co/cbZXIipma0 U’re welcome
— Jan Kaiser 🛡️ (@jankais3r) July 29, 2019
Um Siri anzuweisen, keine Mitschnitte von Spracheingaben mehr zu verschicken, ist ein iOS-Profil erforderlich. Ein solches können erfahrene Nutzer mit Apples Entwickler-Werkzeug Konfigurator erstellen, es ist aber dringend davon abzuraten, hiermit etwas zu basteln, wenn man nicht weiß, was man tut. Kaiser stellt ein bereits fertiges Profil für Nutzer bereit. Wer es ausführt, kann Siri den entsprechenden Stecker ziehen. Allerdings muss der Nutzer auf die guten Absichten des Autors vertrauen, daher kann er auch den Quellcode des Profils einsehen. iOS-Profile sind mächtige Werkzeuge, mit ihrer Hilfe kann fast alles auf dem Gerät getan werden, leider dürften auch nur die wenigsten Nutzer bei Betrachtung des Quellcodes verstehen, was sie sehen.
Vor diesem Hintergrund wird klar, dass Apple nie vor hatte, die Abschaltung dieser Funktion einfach zu machen. Möglich wäre, dass eine entsprechende Funktion später ergänzt und als großer Fortschritt beim Schutz der Privatsphäre verkauft wird.
14 Gedanken zu „Wie Alexa schickt auch Siri Sprachfragmente an Dritte: So verhindert ihr dies“
Die Kommentare sind geschlossen.