Apples neues Feature zum Schutz von Kindern vor sexuellen Übergriffen kann außer Funktion gesetzt werden, indem die iCloud-Foto-Mediatheek deaktiviert wird, das bestätigte nun. Die Funktion wird erst realisierbar, wenn Bilder in die iCloud hochgeladen werden.
Heute früh berichteten wir über eine neue und umfassende Initiative von Apple, die Kinder besser vor sexuellen Übergriffen und verstörenden Bildern schützen soll. Diese neuen Maßnahmen setzen auf maschinelles Lernen auf dem Gerät, doch am Schluss fällt die Entscheidung über eine zu treffende Maßnahme bei Apple. Fotos werden automatisch auf bestimmte Kennzeichen hin überprüft, doch dies ist nicht der Fall, wenn der Nutzer die iCloud-Foto-Mediathek deaktiviert, das hat Apple inzwischen der Seite MacRumors bestätigt.
Alternative bei Sorgen um den Datenschutz
Sobald der Nutzer seine iCloud-Foto-Mediathek deaktiviert hat, wird nicht nach illegalen Bildern gescannt. Auch in Backups von iCloud-Fotos wird in diesem Fall keine automatische Suche vorgenommen, so Apple auf Nachfrage. Zugleich betonte man noch einmal, dass nicht willkürlich Bilder von Nutzern überprüft werden, sondern lediglich ein automatisierter Abgleich anhand von Signaturen bestimmter Abbildungen stattfinde. Werden zahlreiche positive Treffer erkannt, wird im letzten Schritt der iCloud-Account eines Nutzer deaktiviert und die Behörden werden informiert.
Diese neue Funktion ist, sobald die iCloud-Foto-Mediathek aktiviert ist, nicht optional, wird allerdings zunächst nur in den USA eingeführt. Ob und wann diese Maßnahmen noch in weiteren Märkten zur Anwendung kommen, bleibt abzuwarten.
10 Gedanken zu „Apple bestätigt: Scan von Fotos auf Kinderpornographie nur bei aktiver iCloud-Foto-Mediathek“
Die Kommentare sind geschlossen.