Apple scannt Fotos in der iCloud der Nutzer auf Fälle von Kindesmissbrauch hin, das hat das Unternehmen nun bestätigt. Vergleichbare Techniken kommen bereits seit Jahren bei verschiedenen anderen Cloud-Anbietern zum Einsatz. Ob Apple neben der iCloud auch in iMessage entsprechende Suchvorgänge durchführt, ist nicht bekannt.
Apple hat automatisierte Maßnahmen in seinen Systemen implementiert, die auf Fotos nach Fällen von Kinderpornographie Ausschau halten, das hat nun Apples Chef-Datenschutzbeauftragte Jane Horvath im Rahmen einer Diskussionsrunde zum Thema bestätigt. Das Unternehmen nutzt dabei entsprechende digitale Signaturen, nach denen anhand einer zentralen Signaturdatenbank gesucht werden dürfte. Schlägt dieser Suchvorgang an, werden die Accounts, von denen die Fotos geteilt wurden, deaktiviert. Außerdem wird ein Fall von möglichem Kindesmissbrauch auch von Apple an die zuständigen Stellen gemeldet, jedoch wird jede Positiverkennung noch einmal einer abschließenden Überprüfung unterzogen. Naturgemäß führt Apple auch auf den entsprechenden Infoseiten nicht im Detail aus, wie die signaturbasierte Erkennung von Kinderpornographie genau funktioniert, entsprechende Techniken wurden aber nicht etwa bei Apple erstmals entwickelt und zum Einsatz gebracht.
Microsoft nutzt Kinderporno-Erkennung schon lange in OneDrive
Als Vorreiter in dem Bereich gilt Microsoft. Dort hat man bereits vor Jahren erste Versuche mit der Technik PhotoDNA unternommen, inzwischen kommt dieses Verfahren im Regelbetrieb auf OneDrive, dem Cloud-Angebot von Microsoft, im Einsatz. PhotoDNA setzt auf eine zentrale Signaturdatenbank, ähnlich wie ein Spam-Filter oder ein Antivirus-Programm. Natürlich müssen diese Signaturdatenbanken ebenso wie ihre Vorbilder aus der IT-Sicherheit mit entsprechenden Referenzen ausgestattet und ständig weiter gefüllt werden, obgleich hier auch mit MachineLearning-Verfahren gearbeitet wird.
Unklar ist, wie Apple in den Ende-zu-Ende-verschlüsselten Übertragungen von iMessage vorgeht. Theoretisch wäre es auch hier möglich, übertragene Medien mit Hilfe der eingesetzten Techniken zu prüfen, Apples AGB lassen ein solches Vorgehen auch zu.
12 Gedanken zu „Apple scannt die iCloud automatisiert nach Kinderpornographie“
Die Kommentare sind geschlossen.