Apple Initiative für mehr Kinderschutz - Apple

16. August 2024

Fabian Schwarzenbach

Sammelklage: Apple tut zu wenig gegen Material von Kindesmissbrauch in iCloud

Eine kürzlich eingereichte Klage will Apple zwingen, schärfer gegen den Vertrieb von Missbrauchsinhalten auf seiner Cloud-Plattform iCloud vorzugehen. Das Unternehmen wird in den USA beschuldigt, trotz Wissens um ein gravierendes Problem mit Kindesmissbrauchsmaterial (Child Sexual Abuse Material, CSAM) untätig geblieben zu sein.

Die Klage wurde im Namen einer 9-jährigen Klägerin eingereicht, die nach eigenen Angaben Opfer von Kindesmissbrauch wurde. Unbekannte hätten sie über iMessage dazu gebracht, CSAM-Inhalte von sich selbst zu erstellen und diese über iCloud zu teilen.

Klage über fehlende Maßnahmen, die Apple aus Datenschutzgründen nicht implementierte

Im Mittelpunkt der Klage steht die Tatsache, dass Apple seine iCloud-Inhalte nicht auf CSAM scannt, obwohl es dafür verfügbare Technologien wie PhotoDNA gibt, die von anderen Cloud-Anbietern genutzt werden. Die Klägerin fordert, dass Apple eine Meldefunktion für verschlüsseltes Material integriert und die Verbreitung von Missbrauchsinhalten auf seiner Plattform eindämmt.

Apple hatte vor drei Jahren eine Technologie zur Erkennung von CSAM angekündigt, die Fotos auf iPhones lokal scannen sollte. Nach massiver Kritik von Datenschützern wurde das Vorhaben jedoch aufgegeben, wie Apfelpage berichtete. Dies wird nun erneut kritisiert, da Apple im Vergleich zu Konkurrenten wie Google und Meta angeblich zu wenig in Schutzmaßnahmen investiert und nur wenige CSAM-Fälle meldet. Apple verweist hingegen auf den Nacktfilter in seinen Betriebssystemen, der pornografisches Bildmaterial automatisch unkenntlich macht.

9 Gedanken zu „Sammelklage: Apple tut zu wenig gegen Material von Kindesmissbrauch in iCloud“

  1. Erst regen sich alle über die Pläne von Apple auf das sie da was machen wollen. Und jetzt wo sie das eingestellt haben wird gleich wieder drauf los gegangen.
    • Der Meinung kann ich mir nur anschließen. Kann mich noch sehr gut daran erinnern, wie Apple eingreifen sollte und dies nicht gewünscht war.
  2. Eine 9jährige? Macht unkontrolliert sexuelle Bilder und verteilt sie? Das ist wohl eher ein Fall fürs Familiengericht. Das ist so als wäre der Stromanbieter Schuld wenn das Kind in die Steckdose fasst.
    • Das ist auch was wo sich denn die Eltern drum kümmern müssen und die Kinder in der Hinsicht aufklären und sensibilisieren.
    • Im Artikel steht: Unbekannte haben die 9 jährige DAZU GEBRACHT…das ist wohl etwas anderes als wenn sie es selbst macht. Meinst du, wenn du ein Kind dazu bringst in die Steckdose zu fassen, dass du dann straffrei ausgehst? Ich glaube nicht.
  3. Meiner Meinung nach geht es hier um die Möglichkeit, zu zensurieren und staatlicherseits in die iCloud reinschauen zu können, um so den Datenschutz umgehen zu können …

Die Kommentare sind geschlossen.