Home » Apple » Apple bestätigt: iCloud Mail scannt schon seit 2019 nach Kinderpornographie

Apple bestätigt: iCloud Mail scannt schon seit 2019 nach Kinderpornographie

Apple scannt schon längere Zeit nach Kinderpornographie in der iCloud: So werden bereits seit einiger Zeit E-Mails daraufhin überprüft. Fotos sind bis jetzt allerdings noch nie auf diese Weise gescannt worden, wie Apple nun erklärt hat.

Apples Initiative zur Bekämpfung von Kinderpornographie auf seiner Plattform begründet keine völlig neue Tradition: Schon länger wird in der iCloud nach solcher Art Material gesucht. Wie das Unternehmen nun bestätigt hat, werden Nachrichten, die per iCloud Mail verschickt werden, bereits seit 2019 auf CSAM, also Material, das zur sexuellen Ausbeutung von Kindern beiträgt, überprüft.

Hierbei kommt eine ähnliche signaturbasierte Suche zum Einsatz, wie sie in Zukunft auf iCloud Fotos ausgedehnt werden soll. In dieser Meldung haben wir den technischen Ablauf erklärt.

Suche in Cloud-Plattformen schon lange üblich

Wie ebenfalls bereits zuvor erklärt, ist die automatisierte Suche nach CSAM auf Cloud-Plattformen schon länger üblich. Plausibel ist daher durchaus, dass Apple in iCloud Mail ebenfalls schon vor geraumer Zeit diesen Weg eingeschlagen hat. Die Alternative wäre sicher eine noch stärkere Explosion an Kinderporno-Material auf Apples Plattform gewesen. Weiter deutet sich an, dass einige zusätzliche Datenfelder in der iCloud ebenfalls schon zuvor auf CSAM hin gescannt wurden, Fotos seien aber bis jetzt nicht hierin einbezogen worden, ebenso wenig iCloud-Backups.
Die Suche in E-Mails war technisch problemlos möglich, da hier nur eine Transportverschlüsselung zum Einsatz kommt. Im Gegensatz zu einer Ende-zu-Ende-Verschlüsselung liegen die Daten hier auf dem Server des Dienstbetreibers in Klartext vor.

Die Suche lokal auf den Geräten der Nutzer eröffnet allerdings ein neues Kapitel in der Debatte um die richtigen Mittel zur Bekämpfung von Missbrauch an Kindern, wir haben in dieser Meldung kritische Stimmen zu Wort kommen lassen.

Hinweis

Aufgrund der sensiblen Natur dieser Thematik behalten wir uns vor, Kommentare zu diesem Artikel nicht oder nur eingeschränkt zuzulassen.

-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.

Oder willst du mit Gleichgesinnten über die neuesten Produkte diskutieren? Dann besuch unser Forum!

Gefällt Dir der Artikel?

Roman van Genabith
twitter Google app.net mail

12 Kommentare zu dem Artikel "Apple bestätigt: iCloud Mail scannt schon seit 2019 nach Kinderpornographie"

  1. Klamur 23. August 2021 um 21:49 Uhr ·
    Ich bin dafür das die Post in Zukunft alle Briefe von jeden durchsucht. Sicher ist sicher.
    iLike 9
  2. kottan58 23. August 2021 um 21:56 Uhr ·
    Bin da hin und her gerissen. Auf der einen Seite ist mir der Schutz der Kinder sehr wichtig. Auf der anderen Seite finde ich das Durchsuchen z.B. meiner Fotos durch eine Firma/Konzern ohne irgendeinen Verdacht/Beschluss für fragwürdig.. Das wäre eine Macht, die in Deutschland noch nicht einmal der Staat hat.
    iLike 16
    • thisismorten 23. August 2021 um 22:33 Uhr ·
      Stimme da vollkommen zu!
      iLike 0
    • jar 23. August 2021 um 22:58 Uhr ·
      Wie gut dass sie das nicht tun. Richtig Informieren und dann kommentieren ;)
      iLike 1
    • Devil97 24. August 2021 um 10:13 Uhr ·
      Interessant wird es erst wenn der erste in einen „falschen“ Verdacht kommt. Weil er doch nur sein eigenes Kind fotografiert hat. früher war es normal die kleinen Kinder am Strand zwecks urlaub zu fotografieren, …und die waren oft nagisch
      iLike 1
  3. Blub 23. August 2021 um 22:37 Uhr ·
    Die Konzerne bestimmen längst die Meinung der Öffentlichkeit. Das sieht man immer wieder wenn Videos oder Kommentare gelöscht werden. Sogar einem US President wurde das Wort verboten, immerhin von der Mehrheit vom amerikanischen Volk gewählt. Solche Scans verwundern da eigentlich kaum noch. Ich bin absolut gegen Kinderpornographie, ich habe selbst 2 Kinder, aber das scannen meiner Bilder geht mir entschieden zu weit. Apple zeigt mal wieder warum ich schon seit Anbeginn auf eine Speicherung in der Cloud verzichtet habe. Ich dachte eigentlich das mein Account irgendwann jemand knacken wird, dass aber sogar Apple meine Bilder scannen will, dass ist ein echter Hammer. Das schlimme, bei Apple hat man kaum eine Wahl, entweder iCloud oder ein unverschämt teueres Speicherupgrade kaufen.
    iLike 2
    • jar 23. August 2021 um 23:04 Uhr ·
      Ich nehme an du bist in Deutschland. Da greift das eh nicht. Außerdem durchsucht Apple eh nicht deine Fotos, sondern ein Algorithmus, der nur bei über 30 Funden/ Übereinstimmung mit einer Kinderporno-Datenbank Alarm schlägt und dann und nur dann, werden nur diese Fotos von Personen überprüft. Außerdem sind deine Beispiele Verstöße gegen die Richtlinien der Plattformen-Betreiber (Twitter/ US President) gewesen, die er akzeptiert hatte als er dem Dienst beigetreten ist bzw. in dem er diesen nutzt. Daher legitim und gar nicht mit dem Thema hier vergleichbar
      iLike 5
  4. Suebach79 23. August 2021 um 22:53 Uhr ·
    Weiß nicht was die ganze Diskussion soll, wer nichts zu verstecken braucht kann doch zeigen was er hat, so läufts auch in der Sauna…Besitzer hob Kinderpornografie haben keine Rechte und es bedarf der Anstrengung aller diese Machenschaften zu unterbinden, wenn notwendig auch mit Verzicht der Rechtschaffenden auf etwas Privatsphäre. Stellt euch vor euer Kind wäre erst ausgespäht und dann missbraucht, ihr würdet euch wünschen, dass es jemand hätte vorhersehen können, um es zu verhindern. 🤷🏼‍♂️
    iLike 2
    • jar 23. August 2021 um 23:06 Uhr ·
      Deine privaten Fotos bekommt eh keiner zu Gesicht, es sei denn es ist Kinderpornografie, die in einer Datenbank zum Abgleich bereits existiert. Daher kann man nicht von Eingriff in die Privatsphäre sprechen
      iLike 1
  5. Stefan 24. August 2021 um 05:38 Uhr ·
    Richtig so. Kinderschutz muss den Datenschutz aushebeln. Bei anderen Vergehen darf man das ruhig in Zweifel ziehen. Aber Schutz der Kinder muss darüber stehen. Wobei man ja nicht weiß was danach passiert…. Die Behörden sind ja bekannt für ihre undurchschaubaren Machenschaften. Bestes Beispiel der Fall Edathy… In meinen Augen der richtige Schritt den Apple da geht.
    iLike 0
  6. Pacesetter67 24. August 2021 um 08:36 Uhr ·
    Bei fast allen großen Anbietern von Cloud Speicher werden Fotos nach Kinderpornographie überprüft. Egal ob Microsoft Amazon oder Google. Ich habe vor Jahren mal eine interessante Reportage zu dem Thema Kinderpornographie gesehen. Über 90 % aller Hinweise bekommen die deutschen Behörden aus den USA. Ohne diese Hinweise würden die meisten Übergriffe auf Kinder nicht aufgeklärt. Da nur sehr spezielle Algorithmen meine Fotos scannen habe ich keine Probleme damit.
    iLike 0
  7. Johannes Freiberg 24. August 2021 um 12:48 Uhr ·
    Kinderpornographie zu bekämpfen ist wichtig. Wenn es aber um Eingriffe in die Privatsphäre geht, dann hat der Staat darauf das Monopol. Genau wie bei einer Hausdurchsuchung bedarf es einer richterlichen Anordnung. Ich finde es unmöglich, wenn ein Privatunternehmen seine Kunden unter Generalverdacht stellt und eine Backdoor schafft die später missbraucht werden kann. Natürlich sagt man jetzt, man scant „nur“ nach Kinderpornos. Und in 3 Monaten scant man „nur“ nach Terroristen. Und in 2 Jahren erfährt man, dass auch nach „Drogenkonsumenten“ gescannt wird. Und dann hat eine Firma wie Pegasus eine Schwachstelle gefunden und Regierungen scannen nach politischen Gegnern die dann in Arbeitslagern gefoltert werden. Niemand kann sagen, wofür diese Spionagetechnologie in Zukunft verwendet wird, wenn sie erstmal überall aktiv ist.
    iLike 3

Leider kann man keine Kommentare zu diesem Beitrag mehr schreiben.