Home » Apple » Kinder vor sexueller Ausbeutung schützen: Apple kündigt umfassende Maßnahmen an

Kinder vor sexueller Ausbeutung schützen: Apple kündigt umfassende Maßnahmen an

Apple Initiative für mehr Kinderschutz - Apple

Apple hat eine Reihe neuer Maßnahmen zum Schutz von Kindern vor Belästigung und sexuellen Übergriffen angekündigt. Diese neuen Mechanismen nutzen maschinelles Lernen und untersuchen unter anderem Fotos direkt auf den Geräten der Nutzer. Die Umsetzung ist dabei technisch sehr anspruchsvoll.

Apple hat eine neue umfangreiche Initiative für besseren Schutz von Kindern (Affiliate-Link) angekündigt, die Apple-Produkte wie ein iPhone nutzen. Kinder sollen so etwa vor Darstellungen sexueller Handlungen und sexueller Ausbeutung geschützt werden.

Die Umsetzung erfolgt auf verschiedenen Wegen: Einerseits greifen die neuen Schutzmaßnahmen direkt in iMessage: Wenn Kinder bis 13 Jahren versuchen, Bilder mit eindeutigen sexuellen Inhalten zu versenden, erhalten sie eine Warnmeldung. Sollten sie sich entscheiden, das Bild dennoch zu senden, erhalten die Eltern eine entsprechende Benachrichtigung.

Wenn Bilder mit sexuellen Darstellungen an Kinder zugestellt werden, werden diese zunächst unscharf dargestellt. Das Kind erhält eine Benachrichtigung, in der es darauf hingewiesen wird, dass das Foto sensible Motive zeigen kann. Auch hier kann das Kind das Bild anzeigen, es wird allerdings darauf hingewiesen, dass die Eltern hierüber informiert werden.
Das setzt voraus, dass Kinder und Eltern in der selben iCloud-Familie organisiert sind.

Automatische Suche nach sexuellem Missbrauch

Eine weitere und vielleicht noch bedeutendere Neuerung ist ein automatischer Abgleich zur Suche von Bildern, die sexuelle Handlungen mit Kindern  zeigen. Microsoft hat sich schon lange als Vorreiter auf diesem Gebiet etabliert und dessen Technologie Photo DNA kommt bereits seit Jahren in den Lösungen verschiedener Unternehmen wie etwa Cloud-Hostern zum Einsatz. Die Technik von Apple ist ähnlich aufgebaut, jedoch in den Details noch etwas komplizierter.

Im Kern läuft ein Abgleich mit einer Datenbank, die einen Index bekannter Bilder und Bildkomponenten führt. Fotos von Nutzern eines iPhones oder Macs werden auf Übereinstimmungen mit dieser Datenbank hin geprüft, doch hier hat Apple einigen Aufwand getrieben, um die Privatsphäre zu schützen. Der Abgleich erfolgt zunächst anonymisiert und lokal auf den Geräten der Nutzer. Zudem wird nicht unmittelbar bei Entdeckung einer Übereinstimmung eine Aktion ausgelöst. Viel mehr nutzt Apple hier einen Schwellenwert, der auf recht undurchsichtige Weise festlegt, ab wann laut Apple Handlungsbedarf entsteht. All diese Schritte erfolgen MachineLearning-basiert und voll automatisch auf den Geräten der Nutzer, bevor Bilder zur iCloud übertragen werden. Wird der kritische Schwellenwert überschritten, wird der entsprechende Vorgang manuell durch Mitarbeiter von Apple überprüft.

Der iCloud-Account des Kunden wird sodann deaktiviert und das National Center for Missing and Exploited Children, bei dem auch die zugrundeliegende Datenbank geführt wird, wird informiert. Apple erklärt, das genutzte Modell schließe versehentliche Sperrungen von Accounts nahezu sicher aus, dennoch können Nutzer im Anschluss eine Kontaktmöglichkeit nutzen, um im Falle eines Fehlers wieder Zugang zu ihrem Account zu erhalten.

Wann und wo starten die neuen Features?

Diese Neuerungen werden als Teil von iOS 15 und macOS Monterey später im Jahr ausgerollt, aber zunächst nur in den USA. Wann und in welchen weiteren Märkten sie darüber hinaus starten werden, bleibt einstweilen unklar.


* Bei den hier genutzten Produkt-Links handelt es sich um Affiliate-Links, die es uns ermöglichen, eine kleine Provision pro Transaktion zu erhalten, wenn ihr über die gekennzeichneten Links einkauft. Dadurch entstehen euch als Leser und Nutzer des Angebotes keine Nachteile, ihr zahlt keinen Cent mehr. Ihr unterstützt damit allerdings die redaktionelle Arbeit von WakeUp Media®. Vielen Dank!

-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.

Oder willst du mit Gleichgesinnten über die neuesten Produkte diskutieren? Dann besuch unser Forum!

Gefällt Dir der Artikel?

Roman van Genabith
twitter Google app.net mail

7 Kommentare zu dem Artikel "Kinder vor sexueller Ausbeutung schützen: Apple kündigt umfassende Maßnahmen an"

  1. Thorsten 6. August 2021 um 08:55 Uhr ·
    Grundsätzlich ist das hervorragend, aber es hat in der Vergangenheit bei Microsoft vermehrt Fälle gegeben, wo die Konten gesperrt wurden obwohl nachweislich kein Anlass dafür war . Nachzulesen bei Dr. Windows.
    iLike 5
    • Guenni 6. August 2021 um 20:08 Uhr ·
      Sorry, das ist nicht hervorragend. Mit einem zunächst guten Vorsatz fängt es an. Dann werden private, politische und sonstige Dinge kontrolliert und dann haben wir es nicht mehr unter Kontrolle. Jedes autoritäre Regime, Hacker mit kriminellen Absichten, Geheimdienste, usw. dürften sich schon die Hände reiben.
      iLike 8
  2. Hmbrgr 6. August 2021 um 09:42 Uhr ·
    In Bezug auf das Thema ist das ok! Aber hört es damit auf? Was kann/wird noch überprüft? Texte zu politischen Einstellungen? Dokumente etc auf irgendwelche Schlüsselwörter? Die totale Überwachung wird fortgesetzt. Das ist daran die schlechte Nachricht! Da hilft nur noch die eigene Cloud.
    iLike 10
  3. Devil97 6. August 2021 um 12:44 Uhr ·
    Man muss also demnächst Angst haben seine eigenen Kleinkinder am Strand mit dem iPhone zu fotografieren weil es vom System dann später vielleicht als missbräuchlich eingestuft wird.
    iLike 10
  4. Klamur 6. August 2021 um 14:41 Uhr ·
    Ich finde es gut das man versucht Kinder zu schützen. Aber genauso wie die Post nicht meine Briefe scant so sollte apple auch nicht Private Nachrichten oder andere Inhalte des iPhones lesen dürfen. Da habe ich zu viel Angst vor Missbrauch und Vertraue den Regierenden zu wenig.
    iLike 11
  5. Veräppler 14. August 2021 um 09:15 Uhr ·
    Ich denke und hoffe auch ehrlich gesagt dass Apple hier zurückrudern muss sonst fährt man sich ein dramatisches Image Problem ein
    iLike 1
  6. carepack 20. August 2021 um 11:27 Uhr ·
    Mich würde mal interessieren, wie dieser Algorithmus angelernt wird…..
    iLike 0

Leider kann man keine Kommentare zu diesem Beitrag mehr schreiben.