Facebook und Youtube sind nach einem Bericht von Reuters dazu übergegangen, extremistische Videos auf den Plattformen automatisch zu blockieren. Doch das nächste Problem wartet schon.
Die Nachrichten-Agentur Reuters hat dies aus zwei nicht näher genannten Quellen erfahren. Demnach verhindere ein Algorithmus künftig, dass Extremisten-Videos überhaupt ins Netz gelangen. Als Orientierung dienen offenbar bislang eingestellte Propaganda-Filme. Von denen wird eine Art Fingerabdruck erstellt, der mit neu hochgeladenen Videos abgeglichen wird.
The technology was originally developed to identify and remove copyright-protected content on video sites. It looks for „hashes,“ a type of unique digital fingerprint that internet companies automatically assign to specific videos, allowing all content with matching fingerprints to be removed rapidly.
Geschehen ist der Schritt vermutlich auf Druck der Regierungen weltweit. Sie sehen die digitale Propaganda der Terrororganisationen als innenpolitische Gefahr. Insbesondere der IS versucht durch solche Videos nicht nur Kämpfer zu rekrutieren, sondern auch zu Selbstmordanschlägen in westlichen Ländern aufzurufen. Facebook und YouTube waren hierzu beliebte Plattformen.
(Bild: Annette Shaff / Shutterstock.com)
Internet-Propaganda wirkt – auch in Deutschland
Vor allem die hohe Reichweite der sozialen Netzwerke konnten die Organisationen für sich nutzen. Bislang waren die Plattformen damit völlig überfordert. Wie wichtig dieser Schritt nun aber ist, zeigt eine Studie des Bundeskriminal-Amtes aus dem Jahr 2013. Sie legt nahe, dass die Videos einen sehr großen Einfluss auf die Menschen haben können. Insbesondere Leute mit geringer Kontrollüberzeugung, relativ geringem Bildungsstand oder einer rechtsorientierten politischen Einstellung sind anfällig für Propagandabotschaften dieser Art. Zum Teil wurden die Videos vor ihrer manuellen Löschung millionenfach geklickt und geteilt.
Das größte Problem ist nicht gelöst
Zwar werden durch den neuen Algorithmus Videos noch vor ihrer Veröffentlichung gelöscht, wodurch sie sich nicht ausbreiten können, doch ein viel größeres Problem adressiert die Änderung wohl nicht: Live-Videos.
Dabei sind gerade sie so gefährlich: So konnte etwa der Polizistenmörder von Magnanville seine Tat zu Beginn der Europameisterschaften live auf Facebook zur Schau stellen. 13 Minuten lang konnte jeder Nutzer sehen, wie der Mörder eines französischen Polizisten und seiner Frau in dessen Wohnung von der Tat erzählt. Nicht auszuschließen, dass auch Terrororganisationen von dieser Funktion Gebrauch machen.
Attentat de #Magnanville revendiqué hier, 20h52, avec l’application Facebook live pic.twitter.com/4qiNFwijh0
— David Thomson (@_DavidThomson) 14. Juni 2016
Dass der nun eingeführte Algorithmus auch solche Live-Aufnahmen entfernen kann, ist unwahrscheinlich. Das Beispiel zeigt aber, wie schwierig es für soziale Netzwerke ist, auf die Propaganda zu reagieren – ohne funktional einzuschränken. Mit einem Algorithmus ist das Problem also nicht vom Tisch.
9 Gedanken zu „Facebook und YouTube: Das große Problem mit Extremisten-Videos“
Die Kommentare sind geschlossen.