Es war neben Horror-Clowns, der Time Warner-Übernahme und der US-Wahl das Thema des Wochenendes: Social Bots.
Politische Diskussionen verlagern sich zunehmend ins Internet. Soziale Netzwerke wie Facebook oder auch Twitter eignen sich besonders gut, um politische Ansichten zu verbreiten und zu diskutieren. Doch sie werden auch zum Spielball komplexer politischer Interessen, da sie oft auch bestimmen, worüber offline geredet wird. Über Programme, die Hashtags auswerten und anhand ihrer Häufigkeit Trends identifizieren, werden Themen heute oft als Empörungswellen ausgemacht und von Medien und Politik aufgegriffen.
An sich ein ziemlich demokratischer Prozess – hat doch jeder die gleiche Chance, sich an der politischen Diskussion zu beteiligen und eigene Themen zu positionieren. Doch wo politische Interessen wirken, herrscht auch ein großes Interesse, diese zu beeinflussen. Es verwundert daher kaum, dass beispielsweise im russischen St. Petersburg in den letzten Jahren ganze Trollfabriken mit mehreren hundert Mitarbeitern entstanden, deren Aufgabe es ist, das politische Klima im Netz bewusst zu beeinflussen.
Der technische Fortschritt macht aber auch vor Trollen keinen Halt. Auch in diesem Bereich gehört den Bots die Zukunft. Ein Zwölftel der Twitter-Accounts sind inzwischen Bots. Und die machen Stimmung: sei es in der Ukraine-Krise, beim Brexit-Voting oder jüngst im US-Wahlkampf. Professor Philip Howard, Professor für Internet-Studien an der Oxford-Universität, hat letzteren in einer Studie untersucht und auf Twitter allein in den ersten drei Tagen der ersten beiden Debatten insgesamt 1,7 Millionen Tweets ausfindig gemacht, die von Maschinen erstellt worden. Das ist mehr als ein Viertel aller Botschaften zu diesem Thema. Aus dem Trump-Lager kommen über vier mal so viele Bot-Tweets, wie aus dem Clinton-Lager. Dabei ist unklar, ob die Beiträge von den Anhängern der beiden Lager oder von den Kandidaten selbst beauftragt wurden.
Genauso schwer ist es, die einzelnen Beiträge zu durchschauen, denn Sie fallen oft nur durch ihre Ähnlichkeit zu einander auf. Zwar gibt es bereits Programme, die Bot-Beiträge ausfindig machen können – ein Mensch, der nur einzelne Beiträge liest, wird sie jedoch kaum von normalen Beiträgen unterscheiden können.
Genau hier liegt das Problem: Da die menschlichen Nutzer die Bot-Beiträge nicht als solche erkennen, glauben sie, dass andere Menschen hinter den Beiträgen stecken. Je mehr dieser Beiträge die menschlichen Nutzer erreichen, desto stärker wird ihnen der Eindruck vermittelt, dass eine große Zahl von Menschen – oder gar die Mehrheit – die Meinung aus diesen Beiträgen vertritt, obwohl dies in Wahrheit nicht der Fall ist.
Aus Angst, der (gefühlten) Mehrheit zu widersprechen, halten sie gegebenenfalls sogar ihre eigene Meinung zurück und schweigen. Je mehr Nutzer ihre Sichtweise verschweigen, desto stärker wirkt die Propaganda der Bot-Beiträge. Dieses Phänomen wird in der Kommunikationswissenschaft daher auch als Schweigespirale bezeichnet. Am Ende der Spirale steht ein verzerrtes Meinungsklima, welches nicht mehr demokratisch legitimiert ist, sondern die Interessen einiger weniger vertritt. Dieses Phänomen – und damit auch Bots – stellen daher eine große Gefahr für unsere Gesellschaft dar.
Alle im Deutschen Bundestag vertretenen Parteien lehnen den Einsatz von Bots im Wahlkampf daher ab. So sagt SPD-Generalsekretärin Katarina Barley im SPIEGEL-Interview beispielsweise: „Die sozialen Medien werden in unserem Wahlkampf eine wesentliche Rolle spielen. Aber den Einsatz von Bots lehnen wir ab.“
Die AfD vertritt hingegen eine andere Auffassung: „Gerade für junge Parteien wie unsere sind Social-Media-Tools wichtige Instrumente, um unsere Positionen unter den Wählern zu verbreiten“, sagte Bundesvorstandsmitglied Alice Weidel und ergänzte: „Selbstverständlich werden Social Bots in unserer Strategie im Bundestagswahlkampf bedacht werden“.
Der Bundestag befasst sich derweil bereits mit dem Thema und hat gerade das Büro für Technikfolgen-Abschätzung mit einer Studie zu Auswirkungen und „eventuellen gesellschaftlichen Gefahren“ von Social Bots beauftragt. Im Januar sollen erste Ergebnisse vorgestellt werden. Wir bleiben gespannt.
Beispiele für Twitter-Bots.
Ein sehr bekanntes Beispiel ist Tay. Der Account wurde komplett von einer selbstlernenden Maschine gesteurt und eskalierte innerhalb kürzester Zeit von einem friedlichen Mädchen zum radikalen Hitler-Verehrer.
Etwas aktueller ist dieser Tweet. Trump zitiert hier seinen eigenen Bot:
15 Gedanken zu „Bots – Gefahr für die Demokratie?“
Die Kommentare sind geschlossen.