Social Bots: Die gezielte Manipulation aus dem Internet

Von: Christina Handschuhmacher
Letzte Aktualisierung:
14252270.jpg
Maschine statt Mensch: Gerade im Kurznachrichtendienst Twitter sind Meinungsroboter ein Problem. Sie sind so programmiert, dass sie massenhaft Beiträge erstellen, teilen und mit normalen Nutzern interagieren. So können sie die Stimmung in dem Sozialen Netzwerk beeinflussen. Foto: dpa
14251774.jpg
„Der Versuch der politischen Beeinflussung durch Social Bots ist eine reale Gefahr“, sagt RWTH-Professorin Meyer. Foto: P. Winandy/RWTH Aachen

Aachen. Spätestens der US-Wahlkampf hat es gezeigt: In den Sozialen Netzwerken kommunizieren längst nicht mehr nur Menschen, sondern auch Meinungsroboter. Gerade nach den drei TV-Duellen von Hillary Clinton und Donald Trump sandten Social Bots massenhaft vorgefertigte Unterstützer-Tweets ab.

Aber auch vor der Abstimmung in Großbritannien über den EU-Austritt sowie im Verlauf der Ukraine-Krise waren Social Bots als digitale Propaganda-Maschinen aktiv. Wie funktionieren Social Bots? Wie verbreitet sind sie? Und wie groß ist die Gefahr, dass sie vor den Wahlen auch die politische Meinung in Deutschland beeinflussen?

Was genau sind Social Bots?

Als Bot – eine Abkürzung für das englische Wort Robot (Roboter) – bezeichnet man ein autonom agierendes Programm im Internet. Social Bots sind von Menschen programmierte Meinungsroboter, die in den Sozialen Netzwerken aktiv sind. „Sie geben vor, ein echter Internetnutzer zu sein und simulieren menschliches Verhalten“, erklärt Ulrike Meyer, Informatik-Professorin an der RWTH Aachen mit dem Lehr- und Forschungsgebiet IT-Sicherheit. Für die normalen Internetnutzer sei kaum zu erkennen, ob es sich bei dem Profil um einen Menschen oder eine Maschine handelt.

Wie funktionieren Social Bots, und was ist ihr Ziel?

Social Bots werden eingesetzt, um gezielt Meinungen im Internet massenhaft automatisiert weiterzuverbreiten. So wird versucht, das Stimmungsbild im Internet in eine bestimmte Richtung zu beeinflussen oder zu verzerren. Das Spektrum ist riesig – ob Ukraine-Konflikt, Brexit oder US-Wahl. So können Social Bots etwa gezielt Politiker unterstützen – wie im US-Wahlkampf, wo laut einer Studie nach der ersten TV-Debatte von Clinton und Trump jeder dritte Unterstützer-Tweet von Trump und jeder vierte Unterstützer-Tweet von Clinton von einem Social Bot abgesetzt wurde.

Genauso können Bots Aussagen oder Ereignisse, die etwa Islamfeindlichkeit oder Fremdenhass schüren, gezielt weiterverbreiten. „Der Bot greift dabei auf eine Art Datenbank mit Textversatzstücken zurück und reagiert mittels eines Algorithmus automatisiert auf bestimmte Schlüsselwörter in anderen Tweets“, erklärt Meyer. Aufwendig programmierte Bots könnten auch dazulernen und immer ausgefeilter antworten und reagieren. Hinzu kommt: Twitter ermittelt zu welchen Themen die Nutzer gerade besonders viel schreiben. Diese sogenannten „Trending Topics“ werden von politischen Beobachtern auch zum Aufspüren aktueller Trends beobachtet. Forscher befürchten, dass bei Manipulationen durch Bots im großen Stil, Politiker dazu verleitet werden, auf diese vermeintlichen Trends einzugehen, wodurch gewisse Themen eine Prominenz erreichen könnten, die sie ohne die Social Bots nicht bekommen hätten.

Andererseits: „Social Bots sind nicht per se manipulativ oder schlecht“, betont Meyer. „Sie können durchaus auch nützlich sein – etwa, wenn es darum geht, Warnmeldungen bei Naturkatastrophen online schnell zu verbreiten.“

Wie verbreitet sind Social Bots?

Gerade im Kurznachrichtendienst Twitter sind Social Bots stärker verbreitet als beispielsweise im Sozialen Netzwerk Facebook. Einer der Gründe: Tweets sind auf 140 Zeichen begrenzt. Deshalb sei menschliches Verhalten für Social Bots bei Twitter leichter zu fingieren, sagt Informatikprofessorin Meyer. Laut einer kürzlich veröffentlichten Studie von Forschern der Indiana University und der University of Southern California stecken hinter neun bis 15 Prozent der weltweit rund 319 Millionen aktiven Twitter-Nutzer Social Bots. Das sind hochgerechnet bis zu 48 Millionen Bot-Profile weltweit, die gezielt Tweets zu kontrovers diskutierten Themen weiterverbreiten, teils gezielt Nutzer ansprechen und das Stimmungsbild im Netz beeinflussen.

Wie kann ich erkennen, ob es sich bei einem Twitter-Account um einen Bot handelt?

So wie die Wissenschaftler händeringend nach Methoden suchen, um Bots als solche identifizieren zu können, suchen Bot-Programmierer weiter nach Methoden, um die Bots immer menschenähnlicher zu gestalten. Dennoch ist es nicht ganz unmöglich, Bots zu erkennen, sagt Meyer. Sie rät dazu, auf die Anzahl der täglichen Kurzmitteilungen und die Anzahl der weiterverbreiteten Tweets eines Accounts zu achten. Werden mehr als 50 Meldungen pro Tag abgesetzt und mehr als 50 Meldungen weiterverbreitet („retweetet“), ist dies ein erster Hinweis, dass es sich bei dem Account möglicherweise um einen Bot handelt.

Auch das Profil eines potenziellen Bots sollte man sich genauer angucken: Welche Informationen stehen dort? Wirken sie glaubwürdig? Ein weiterer möglicher Hinweis: Zu welcher Uhrzeit werden die Tweets abgesetzt? „Ein menschlicher Nutzer twittert nicht kontinuierlich – 24 Stunden am Tag. Eine Maschine kann das aber schon“, sagt Meyer. Zudem könne man versuchen, mit dem Nutzer via Twitter in Kontakt zu treten und das Thema zu wechseln; an der Reaktion könne man oft erkennen, ob es sich um eine reale Person handelt.

Wer steckt hinter den Bots?

Für die Programmierung der Bots sind meist Informatiker verantwortlich. „Das heißt aber nicht zwangsläufig, dass sie etwas mit der Meinung zu tun haben, die die Bots schließlich vertreten“, betont Meyer. Denn mit nur wenig Programmierwissen lasse sich die Meinung eines Bots komplett verändern. „Die Initiatoren und Urheber von Social Bots können bislang bis auf wenige Ausnahmen nicht identifiziert oder rückverfolgt werden“, heißt es in einer Studie des Büros für Technikfolgenabschätzung (TAB), einer wissenschaftlichen Einrichtung zur Beratung des Deutschen Bundestages. Mutmaßliche Initiatoren politisch motivierter Manipulationen seien etwa Geheimdienste oder Terrorgruppen, aber auch andere Akteure wie Unterstützer im Wahlkampf.

Wie einfach lassen sich Bots programmieren?

Das kommt auf die Komplexität des Bots an, sagt Meyer. Oft seien Programmiercodes für Bots im Internet auffindbar, so dass auch Menschen mit nur geringen ITKenntnissen darauf aufbauend einen neuen Bot entwickeln können. Die Basis eines jeden Bots ist ein gehacktes oder ein gefälschtes Nutzerprofil in einem Sozialen Netzwerk. Diese Konten kann man im Internet kaufen. „Je nach Qualität zahlt man derzeit für 1000 falsche Accounts zwischen 45 US-Dollar (einfache Twitter-Accounts) und 150 US-Dollar (‚gealterte‘ Facebook-Accounts)“, schreibt Simon Hegelich, Professor für Political Data Science an der TU München, in der Studie „Invasion der Meinungsroboter“, die er im Auftrag der Konrad-Adenauer-Stiftung erstellt hat.

Die Anbieter seien in der Regel im Ausland – häufig in Russland – tätig. Neben den Accounts braucht man eine Steuerungssoftware für die Bots. Auch diese kann laut Hegelich im Netz gekauft werden. Zuletzt benötigt man noch den Zugriff auf eine automatisierte Schnittstelle (API) des Sozialen Netzwerks, die die Netzwerke, so Hegelich, oft kostenfrei zur Verfügung stellen, um Programmierer für ihre Webseite zu gewinnen. Rund um die Bots hat sich ein boomender Markt entwickelt mit Unternehmen, die Bots professionell und in großem Stil programmieren und vertreiben.

Wie groß ist die Gefahr der Meinungsbeeinflussung durch Social Bots mit Blick auf die Wahlen?

„Der Versuch der politischen Beeinflussung und Meinungsmache im Internet durch Social Bots ist eine reale Gefahr“, sagt Ulrike Meyer von der RWTH. Das TAB des Bundestages kommt zu einem ähnlichen Ergebnis. „Social Bots bergen das Potenzial, das Vertrauen in die Demokratie zu unterlaufen“, heißt es in den ersten Zwischenergebnissen einer seit Oktober 2016 zu dem Thema laufenden Studie. Social Bots könnten demnach die Informationslage in den Sozialen Medien und indirekt auch in den traditionellen Medien verfälschen. „Die Manipulation und Beeinflussung politischer Debatten würde langfristig zur Unterminierung des Vertrauens in die Demokratie und demokratischer Prozesse führen und zu einer Gefahr für die innere Sicherheit werden“, heißt es dort weiter.

Wie gehen die Parteien damit um?

Bereits als im Herbst hierzulande über den massiven Einfluss von Social Bots auf den US-Wahlkampf diskutiert wurde, signalisierten CDU, CSU, SPD, Grüne, Linkspartei und FDP einhellig: Social Bots als Wahlkampfhelfer sind für uns tabu. Nach anfänglich anderslautenden Meldungen zog dann auch die AfD nach. Die Selbstverpflichtung der Parteien bedeutet aber keineswegs, dass das Thema damit vom Tisch ist. Unterstützer einzelner Parteien könnten Bots dennoch gezielt steuern, um die Stimmung in Sozialen Netzwerken zu deren Gunsten zu beeinflussen. Die Grünen gehen deshalb noch einen Schritt weiter und fordern eine Kennzeichnungspflicht für die Roboter-Nachrichten.

Wie können die Sozialen Netzwerke verhindern, dass sich bei ihnen tausendfach Bots anmelden?

Facebook und Twitter verbieten in ihren Allgemeinen Geschäftsbedingungen die Nutzung von gefälschten Nutzerprofilen und Social Bots. Dass sie aktiv gegen Bots vorgehen, ist nicht bekannt. Eine strafrechtliche Relevanz besitzen Social Bots hierzulande bislang nicht – dafür ist das Phänomen zu neu.

Leserkommentare

Leserkommentare (1)

Sie schreiben unter dem Namen:



Diskutieren Sie mit!

Damit Sie Artikel kommentieren können, müssen Sie sich einmalig registrieren — bereits registrierte Leser müssen zum Schreiben eines Kommentars eingeloggt sein. Beachten Sie unsere Diskussionsregeln, die Netiquette.

Homepage aktualisiert

Finden Sie jetzt neue aktuelle Informationen auf unserer Startseite

Wieder zur Homepage

Die Homepage wurde aktualisiert