Social Bots verbreiten massenhaft politische Parolen – und Fake News

Die Politik sorgt sich aktuell, dass Social Bots bei der kommenden Bundestagswahl die Wähler manipulieren und Falschmeldungen verbreiten könnten, so wie es schon in der Ukraine-Krise, beim Brexit-Referendum oder den Wahlen in Amerika geschehen ist. Die Diskussion um Bots ist dabei von einer Furcht vor Manipulation und der Beeinflussung des Wahlkampfs mit technischen Mitteln geprägt. Zwar haben sich Union, SPD, FDP, Grüne und Linke schon gegen den Einsatz solcher automatisierter Computerprogramme ausgesprochen, die sich etwa im Kurznachrichtendienst Twitter als reale Nutzer tarnen – aber ein gewisses Restrisiko bleibt. Auch die AfD hat zugesagt, sie nicht für sich zu nutzen.

Die Frage ist aber: Was bringen solche freiwilligen Selbstverpflichtungen? Denn selbst wenn die politischen Parteien tatsächlich auf Social Bots verzichten, kann jeder andere sie losschicken, um massenhaft politische Parolen in den sozialen Medien zu verbreiten – Anhänger wie Gegner, ebenso das Ausland. Besonders groß ist die Sorge, dass Russland sich in die Bundestagswahl einmischen könnte. Ein Alptraum für jeden, der schon einmal Erfahrungen mit russischen Hackern gemacht hat.

Wie funktionieren Social Bots genau? Zunächst bleibt festzustellen, dass diese Programme nicht grundsätzlich schlecht sind. Sie können für die verschiedensten Zwecke eingesetzt werden, beispielsweise um journalistische Artikel von Zeitungen auf Twitter oder Facebook anzukündigen, sobald sie online erschienen sind. Damit ähneln sie einfach Scripts, die lediglich der Automatisierung von Standardfunktionen dienen.

Intelligentere Software-Programme können für Unternehmen in Form von Online-Chatprogrammen einfache Dialoge mit Kunden übernehmen. In der Diskussion stehen nur solche Bots, übrigens eine Kurzform für das englische Wort Robots, also Roboter, die gezielt zur Meinungsmache eingesetzt werden. Dabei gibt es verschiedene technische Varianten. Manche Bots antworten auf Tweets zu bestimmten Themen automatisch mit Gegenargumenten. Andere verbreiten Äußerungen weiter, die eine gewünschte Meinung unterstützen. Bots können so gezielt bestimmte Meinungen und Positionen schwächen und andere (reichweitentechnisch) fördern.

Da im global vernetzten Internet jeder zu jeder Zeit kommunizieren kann, können Bots länderübergreifend und gezielt eingesetzt werden. Die Wissenschaftler Philip Howard und Bence Kollanyi von den Universitäten Oxford und Corvinus konnten zeigen, dass ein beachtlicher Anteil aller Tweets zu der Brexit-Abstimmung durch Bots verbreitet wurde. Dazu untersuchten sie mehr als 1,5 Millionen Tweets und definierten die Verfasser dann als automatisierte Programme, wenn sie mehr als 50 Statements am Tag veröffentlichten. Die jeweils aktivsten Einzelaccounts beider Seiten, @ivoteleave und @ivotestay, waren Bots. Sie setzten keine eigenen Statements ab, sonders retweeteten jene von der Seite, die sie unterstützten.

Auch im amerikanischen Wahlkampf waren Bots bereits massenhaft im Einsatz. Einer Untersuchung der Oxford-Universität zufolge wurden während des ersten TV-Duells gut ein Drittel aller Pro-Trump-Tweets automatisch generiert, während es im Fall von Hillary Clinton gut ein Fünftel waren. So schaffte es etwa der Hashtag #Trumpwon schnell in die Twitter-Trends, während die Medien ihn eher als Verlierer der Debatte sahen. In der Zeit bis zur Wahl nahmen die automatischen Pro-Trump-Tweets so deutlich zu, dass es davon fünfmal so viele gab wie positive Clinton-Tweets.

Allerdings weisen die Autoren der Studie auf zwei wichtige Punkte hin: Zum einen hätte demnach Trump auch ohne die Bots mehr Unterstützung auf Twitter bekommen als Clinton. Wie groß der Einfluss der neuen Meinungsmacher tatsächlich ist und ob sie entscheidend für deren Ausgang waren, ist nach wie vor nicht klar. Auch die Auswirkungen auf das Ergebnis des Brexit-Referendums sind nicht belegt. Ein zweiter Punkt: Die Autoren weisen mehrfach darauf hin, dass es keinerlei Belege dafür gebe, dass im amerikanischen Wahlkampf die Teams von Clinton und Trump hinter den Bots steckten.

Doch auch wenn es nicht die Teams von Clinton und Trump waren, die sie unterstützenden Lobbygruppen hatten sicherlich Interesse an dem Einsatz von Bots. Insofern lässt sich mit entsprechendem Budget und Know-How recht schnell (in Echtzeit) und massiv in die Live-Kommunikation eingreifen. Die genutzten Accounts sind dabei immer schwerer von echten Menschen zu unterscheiden sind, so daß die Grenzen zwischen Mensch und Maschine zunehmend verwischen. Zurück bleibt ein verwirrter Nutzer, der einen Bot nur etwa daran erkennen kann, wenn er die gleiche Antwort auf viele verschiedene Tweets gibt oder schneller reagiert, als man eine Nachricht überhaupt lesen kann. Auch fehlende Profilbilder beispielsweise – zunächst noch ein ziemlich gutes Indiz – werden seltener.

Politikwissenschaftler befürchten deshalb, dass die Nutzer bald nicht mehr unterscheiden können zwischen Wahrheit und Lüge und Fakten ignoriert werden. Ist demzufolge vielleicht sogar die Demokratie in Gefahr? Die Frage taucht in aktuellen Diskussionen immer häufiger auf, doch noch spricht nach Ansicht von Beobachtern viel dafür, dass Social Bots und Fake News die öffentliche Meinungsbildung nicht entscheidend beeinflussen können.

So zeigen Untersuchungen, dass die meisten Nutzer ihre Meinung (noch) nicht nur aufgrund von Facebook oder Twitter ändern. Auch müssten Politiker damit rechnen, dass die Wähler sie abstrafen, wenn sie auf solche Mittel setzen. Und schließlich haben die sozialen Netzwerke einen großen Einfluss darauf, welche Inhalte ihre Nutzer sehen. Facebook und Google haben schon angekündigt, dass Falschmeldungen künftig nicht mehr beworben und verbreitet werden sollen. Twitter wiederum hat offenbar die Accounts einiger Mitglieder einer ultrarechten Gruppierung geschlossen. Ob das ausreicht, um des Problems Herr zu werden, muss sich noch zeigen.

Denn schnell könnten Einwände wie “Zensur” oder Diskriminierung bestimmer Nutzergruppen und deren Meinungen aufkommen. Wird es am Ende also ein technologisches Wettrennen um den besten Bot geben? Das könnte sein – nur wäre dies ein Pyrrhussieg, denn spätestens nach den ersten massiven Mißbrauchswellen würde der Gesetzgeber auf den Plan treten. Nur wie reguliert man das globale Netz? Hier zeigt sich das Problem eines massiven Vollzugsdefizits. Solange sich die großen Social Networks in den Händen einiger weniger US-Konzerne befinden und von dort zentral gesteuert und administriert werden, wird es schwer werden, diese auf nationaler Ebene zu regulieren. Die Entwicklung entsprechender ethischer Standards bedarf also höchster Priorität und es wäre sicher an der Zeit, sich als Google, Facebook oder Twitter zu diesen Themen Gedanken zu machen. Auch um die Demokratie in ihrer aktuellen Form zu schützen und undemokratischen Tendenzen Einhalt zu gebieten – ganz im Sinne eines fairen politischen Wettbewerbs und einer freien und offenen Gesellschaft.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>