Digitaler Wahlkampf Wie Maschinen Meinungen machen

Roboter manipulieren Petitionen im Netz und werden für den Wahlkampf in Stellung gebracht. Eine wirksame Gegenwehr ist nicht zu erwarten.

  • Teilen per:
  • Teilen per:
Quelle: Getty Images

Dass etwas faul ist, merkt Konrad Traupe, als eine dubiose Idee enormen Zuspruch findet. Jemand hatte auf der Onlinepetitionsplattform openPetition ein Gesetz gefordert, welches es Journalisten verbietet, Worte wie „Islamist“ zu benutzen. Binnen zehn Tagen steigt die Zahl der Unterzeichner von 16.000 auf mehr als 30.000 – und Traupe, der für die Plattform arbeitet, ahnt: Hier ist eine Robotersoftware am Werk, die automatisch Tausende falsche Unterschriften hinzufügt. Ein Bot.

Der Angriff, den Traupe auf seiner Petitionsplattform bemerkt, kommt in drei Wellen. Zuerst fälschen die Bots Unterschriften auf der deutschsprachigen Seite von openPetition, dann nehmen sie sich die türkischsprachige vor. Später versuchen sie es auf der englischen Version.

Und immer, wenn die Bots eine Petition angreifen, müssen Traupe und seine Kollegen im Büro von openPetition am Berliner Alexanderplatz in stundenlanger Sisyphusarbeit die Listen nach Fälschungen durchkämmen. „Für unser kleines Team ist das ein Riesenaufwand“, sagt Traupe. Immerhin, an den Themen, bei denen sich die Robo-Meinungsmacher einmischen, kann er erahnen, wer dahintersteckt: Er tippt auf Anhänger des türkischen Präsidenten Recep Tayyip Erdoğan.

Bald beginnt in Deutschland der Wahlkampf, und Experten befürchten nach Recherchen der WirtschaftsWoche, dass Extremisten und vermutlich auch ausländische Regierungen sich in Stellung bringen, um mit Bots die öffentliche Meinung zu manipulieren. Das Büro für Technikfolgen-Abschätzung im Bundestag warnt sogar, dass „Social Bots das Potenzial bergen, das Vertrauen in die Demokratie zu unterlaufen“.

Und je näher die Bundestagswahl rückt, desto aktiver werden die digitalen Meinungsmacher. Die Bots schreiben massenweise populistische Kommentare in sozialen Netzwerken wie Twitter und Facebook, so wie die Konten @draco333999 und @saul43, die identische Nachrichten über Kritik von Russlands Premier Dmitri Medwedew an Angela Merkel verbreiteten. Laut Tabea Wilke, die Politiker in der digitalen Kommunikation berät und die Bot-Informationsplattform botswatch.de betreibt, stammen während politischer TV-Talkrunden derzeit 10 bis 25 Prozent der Tweets zum jeweiligen Thema von Bots.

Wie kapern diese aber das Web, und kann ihren Aufmarsch niemand aufhalten?

Auch der US-Konkurrent von openPetition, Change.org, hat Manipulationsversuche in Deutschland registriert und vermutet, dass dabei Bots eingesetzt wurden. Traupe und seine neun Mitstreiter versuchen, die Hintermänner anhand ihrer IP-Adresse aufzuspüren. Diese ist so etwas wie die Hausnummer eines Rechners im Internet. Jene, von denen die falschen Unterschriften kommen, scheinen jedoch über den Globus verstreut zu sein.

Und die Angreifer haben die Signale über mehrere wechselnde Rechner um die halbe Welt geleitet. Daran, solche Signale nachzuverfolgen, scheitern sogar Geheimdienste. Herauszufinden, wer die digitalen Einflüsterer in Stellung bringt, ist so fast unmöglich. Das macht die Abwehr so schwer.

Es war während des Krim-Konflikts 2014, als der Öffentlichkeit erstmals die Wirkung politischer Bots bewusst wurde. Eine ganze Armee von putintreuen Bots streute damals Propaganda in sozialen Netzwerken. Die Idee aber, Meinungen mit neuer Technologie wirkungsvoller unters Volk zu bringen, wurde ironischerweise wohl von der ältesten Demokratie der Neuzeit in die Freiheit ausgesetzt – von der US-Eliteuniversität Harvard aus, deckte der durch seine NSA-Recherchen bekannt gewordene Journalist Glenn Greenwald auf.

Jura-Professor und Obama-Berater Cass Sunstein empfahl dort 2008 in einem Papier namens „Conspiracy Theories“, in sozialen Netzwerken Verschwörungstheorien zu verbreiten, um ausländische Regierungen zu schwächen. „Indem man eine alternative Sicht auf die Dinge einführt, kann man die Meinung einer großen Zahl Menschen verändern“, schrieb Sunstein. Das US-Militär beauftragte daraufhin das kalifornische Unternehmen HBGary, entsprechende Software zu programmieren, wie aus 2011 von der Hackergruppe Anonymous veröffentlichten Dokumenten hervorgeht. Hunderte so generierte Twitter-Konten sollten reichlich mit falschen Identitäten gefüttert werden. Die Geburtsstunde der Propagandaroboter.

Bausteine für Bots lassen sich im Web zusammenklicken

Inzwischen ist das Wissen, was einst nur Nerds horteten, massentauglich: Jeder Hobbyprogrammierer könne sich die Bausteine für Bots im Web zusammenklicken, sagt Tim Berghoff, Sicherheitsexperte beim Antivirussoftwarehersteller G-Data. Auf der Seite der Verteidiger sieht es hingegen deutlich einsamer aus.

Die Politiker in Berlin verlieren sich in Aktivismus, obwohl sie beliebtestes Ziel der Bot-Armeen sind. Von Forderungen, Bots zu verbieten, bis hin zum Aufruf, sie als „digitalen Hausfriedensbruch“ zu bestrafen, reichen die unbeholfenen, weil wirkungslosen Vorschläge aus den Parteien. Und es gibt hierzulande gerade mal eine Handvoll Experten, die bei dem Thema Polit-Bots überhaupt den Durchblick haben.

Einer davon ist Simon Hegelich, Politik-Professor an der Technischen Universität München. Schräg gegenüber von Hegelichs Büro steht in einem stickigen Raum das Herzstück seiner Arbeit: drei dicke Dell-Computer auf dem Boden, darauf eine etwas abenteuerlich anmutende Konstruktion aus kreditkartengroßen Minicomputern. Diese durchsuchen Tag und Nacht die sozialen Netze nach Diskussionen wie über den Zuzug von Flüchtlingen. Die Minicomputer haben in den vergangenen Monaten ein Datenarchiv von einem Terabyte Größe aufgebaut.

Hegelich, ein 40-Jähriger mit zerzaustem Haar, und sein Team gehen wie Kriminologen vor: Sie suchen nach Verhaltensmustern, mit denen sich Bots verraten. Hyperaktive Accounts, die mehr als 1000 Kurznachrichten am Tag verschicken. So etwas schafft nicht einmal Donald Trump. Verräterisch sind auch Nachrichten, die in regelmäßigen Abständen verschickt werden, oder Profile, die am Wochenende genauso aktiv wie unter der Woche sind.

Es ist ein Katz-und-Maus-Spiel: Die Programmierer hauchen ihren Bots menschliche Gewohnheiten ein. Sie bringen ihnen bei, nachts Pausen einzulegen und Nachrichten in unregelmäßigen Abständen zu versenden. Die am weitesten entwickelten nutzen künstliche Intelligenz. Sie können auf Tweets antworten, wie ein Mensch es tun würde.

„Wir werden die Manipulation nicht verhindern können. Aber wir können aufklären“, sagt Hegelich. Demnächst will er die Ergebnisse seiner Bot-Analysen veröffentlichen und hofft, dass sich so weniger Menschen manipulieren lassen werden. Echte Macht über die Verbreitung hätten aber andere: die Plattformbetreiber wie Facebook und Twitter.

Die Konzerne haben mehr Geld, mehr Personal und Daten, um die Bots einzufangen. Aber diese beflügeln das Geschäftsmodell: Sie können bei Werbepartnern mit üppigeren Nutzerzahlen punkten. Zumindest Facebook sperrt mittlerweile Robo-Nutzer, die die Plattform aufstöbern kann. Twitter aber steckt in der Krise, jeder Nutzer zählt offenbar.

Forschern der University of Southern California zufolge sind bis zu 48 Millionen Bots weltweit auf Twitter unterwegs. Frühinvestor Chris Sacca schimpfte neulich gar, die Bots seien nur noch peinlich. Für ihre Schöpfer sind sie umso wirksamer: Mittlerweile seien bei jeder größeren Debatte in Deutschland Bots beteiligt, warnt Hegelich. Die haben bis zur Bundestagswahl wohl freies Spiel.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%