„Politisches Direktmarketing“ nannten Donald Trumps kreative Helfer ihre neue Methode im Onlinewahlkampf: Verschiedene Nutzer erhielten über die Plattform Twitter genau die Information, die sie brauchten, um in Trump den richtigen Mann an der Spitze der Vereinigten Staaten zu sehen. Potenzielle Wähler mit Vorbehalten gegen Muslime bekamen Beiträge zum harten Kurs des Republikaners gegenüber dieser Minderheit zu lesen. Und wer um seinen Arbeitsplatz bangte, konnte auf seinem Smartphone lesen, dass Trump 25 Millionen neue Jobs schaffen würde.
Möglich wurde diese Strategie durch sogenannte Social Bots, intelligente Computerprogramme, die automatisiert im Internet die Meinung ihres Erschaffers verbreiten. Amerikanische Forscher haben bewiesen, dass im US-Präsidentschaftswahlkampf 2016 rund 400.000 Social Bots für ein Fünftel der Twitter-Beiträge zum Thema verantwortlich waren. Ob sie am Ende die Entscheidung an der Urne beeinflusst haben, kann niemand sagen. Aber allein der massenhafte Einsatz dieser elektronischen Meinungsmacher beunruhigt Politiker und Netzbeobachter.
Doch was oder wer steckt eigentlich hinter diesen Social Bots, kurz für Social Robots? Es sind Programme, die automatisch ein oder mehrere Benutzerkonten in sozialen Medien wie Twitter oder Facebook steuern und sich so nach vorher erlernten Regeln zu Wort melden. Dahinter kann ein harmloser Spaß stehen, so wie bei der „Pfannkuchenpolizei“, einem Bot, der automatisch auf das Wort „Berliner“ in Tweets reagiert. Er korrigiert die Nutzer, dass das beliebte Gebäck in Berlin Pfannkuchen heißt. Aber häufig stehen hinter diesen Bots eben auch handfeste Interessen: eine Firma, die versteckt Werbung für ihre Produkte platziert, oder eine politische Gruppe, die das öffentliche Meinungsbild beeinflussen will. Der Arabische Frühling wurde von massiver Bot-Diskussion im Netz begleitet. Und die von Edward Snowdon veröffentlichten internen Papiere belegen, dass auch der US-Geheimdienst NSA sich mit den Einsatzmöglichkeiten von falschen, virtuellen Identitäten befasst hat.