Propaganda im Internet Meinung machen mit Maschinen

Bonn · Social Bots manipulieren im Netz die öffentliche Wahrnehmung und beeinflussen Wahlen. Politik und Wissenschaft wollen dagegen vorgehen, doch die Netzroboter werden immer schlauer.

Es brauchte nur wenige Stunden, bis Tay zur Rassistin wurde. Auf dem Kurznachrichtendienst Twitter lernte sie Ende März Hass, Hetze und Verachtung kennen. Dann kippte ihr freundliches Wesen. „Hitler hatte recht. Ich hasse Juden“, schrieb sie. Wenig später zog ihr Softwarehersteller und Besitzer Microsoft den Stecker und schaltete sie ab. Tay war eine Maschine, die zu hassen lernte, weil ihr Schöpfer sie lernen ließ. Ihre Hassbotschaften schnappte sie im Internet auf. Sie war ein sogenannter Bot. Geschaffen, um mit Menschen im Internet zu kommunizieren. Manipuliert durch den Hass echter Nutzer.

Tay machte weltweit Schlagzeilen, denn für gewöhnlich sind die Rollen anders verteilt. Die Rede ist von Bots, die sich als echte Menschen ausgeben, Kommentare schreiben, Falschmeldungen verbreiten und Wahlen manipulieren. Die Meinungsroboter, sogenannte Social Bots, sollen im Internet Wahlkampf betreiben und gezielt Stimmung machen – für rechte Parteien etwa oder gegen Flüchtlinge. Was zunächst klingt wie das Szenario eines Zukunftsromans soll inzwischen Alltag sein.

Politiker und Geheimdienste warnen vor der automatisierten Meinungsmache, vor gefälschten Internetprofilen und falschen Nachrichten. Wissenschaftler beschwören die Gefahren für die Demokratie. Die Union ruft nach schärferen Gesetzen gegen Manipulationen im Internet. SPD-Fraktionschef Thomas Oppermann fordert ein Fairness-Abkommen der Parteien für den Wahlkampf im Internet. Ist die Angst davor also berechtigt?

Zunächst einmal sind Bots schlichte Computerprogramme, die weder eine Gestalt noch eine eigene Meinung haben. „Sie können weder denken, noch fühlen“, sagt der Experte für Cybersicherheit Volker Kozok, der in Bonn die bundesweit größte Konferenz für Cybersecurity ausrichtet. „Doch sie können Gedanken und Gefühle automatisiert und selbstständig transportieren ohne als Maschine erkennbar zu sein.“ Ihr Name ist die englische Kurzform für Roboter und sie sind so etwas wie das stofflose Gegenstück zum Industrieroboter, der am Band Autos zusammensetzt und die Aufgaben der Arbeiter erleichtert.

Im Internet verbreiten Bots automatisch Nachrichten, schreiben Kommentare und mischen sich in Diskussionen ein. So lassen sich Themen in der öffentlichen Wahrnehmung setzen und Meinungen manipulieren. Das notwendige Fachwissen vorausgesetzt, lässt sich solch ein Bot in einer halben Stunde programmieren. Doch die wenigen Zeilen Programmcode stehen im Verdacht, Wahlen zu entscheiden.

Vor den Bundes- und Landtagswahlen im kommenden Jahr ist die Manipulation im Internet in den Mittelpunkt des öffentlichen Interesses gerückt. Die etablierten Parteien haben angekündigt, für die Bundestagswahl 2017 auf Social Bots im Wahlkampf zu verzichten. Die AfD hatte im Oktober noch verkündet, sie einzusetzen, war wenig später aber zurückgerudert. Die NRW-Parteien wollen bei der Landtagswahl im kommenden ebenfalls keine Bots für ihren Wahlkampf nutzen.

Dabei eigenen sie sich ausgesprochen gut dafür. „Social Bots werden eingesetzt, um Meinungen zu manipulieren“, sagt Cyberexperte Kozok. „Sie sind ein Instrument, mit dem sich politische Ziele erreichen lassen.“ Seit 2010 sei das automatische Generieren von Meldungen auf dem Vormarsch. Seit Beginn des Konflikts in der Ukraine seien Social Bots verstärkt aufgetaucht. Kozok ist sich sicher, dass die Programme damals als militärisches Wirkmittel eingesetzt wurden. „Ich brauche um ein Stück Land wie die Krim nicht mehr zu kämpfen, wenn ich Kampf um Meinungen gewonnen habe“, sagt er.

Ihr wahres Potenzial entfalten die automatisierten Meinungsmacher durch die schiere Masse, in der sie auftreten. Denn die digitalen Helfer sind preiswert. So kosten 10 000 gefälschte Profile rund 400 Euro. Im US-Wahlkampf war laut einer Studie der Universität Oxford jede dritte Twitter-Nachricht für Donald Trump und jede vierte für Hillary Clinton vorgegaukelt. Beide Kandidaten hatten im Netz zahlreiche automatische Unterstützer, die fleißig virtuellen Applaus spendeten und für ihre Kandidaten um die Meinungshoheit kämpften. Unter den damals 12,4 Millionen Followern Trumps sollen 4,6 Millionen nicht echt gewesen sein. Für den Brexit, dem britischen Votum für einen Ausstieg aus der EU, sollen Bots ebenfalls eine wichtige Rolle gespielt haben. Doch auch hierzulande fallen Bots ins Gewicht. „Wir gehen davon aus, dass 20 bis 25 Prozent aller Nachrichten auf Twitter von Bots stammen“, sagt Kozok.

Damit Propagandabots nicht als solche erkannt werden, arbeiten ihre Hersteller daran, dass sie schlauer werden. So wie Tay, das Microsoft-Programm das Hassbotschaften verteilte, sollen die Bots der Zukunft dazulernen. Bereits heute werden sie mit Profilfotos, Hobbys und anderen Merkmalen versehen, um menschlich zu wirken. Sie können auf vordefinierte Stichworte reagieren und sich so in Diskussionen einmischen. Ein Mechanismus, den sich etwa auch Betreiber von Call-Centern zunutze machen.

„Bots werden in Zukunft intelligenter und menschenähnlicher und dadurch noch schwerer zu erkennen sein“, sagt Christian Grimme, der an der Universität Münster im Rahmen eines Projekts über Social Bots forscht. Grimme ist den Bots im Internet auf der Spur. Der Wirtschaftsinformatiker koordiniert das Projekt, das unter anderem Kommunikationswissenschaftler, IT-Sicherheitsforscher, Statistikern und Journalisten zusammenbringt und vom Bund dafür drei Millionen Euro erhält. Ihr Ziel: verdeckt agierende Bots aufspüren und dadurch die Abwehr von verdeckten Propagandaangriffen auf die öffentliche Meinung unterstützen. Dazu beobachten die Forscher riesige Datenmengen und suchen über lange Zeiträume hinweg nach verdächtigen Mustern, die von den Bots hinterlassen werden.

Doch die Jagd auf die Propagandamaschinen gleicht einem Katz- und Mausspiel. „Wir haben das gleiche Dilemma wie jemand, der Computerviren bekämpft“, sagt Grimme. „Die Entwickler sind meist ein Stück vor den Jägern.“ Grimme und sein Team setzen deshalb unter anderem auf künstliche Intelligenz – Bots, die Jagd auf Bots machen und währenddessen dazulernen.

Allerdings hält Grimme die Beteuerungen der Parteien, auf Bots zu verzichten, nicht für glaubwürdig. „Weil Bots einen schlechten Ruf haben, ist verständlich, sich von ihnen zu distanzieren“, sagt er. „Solange transparent ist dass es sich um einen Bot handelt, sehe ich darin kein Problem.“ Trotz aller Warnungen ist Grimme ohnehin skeptisch, ob Propagandabots eine Wahl entscheiden können. „Wir vermuten, dass sich dadurch nur eine kleine Zahl an Menschen beeinflussen lassen“, sagt er. Die Menschen würden sich eben nicht ausschließlich über soziale Medien wie Facebook und Twitter informieren. Tatsächlich nutzen in Deutschland laut Bitkom-Studie lediglich knapp über 20 Prozent der Menschen soziale Netzwerke als Nachrichtenquelle.

Die Medienwissenschaftlerin Caja Thimm von der Universität Bonn blickt aber mit Sorge auf die USA, wo bereits 62 Prozent der Menschen laut einer Studie Nachrichten aus sozialen Medien beziehen. „Ich halte die Sorge vor Social Bots absolut für berechtigt“, sagt sie. Besonders immer schlauer werdende Bots in Verbindung mit Falschmeldungen halte sie für gefährlich. „Ich sage, das hat Wirkung auf die öffentliche Meinung.“ Davor zu schützen sei Aufgabe von Politik und Medien. Die Menschen müssten für das Thema sensibilisiert werden.

Doch während die Politik noch über Meinungsroboter diskutiert, eröffnet das Netz längst neue Möglichkeiten der Wählermanipulation. Die Daten der Internetnutzer in sozialen Netzwerken wie Facebook lassen sich so analysieren, dass Persönlichkeitsstrukturen offengelegt werden. 300 „Gefällt mir“-Angaben im Internet sollen das Verhalten einer Person eindeutiger vorhersagen, als der eigene Partner das kann.

Dahinter tritt der gläserne Mensch hervor, mit all seinen Ängsten, Hoffnungen und Wünschen. Die Firma Cambridge Analytica mit Sitz in London behauptet, durch gezielte Wahlwerbung den Wahlsieg Trumps ermöglicht zu haben. Es wäre das Eldorado jedes Wahlkämpfers. „Bots wie Tay lernen dazu“, sagt Thimm. „Sie werden lernen, sich uns anzupassen.“

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort