Bots bei Facebook und Co. Wie Roboter unsere Meinungen beeinflussen sollen

Bonn · Algorithmen entscheiden, was ein User in sozialen Netzwerken zu sehen bekommt. Roboter beantworten im Internet Fragen und verbreiten Standpunkte. Auch die politische Beeinflussung von Menschen ist so möglich.

Bots bei Facebook und Co.: Wie Roboter unsere Meinungen beeinflussen sollen
Foto: Sabrina Stamp

Joseph Weizenbaum war erschüttert. Gerade hatte er sein Computer-Programm Eliza veröffentlicht, das mehrere Gesprächspartner simulieren kann, und testete es in der Rolle eines Psychotherapeuten an Versuchspersonen. Und diese sprachen mit Eliza, gaben intimste Geheimnisse preis. Sie fühlten sich vom Computer verstanden. Psychotherapeuten waren überzeugt, dadurch eine neue, automatisierte Form der Therapie entwickeln zu können. Diese Naivität im Umgang mit Computern schockierte Weizenbaum. Es ist das Jahr 1966, mit Eliza war der erste Chatbot, also ein textbasiertes, automatisiertes Dialogsystem, entwickelt und der Informatiker Weizenbaum wurde aufgrund seiner soeben gemachten Erfahrung zu einem der großen Gesellschaftskritiker, wenn es um den Umgang mit Computern geht.

"Die Gefahr der Künstlichen Intelligenz liegt nicht darin, dass Maschinen mehr und mehr wie Menschen denken, sondern dass Menschen mehr und mehr wie Maschinen denken", sagte Weizenbaum einst. Im Jahr 2008 starb er. Ein Gespräch mit den heutigen Sprachassistenten wie Siri oder Alexa konnte er nicht mehr führen. Sie basieren aber auf seinen Forschungen von 1966.

Sprachassistenten haben längst Einzug in deutsche Haushalte gehalten, sie finden sich in nahezu jedem Smartphone. Künstliche Intelligenz (KI) ist allgegenwärtig. Sie macht das Leben an vielen Stellen einfacher. Algorithmen sollen helfen, Zeit und Aufwand zu verringern und das Leben effizienter zu machen. Viele Unternehmen nutzen die Möglichkeiten, beispielsweise durch digitale Assistenten auf ihrer Homepage, die Fragen beantworten können. Ein paar Unternehmen nutzen Chatbots mittlerweile schon, um Bewerbungsgespräche zu führen. Heißt: Der Bewerber unterhält sich zuerst mit einem Computer. Erst wenn dieser entscheidet, dass der Kandidat geeignet ist, bekommt der Personalchef die Akte auf den Tisch.

In Deutschland steht diese Art der Personalrekrutierung noch am Anfang. "Wir nutzen weder Chatbots noch eine Künstliche Intelligenz in unserem Bewerbungsverfahren", sagt Christina Müschen, Sprecherin der Deutschen Post. Auch die Deutsche Telekom setzt noch keine KI-unterstützten Tools im Bewerbungsprozess ein. "Wir haben das Thema aber im Blick", sagt Sprecher Peter Kespohl.

Die künstlichen Meinungsmacher in sozialen Netzwerken

Digitale Assistenten geben sich in aller Regel im Dialog als solche zu erkennen. Doch das ist nicht immer so - und kann erhebliche Auswirkungen haben. Es lassen sich Meinungen beeinflussen, sei es in der direkten Kommunikation oder durch von Computern geschriebene Rezensionen auf Restaurants, Hotels oder ähnliches.

In den sozialen Netzwerken wie Facebook und Twitter tauchen diese Bots (abgeleitet vom englischen Roboter) auf, um Informationen zu verbreiten oder Meinungsmehrheiten vorzutäuschen. Die sogenannten Social Bots spielen anderen Usern vor, dass es sich bei ihnen um reale Personen handelt. Sie können mit anderen Usern kommunizieren, Nachrichten analysieren und entsprechend reagieren. Und das tausendfach und täuschend echt. Seit einigen Jahren werden Social Bots immer mehr zur politischen Einflussnahme genutzt. Im US-Wahlkampf traten sie vielfach auf.

"Deutschland ist beim Thema Social Bots und Wahlkampfmanipulation in den sozialen Netzwerken noch nicht so weit wie die USA", sagt Andree Thieltges. Er ist wissenschaftlicher Mitarbeiter an der Hochschule für Politik in München. Dort wurde die Bundestagswahl 2017 in den sozialen Netzwerken analysiert. Gemessen an der Gesamtkommunikation zur Bundestagswahl waren laut Analyse der Münchner Forscher etwa drei Prozent der Posts und Tweets von Social Bots. Andere Messungen liegen nur knapp darüber. "Es hat aber auch Falschmeldungen gegeben, die durch Bots und die Algorithmen der sozialen Netzwerke eine höhere Reichweite bekommen haben."

Die Algorithmen von Facebook und Co. sind für Kritiker schon lange ein Angriffspunkt. Jede Aktivität eines Users in einem sozialen Netzwerk wird analysiert. "Algorithmen vereinfachen an einigen Stellen unser Leben, gerade in sozialen Netzwerken dringen sie aber in unsere Persönlichkeit ein. Setze ich Likes, kann schon ein Persönlichkeitsprofil von mir erstellt werden, das verkauft und für Werbung genutzt wird", mahnt Christiane Woopen. Die Kölner Professorin ist Vorsitzende der kürzlich von der Bundesregierung eingesetzten Datenethikkommission. "Diese wurde eingesetzt, um einen ethischen und rechtlichen Rahmen für die Künstliche Intelligenz und den Umgang mit Daten zu setzen."

User möglichst lange auf der Plattform halten

Das Ziel von Facebook und dem zu Google gehörenden Youtube ist es, die User möglichst lange auf der eigenen Plattform zu halten. Je länger sie da sind, desto mehr Werbung bekommen sie zu sehen und desto größer ist der Gewinn für das Netzwerk. Mit personalisierter Werbung wird dieser noch einmal gesteigert. Allein im ersten Quartal 2018 erreichte Facebook einen Reingewinn von fast fünf Milliarden US-Dollar - nahezu ausnahmslos durch Werbung. Um die User länger auf der Plattform zu halten, analysieren Algorithmen diese und schlagen vor, welche Inhalte auf der Plattform sie noch interessieren könnten. Das birgt allerdings Gefahren, wie zuletzt zu beobachten war.

"Wer sich die Videos von dem rechtsextremen Übergriff in Chemnitz bei Youtube angesehen hat, landete bei den weiteren Videovorschlägen sehr schnell in einem Mix aus Verschwörungstheorien und rechtsradikalen Inhalten", sagt Matthias Spielkamp von Algorithmwatch. Die Initiative macht es sich zur Aufgabe, Prozesse algorithmischer Entscheidungsfindung kritisch zu prüfen. Bei Youtube beobachten Experten schon länger, dass die Vorschläge immer radikaler werden. Chemnitz ist kein Einzelfall. "Ein amerikanischer Journalist hat sich mehrere Kindervideos angesehen. Auch hier wurden die Vorschläge immer schockierender", so Spielkamp. Er sagt nicht, dass dies der Plan von Google gewesen sei, hält den Konzern auch nicht für unethisch. "Aber an dem Punkt hat Google schlichtweg die Kontrolle über den Algorithmus verloren."

Lassen sich die User auf diese Vorschläge der Plattform ein, landen sie schnell in einer sogenannten Filterblase. Sie bekommen nur Inhalte angezeigt, die ihrer Weltanschauung gerecht werden. Das beeinflusst Diskussionen und mitunter auch die politische Meinung. Aber die Schuld an immer radikaler verlaufenden Diskussionen nur den sozialen Netzwerken zu geben, ist den Experten zu einfach. "Wir sprechen immer weniger über die User selbst. Die Menschen gehen nicht vollkommen naiv und politisch unvoreingenommen zu Facebook", so Thieltges. Und auch Spielkamp schließt sich dieser Meinung an: "Wir haben zwar in sozialen Netzwerken den Filterblasen-Effekt, aber es gibt in Deutschland so viele Informationsquellen, die uns beeinflussen, dass nicht eine Social-Media-Plattform dafür verantwortlich ist, was in meiner Filterblase vorgeht."

Antworten auf Fragen, die noch keiner gestellt hat

Die Datensammlungen der sozialen Netzwerke sind Politikern ein Dorn im Auge. Weitere Gesetze und Regularien gegen Facebook und Co. sind laut Woopen nicht unmöglich. "Wir haben mit der neuen Datenschutz-Grundverordnung gezeigt, dass Europa eine machtvolle Stimme hat", sagt die Vorsitzende der Datenethikkommission. "Aber es muss uns in der Diskussion auch um die Stärkung der Reflexionsmöglichkeit der Menschen im Umgang mit sozialen Medien gehen, beispielsweise durch entsprechende Bildungsangebote."

Die Datennutzung von Konzernen ist keinesfalls am Ende angelangt, ganz im Gegenteil. Google gab erst Ende September, am 20. Geburtstag des Unternehmens, bekannt, seine Suchmaschine weiter zu optimieren. Das Ziel: "Nutzer sollen Antworten auf die Fragen bekommen, die sie noch gar nicht gestellt haben." Möglich wird dies nur durch eine möglichst große Anzahl von Daten der einzelnen Personen. Der mittlerweile verstorbene Informatiker Joseph Weizenbaum konnte schon 1966 nicht begreifen, welch private Daten seine Testpersonen dem Computer-Programm Eliza verrieten. Facebook, Google und Co. wissen da längst mehr über jeden Einzelnen.

Meistgelesen
Neueste Artikel
Zum Thema
Putins nächster Krieg
Zum Umgang mit Flüchtlingen aus der Ukraine Putins nächster Krieg
Aus dem Ressort