Bonner Informatikprofessor im Interview Humor macht Bots menschlich

Berlin · Im Internet tummeln sich nicht nur Freunde, Promis, Politiker und Firmen, sonders auch Bots. Das sind Programme für bestimmte Aufgaben. Noch sind Bots nicht besonders klug, aber manche lernen schnell.

Der Informatik-Professor Stefan Wrobel leitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin.

Der Informatik-Professor Stefan Wrobel leitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin.

Foto: Fraunhofer IAIS

Bots, also Computerprogramme für konkrete Aufgaben im Netz, können durchaus Humor haben. Das lässt sie menschlich wirken. Außerdem werden sie zunehmend lernfähiger. Stefan Wrobel, Bonner Informatik-Professor und Leiter des Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme, kurz IAIS, beobachtet die Fortschritte dieser Helfer im Internet genau. Kritisch wird es dann, wenn Bots verschleiern, dass sie keine Menschen sind, sagt er im Interview der Deutschen Presse-Agentur: „Wenn ich nicht mitbekomme, dass Meinungen in Netzwerken nicht aus meinem Freundeskreis stammen, sondern von Automaten, ziehe ich womöglich falsche Schlüsse“, warnt er.

Frage: Computer können heute im Spiel Go und beim Pokern die weltweit besten Spieler in Bedrängnis bringen. Sind also wirklich schon intelligente Maschinen am Werk?

Antwort: Der Begriff Intelligenz ist schwer zu definieren: Wann fängt intelligentes Verhalten an? Entsprechend schwer ist es festzulegen, ab wann wir eine Maschine als künstlich intelligent klassifizieren. Dennoch: Heute vollbringen Computer Leistungen, die wir bisher als Intelligenz erfordernd eingestuft haben und die nur Menschen konnten. Aber: Das ist nicht der Endpunkt der Entwicklung, sondern erst der Anfang.

Frage: Sind Social Bots, also Computerprogramme für bestimmte Arbeitsaufträge, schon intelligent?

Antwort: In der Regel würde ich die Social Bots, die wir heute kennen, noch als recht wenig intelligent einstufen. Viele Social Bots werden heute mit einfachen Programmier-Grundlagen geschaffen. Trotzdem sind sie ein hochspannendes Thema. Das liegt aber nicht an der Technik, sondern an der Psychologie des Menschen. Denn ob wir einen Bot als nützlich und sogar menschlich akzeptieren, wird von uns abhängen: Davon, wie intensiv wir ihn überprüfen wollen. In welcher Umgebung er uns begegnet und welche Erwartung wir an ein Programm stellen. So kann auch ein vergleichsweise unintelligentes Verhalten als nützlich oder sogar als menschlich empfunden werden.

Frage: Bots können also bei Menschen Gefühle auslösen und Sympathie?

Antwort: Es gibt interessante Experimente im Bereich von Robotern, wie Maschinen menschliche Gefühle spiegeln können. Sie zeigen, dass Menschen gar nicht auf komplexes Verhalten reagieren, wenn sie eine Beziehung zu Maschinen beginnen. Dafür sind andere Dinge wichtig: Es gibt ja auch Leute, die sprechen mit Autos und geben ihnen Namen. Es geht auch bei Bots mehr um Gestaltung und Wiedererkennen als um die technische Leistung und Intelligenz.

Frage: Was wäre denn der Charakter bei einem Bot?

Antwort: Die Persönlichkeit eines Bots erkennt man an den Antworten auf Themen und Fragen: Ob er nur eine statische Vielfalt an Antworten gibt, oder ob die Entwickler darauf achten, dass in einem bestimmten Stil geantwortet wird und der Bot Charakter bekommt. Er braucht ein Merkmal, das eine Identifikation ermöglicht. Zweitens ist ein gewisser Humor wichtig, eine nicht immer bierernste Antwort auf Fragen. Das sieht man bei Kino-Robotern wie R2-D2 aus „Star Wars“. Wenn Bots auf unvorhergesehene Fragen unterhaltende Antworten geben, sehen wir sie leichter als Persönlichkeit an.

Frage: Sind Social Bots lernfähig?

Antwort: Wir werden eine große Bandbreite dieser Programme sehen. Wenn Entwickler einen höheren Aufwand als heute mit Bots treiben, ist die Lernfähigkeit elementar und ohne weiteres möglich. Ich würde vermuten, dass die Lernfähigkeit heute zumeist noch überschaubar ist.

Frage: Was sind die größeren Chancen bei klugen Bots und Künstlicher Intelligenz?

Antwort: Viele Dinge werden schneller, besser und effizienter. Zum Beispiel im Service, wenn ich Informationen über einen Versicherungsvertrag brauche, hänge ich oft lange in Callcentern fest und bekomme doch keine gute Auskunft. Die Informationen über Produkte und meine Buchungen können einfacher und angenehmer werden. Social Bots sind ja nicht nur Programme, die in sozialen Netzwerken Meinung machen sollen. Im Gegenteil, ich habe damit einen neuen, einfachen Kanal zu Unternehmen und zu Wissen. Das werden die meisten von uns als sehr angenehm empfinden.

Frage: Was könnten Risiken sein?

Antwort: Generell besteht ein Risiko, wenn sich Bots in Diskussionen einschalten und als Menschen präsentieren. Insbesondere, wenn keine Transparenz herrscht, ob ich mit einem automatisierten System in Kontakt bin oder mit einem Menschen. Wenn ich nicht mitbekomme, dass Meinungen in Netzwerken nicht aus meinem Freundeskreis stammen, sondern von Automaten, ziehe ich womöglich falsche Schlüsse.

Frage: Sind da die Gesetzgeber gefragt, die Nutzer zu schützen?

Antwort: Ich glaube, dass es wichtig ist, dass wir die Prinzipien, die in unserer guten, alten, analogen Welt herrschen, nach Möglichkeit auch auf die digitale Welt übertragen sollten. Das wird vielfach möglich sein. Täuschung und Betrug sind auch in der bisherigen Welt etwas, das wir zumindest moralisch sanktionieren. Teils auch wirtschaftlich und juristisch. Das wird in der digitalen Welt wichtig: Man sollte juristisch darauf achten, Täuschung und Betrug auch in dem Bereich nicht zuzulassen.

Frage: Müssen wir vorbeugen und Bots und Künstlicher Intelligenz Grenzen einbauen, damit sie keine Hass-Wellen erzeugen?

Antwort: Man muss darüber allgemein diskutieren, ob Künstliche Intelligenz und Bots eigenständig Meinungen äußern sollen. Derzeit sind wir noch nicht so weit, dass die Technik in Konversationen die Inhalte, die moralische Wertigkeit und die Ethik angemessen beurteilen kann. Die Experimente, die wir sehen, nutzen die Fähigkeit des maschinellen Lernens so, dass sie aus Beispielen Schlüsse ziehen nach der Art: Was passiert üblicherweise, wenn Aussagen fallen? Dann geht es darum, die Aussage umzuformulieren und weiter zu posten.

Frage: Ohne jede Wertung?

Antwort: Ja, dabei wird keine ethische Bewertung vorgenommen. Jedes menschliche Verhalten dient heute als Training für Maschinen beim Lernen. Wenn wir das unkontrolliert tun, können sich Maschinen auch in Bereichen tummeln, wo eher moralisch unerwünschtes Verhalten dominiert. Deswegen müssen wir dahin kommen, dass eine Bewertung vorgenommen werden kann nach Modellen, die wir vorgeben.

Frage: Es muss dann künftig keiner mehr von außen moderieren, sondern die Bewertung kann der Bot machen?

Antwort: Das ist in Zukunft denkbar, aber eine große Herausforderung. Grundsätzlich ist auch eine ethische Bewertung aus guten Beispielen erlernbar. Aber ich wäre vorsichtig, dass das in naher Zukunft verlässlich möglich sein wird.

ZUR PERSON: Stefan Wrobel ist Fachmann für Künstliche Intelligenz. Der Informatik-Professor (Universität Bonn) leitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin. Seine Spezialgebiet beim Thema Digitalisierung sind intelligente Algorithmen und die Analyse großer Datenmengen.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort