Interview mit Sepp Hochreiter "Künstlicher Intelligenz fehlt es noch an Weltverständnis"

Bonn · Mit seiner Diplomarbeit legte Professor Sepp Hochreiter die Basis für die moderne Künstliche Intelligenz. Im GA-Interview spricht der 51-Jährige über seine Arbeit, die Zukunft von KI und die Entwicklung in Deutschland.

Sie sind auf einem Bauernhof in Bayern aufgewachsen. Wie sind Sie von dort zum Thema Künstliche Intelligenz gekommen?

Sepp Hochreiter: Ich habe an der TU München Informatik und später auch an der Fernuni Hagen Mathematik studiert. Aber das Studium hat mich gelangweilt. Erst ein Kurs von Jürgen Schmidhuber zum Thema neuronale Netze hat mich das erste Mal gefordert. Dort konnte man etwas entdecken und selber Ideen haben. Erst da hat mich das Studium wieder gepackt. Daraufhin habe ich ein Praktikum bei Jürgen Schmidhuber gemacht und später dann auch bei ihm meine Diplomarbeit geschrieben.

Doch Schmidhuber ging nach Amerika, und Ihre Diplomarbeit geriet in Vergessenheit.

Hochreiter: Ja, ich habe die Diplomarbeit abgeschlossen, meine Note bekommen und dann bin ich zur Allianz Versicherung gegangen. Ich konnte nicht einschätzen, ob die Arbeit gut oder schlecht war. Aber im Nachhinein muss man sagen: Die komplette Architektur, die heute in der KI steckt, war in der Diplomarbeit schon drin.

Worum ging es dabei im Kern?

Hochreiter: Es ging um rekurrente neuronale Netze und deren Speicherfähigkeit. Neuronale Netze sind Systeme, die dem Gehirn nachgebildet werden. Und bei rekurrenten Systemen gibt dazu auch rückwärtsgerichtete Verschaltungen. Und das Problem war immer, dass die Systeme über die Zeit vergessen haben. Mit meinem Ansatz des Long short-term memory (LSTM) – meine Diplomarbeit war noch auf Deutsch, da hieß es noch Langzeitspeicher – konnte ich dieses Problem lösen. Das ist der perfekte Speicher. Und das hat Deep Learning erst möglich gemacht.

Und wie ist das Thema doch noch an die Öffentlichkeit gelangt?

Hochreiter: Jürgen Schmidhuber hat das Thema nach seiner Rückkehr 1995 nochmal aufgegriffen. Er hat mir sehr viel geholfen. Ich kam vom Bauernhof, konnte kein Englisch und habe das alles auf dem zweiten Bildungsweg gemacht. Ich konnte auch keine wissenschaftliche Arbeit schreiben. Das hat er mir gezeigt. Und dann haben wir versucht, LSTM zum ersten Mal zu publizieren. Das wurde aber sofort abgelehnt, da hat keiner was von wissen wollen. Auch als es 1996 erstmals und 1997 nochmals größer publiziert wurde, gab es noch viel Unverständnis in der Branche. Erst als Jürgen Schmidhuber 2009 erstmals mit LSTM Wettbewerbe gewann, hat das Thema an Fahrt aufgenommen.

Und ist zu einer Erfolgsgeschichte geworden?

Hochreiter: Ja, die Technologie ist jetzt überall drin. In Android- und iOS-Betriebssystemen auf Smartphones, in Amazons Alexa, bei Facebook und Google. Alle großen Firmen verwenden die Technik zum Beispiel zur Spracherkennung und Textgenerierung. Auch alle Übersetzer basieren darauf und die Textvervollständigung zum Beispiel auf dem Handy. Und auch für selbstfahrende Autos braucht man LSTM.

Es heißt, man hat Ihnen wegen LSTM sogar mal gedroht. Stimmt das?

Hochreiter: Auf einer Konferenz hat der Gründer von Deepmind (eine KI-Firma, die zu Google gehört, Anm. d. Red.) zu mir gesagt: „Lass die Finger von LSTM“. Immer wenn Du eine Idee hast, setzen wir in London 100 und bei Google Brain in Mountain View nochmal 100 Leute daran und überholen Dich. Aber ich habe gesagt: „Ihr könnte Hunderte Leute daran setzen und wir nur zwei oder drei. Aber wir haben mehr Brainpower als ihr.“

Das heißt, Sie haben sich nicht einschüchtern lassen?

Hochreiter: Nein. Es geht manchmal auch darum, gute Ideen zu haben und die Sache zu verstehen. Und die haben beim LSTM auch sehr viel falsch gemacht, weil sie es nicht verstanden haben. Ich habe jahrelang damit gearbeitet, als sich niemand dafür interessiert hat, und Erfahrungen gesammelt. Das ist schwer für andere aufzuholen. Ich habe einfach ein Gefühl dafür, wie die Architektur auf verschiedene Dinge reagiert.

Was ist das Wichtigste, was die KI in den vergangenen Jahren geschafft hat?

Hochreiter: KI hat die Sprachverarbeitung in den vergangenen Jahren sehr weit nach vorne gebracht. Genauso wie die Bild- und Objekterkennung und damit auch die Bildverarbeitung. Und da ist KI zentral für viele Sachen, zum Beispiel wenn man an selbstfahrende Autos oder Drohnen denkt. Auch alles menschliche Wissen beruht auf Text. Und wenn wir Methoden haben, Texte zu verstehen und zu verarbeiten, haben wir Zugriff auf alles menschliche Wissen.

Und wo hapert es noch?

Hochreiter: Zum Beispiel beim Weltverständnis. Da sind wir noch weit, weit weg. Wir haben viele Partner in der Industrie, die in Richtung selbstfahrende Autos gehen wollen. Denen sage ich immer, dass das nicht so einfach ist. Ein Beispiel: ein sich im Wind biegender Baum. Wir wissen, dass dieser Baum sehr wahrscheinlich nicht umfallen wird, sondern wieder zurückwiegt. Das ist ziemlich viel Weltwissen. Aber ein selbstfahrendes Auto könnte stehen bleiben, weil es glaubt, dass der Baum auf die Straße fällt. Oder der Mensch sieht eine Plastiktüte, die über die Fahrbahn weht. Ich weiß, dass ich da keine Notbremsung oder ein riskantes Ausweichmanöver machen muss, sondern darüber fahren kann. Aber um solche Entscheidungen zu treffen, muss ich sehr viel Weltwissen haben, sehr viel verstehen. Da ist KI noch sehr weit weg.

Warum liegt KI gerade so im Trend?

Hochreiter: Die moderne KI ist das maschinelle Lernen. Und da gibt es zwei Zutaten, die das Thema gerade so relevant machen. Erstens: große Datenmengen, die produziert werden. Das ist ein Segen für uns. Daten nicht nur im Internet, auch jede Maschine – bis zur Bohrmaschine - liefert Daten. Biotechnologie, Medizin, überall werden Daten produziert. Aber das alleine würde nicht reichen. Als Zweites kommen die schnellen Computer hinzu, die die Rechenkapazitäten haben, um die Daten auch parallel verarbeiten zu können. Das hat die neuronalen Netze, das Deep Learning, so mächtig gemacht. Das war vor 20 Jahren noch nicht möglich.

Wie geht es weiter?

Hochreiter: Das ist schwer zu sagen. KI wird alles durchdringen, KI wird in jeder Maschine sein. Aber die Schnittstelle zwischen Mensch und Maschine wird viel einfacher sein, weil die Maschinen die menschliche Sprache verstehen. Was wir derzeit noch haben, ist ja komplett unmenschlich. Jedes Handy ist unmenschlich. Man muss mit dem Finger was eintippen. So ist der Mensch nicht geboren. Das macht er nicht. Wenn Menschen miteinander kommunizieren, dann tippen sie nicht aufeinander, sondern die reden miteinander. Und da sollten sich die Maschinen an den Menschen anpassen, so dass sie Sprache verstehen und selber sprechen. Und dadurch wird diese Schnittstelle zum Menschen vereinfacht, humaner und für alle zugänglich. Ein älterer Mensch kann vielleicht kein Smartphone bedienen. Aber wenn Menschen eine Schnittstelle zur Maschine über Sprache haben, dann kann auch der 90-Jährige einer KI etwas sagen, genauso wie der 20-Jährige, der Informatik studiert. Man wird aber vielleicht auch einen „besten Freund“ haben, der vielleicht im Handy ist. Und wenn ich ins Café gehe, sagt das Handy: „Siehst Du das Mädchen da drüben, auf das stehst Du doch bestimmt.“ Und wenn ich dann sage, „aber ich traue mich nicht, sie anzusprechen“, dann wird die KI sagen: „Doch.“ Und mir Tipps geben, wie ich sie ansprechen kann, zum Beispiel, weil sie einen bestimmten Pullover trägt. Die KI als Motivator als Psychiater, die KI, die die Gesundheit überwacht, oder das Auto nicht startet, wenn ich zu viel getrunken habe.

Verstehen Sie, wenn Leute Angst vor solchen Szenarien haben?

Hochreiter: Menschen haben prinzipiell Angst vor Neuem. Menschen hatten auch sehr viel Angst vor der Eisenbahn, weil da etwas ganz Schlimmes erfunden wurde. Weil die Eisenbahn mit der rasanten Geschwindigkeit von 30 km/h gefahren ist. Das war unvorstellbar. Später haben die Leute Angst vor dem Fernseher gehabt. Ja, Leute haben immer Angst. Aber wenn es kommt, lernt die Bevölkerung damit umzugehen. Und dann kann das Neue auch sehr, sehr hilfreich sein.

Aber die Befürchtung ist ja auch, dass KI missbraucht wird. Oder?

Hochreiter: Ja, man kann mit dieser Technologie auch viel Unsinn anstellen? Die KI wird genauso auf Raketen, auf Waffen sitzen. Das gibt es aber auch heute schon. Ein Beispiel: Ich kann mit einem Messer einen Kuchen schneiden, ich kann damit aber auch jemand verletzen. Das ist aber keine Eigenschaft des Messers. Da geht es eher darum, wie der Mensch mit dem Messer umgeht. Und so sehe ich es auch mit der Technologie. Man muss die Leute aufklären und sagen, was damit gemacht werden kann, welcher Schaden auch zugefügt werden kann. Aber man kann diese Technologie eben auch dazu nutzen, um Menschen zu helfen, um viele Sachen – auch in der Arbeitswelt – zu vereinfachen. Oder spannender zu gestalten. Es gibt immer zwei Seiten. Und die Gesellschaft muss entscheiden, wie sie damit umgeht.

Spielt dabei eine Rolle, wer die KI entwickelt und trainiert? Stichwort Diskriminierung.

Hochreiter: In Amerika gibt es ein Beispiel, wo man KI getestet hat, um Gerichtsurteile zu fällen. Die Maschine ist ziemlich objektiv, wird nicht beeinflusst von Menschen, hat keine Gefühle. Sie kann ganz korrekte, saubere Gerichtsurteile fällen. Nun wurde diese KI auf Basis von alten Urteilen trainiert. Und dann hat man beim Input nur die Hautfarbe von Weiß auf Schwarz verändert, und plötzlich ging das Strafmaß nach oben. Das ist die Gefahr, wenn ein Vorurteil in den Daten liegt, wenn die Menschen Fehler machen. Und man der KI dann sagt: „Mach das wie der Mensch.“ Dann wird die KI die Fehler der Menschen genauso machen.

Und wie löst man das?

Hochreiter: Es sollte neue Jobs geben, das sind dann Daten-Kuratoren. Die schauen, ob Fehler in den Daten stecken. Weil Menschen Fehler machen.

Aber der Daten-Kurator wird doch auch nicht neutral sein. Das liegt doch in der Natur…

Hochreiter: Wenn alle korrupt sind, dann kann man nichts machen. Man muss hoffen, dass irgendjemand es gut meint und zusieht, dass er das korrekt macht. Man muss schauen, was in den Daten drin steckt und dass die Daten möglichst umfassend sind. Der Lehrer muss der KI die richtigen Sachen beibringen. Aber das ist ja bei unseren Kindern auch so. Wenn ich denen beibringe zu klauen, dann denken sie, dass das normal ist. Und so ist das auch bei der KI.

Gehen durch KI Arbeitsplätze verloren?

Hochreiter: Es gehen Arbeitsplätze verloren, aber das kennen wir schon. Zum Beispiel aus der Landwirtschaft, als die Maschinen und Traktoren eingeführt wurden. Das war ein Horror, plötzlich waren alle Jobs weg. Aber jetzt haben wir ganz neue Jobs, zum Beispiel Menschen, die im Büro sitzen. Dinge, die man sich vorher nicht vorstellen konnte. Und so wird es auch hier sein. Und durch die KI werden zum Beispiel monotone Jobs wegfallen, die manchmal auch für die Menschen frustrierend sind. Aber es gibt auch neue Jobs, zum Beispiel den Daten-Kurator oder jemand, der die Daten sammeln und abspeichern muss. Es gibt Leute, die die KI evaluieren müssen. Und es wird sehr viele Lehrer geben, die die KI trainieren. Viele Leute, die einfachste Jobs haben, sind dann plötzlich Lehrmeister, weil sie etwas können, was die KI lernen muss. Und es gibt Untersuchungen bei Firmen, die KI schon im Einsatz haben, und die haben alle mehr Leute benötigt und eingestellt.

Und der Bildungsgrad spielt keine Rolle bei der Frage, ob es noch einen Job für mich geben wird?

Hochreiter: Nein, weil auch nicht so gebildete Menschen als Lehrer fungieren können. Sie können der KI beibringen, wie zum Beispiel ein Werkstück hingelegt werden muss, damit es später besser verarbeitet werden kann. Dadurch wird Arbeit auch aufgewertet. Und es sind nicht nur Programmierer und Informatiker, die Jobs bekommen.

Hochreiter: Wahrscheinlich ja. Aber das kommt darauf an, wie man Intelligenz misst. Aber eigentlich zielt die Frage ja auf ein Thema ab, nämlich: Wird die KI irgendwann die Erde übernehmen und werden die Menschen versklavt?

Die Frage haben sie wohl schon öfter gehört? Wird sie?

Hochreiter: Ja, immer wieder. Erst einmal kennt man das von Hollywood. Bei Matrix werden die Menschen als Batterien verwendet. Das ist nicht intelligent. Das ist dumm. Da gibt es bessere Technologien. Und bei Terminator die KI, die die Menschheit ausrottet: Ja, wie blöd kann man denn sein. Warum sollten sie das machen? Es gibt zwei Gründe, warum das unlogisch ist. Diese Computersysteme sind nicht in der Evolution entstanden. Sie haben keinen Überlebensdrang. Die KI, die überlebt haben, sind von den Menschen kopiert oder weiterentwickelt worden. Aber selbst wenn man annimmt, dass es doch passiert, dass sie Überlebensdrang entwickeln. Was würden die machen? Menschen jagen? Für solch intelligente Systeme ist die Biosphäre der Erde super ungünstig. KI rosten, wenn sie irgendwo im Computer eingebaut sind. Sie müssen sich Ressourcen teilen mit anderen, von Bakterien bis Menschen. Die würden sofort in den Weltraum gehen, denn das schadet denen nicht, und dort gibt es viel mehr Energie. Wie blöd kann die KI sein, um sich unter diesen Voraussetzungen auf der Erde um Ressourcen zu streiten. Und das Zweite: Wenn sie viel intelligenter sind als Menschen, warum wollen die überhaupt noch mit Menschen sprechen? Wissenschaftler sprechen nur untereinander, Politiker sprechen nur untereinander. Warum sollte KI mit Menschen sprechen, wenn sie viel spannendere Themen haben, über die sie sich untereinander unterhalten können, zum Beispiel über die Philosophie des Weltalls, über etwas, was die Menschen vielleicht gar nicht verstehen. Sie werden das Interesse an Menschen verlieren.

Was wird KI nie lernen?

Hochreiter: Empathie. Dort stößt die KI an Grenzen. Kann sie nachempfinden, was Menschen fühlen? Kann die KI wissen, was Hunger ist? Oder weiß sie, wie es sich anfühlt, wenn man einen Angehörigen verloren hat? Was ist Liebe? Das sind alles Fragen, bei denen ich glaube, dass man Mensch sein muss, um anderen Menschen nachzuempfinden.

Wie steht es um die Zukunft der KI in Deutschland?

Hochreiter: Der Ausblick in die Zukunft ist sehr düster in Deutschland. Die Strategie für Künstliche Intelligenz wurde in den Sand gesetzt. Das ist eine Katastrophe, was da passiert in Deutschland. Ich finde es erschreckend. Die haben alles, was maschinelles Lernen angeht – die moderne KI von Google und Facebook oder das was Baidu in China macht – aus ihrer KI-Strategie herausgenommen. Deutschland möchte sich auf Expertensysteme, die man vor 30 Jahren gemacht hat, konzentrieren, auf Deduktionssysteme, die man vor 35 Jahren hatte, und auf Robotik, die es auch schon lange gibt. Deutschland konzentriert sich auf die Teile von KI, die nicht funktionieren. Und andere Länder setzen derweil auf die richtigen Schwerpunkte.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort