Künstliche Intelligenz

Das Gehirn als Vorbild bei der KI-Entwicklung

Bonn. Das menschliche Gehirn dient als Vorbild bei der KI-Entwicklung. Das komplizierte Organ lässt sich sogar schon mit der Technik verbinden - der direkte Draht lässt sich aber auch missbrauchen.

Kulleraugen und stets ein Lächeln auf dem Gesicht: Der freundlich dreinblickende Roboter Pepper ist darauf programmiert, die Mimik und Gestik von Menschen zu analysieren und darauf zu reagieren. Dazu benutzt Pepper verschiedene Sensoren und eine schon ziemlich ausgefeilte Künstliche Intelligenz, die es ihm ermöglicht, auf einfacher Basis mit Menschen zu kommunizieren. Vorbild für das Konzept dieser Art von humanoidem Roboter-Gefährten ist natürlich der Mensch selbst - kein Wunder also, dass sich die KI-Forschung auch bei ihren Werkzeugen an Mutter Natur orientiert. Im Fokus der Entwickler steht dabei eine hoch komplizierte Schaltzentrale: das Gehirn. Doch was genau wurde von der Hirnforschung abgeguckt und wo liegen die Grenzen des Machbaren?

Die Antworten auf diese Fragen kennt der Physiker und Neurobiologe Christoph von der Malsburg, der unter anderem auf den Gebieten der Mustererkennung im Gehirn und neuronalen Netzwerke forscht. Letztere sind die Blaupause für künstliche Intelligenz, so von der Malsburg. "Der ganze Rahmen entstammt dem Gehirn", erklärt er. Die Hirnforschung hat mit der Analyse dieser Netzwerke demnach das biologische Fundament für die Genesis künstlicher Denkfabriken geliefert.

Neuronale Netze bestehen aus Nervenzellen, die durch Synapsen miteinander verbunden sind. Die Nervenzellen, auch Neuronen genannt, kommunizieren darüber. So geben sie zum Beispiel eine Erregung an eine Muskelzelle weiter. Das Nervensystem besteht aus vielen neuronalen Netzen. Aktuellen Schätzungen zufolge besteht das Gehirn aus neunzig Milliarden Nervenzellen.

Großes und komplexes Gebilde

Ein ziemlich großes und komplexes Gebilde, an das sich Informatik, Informationstechnik und Robotik herantrauen, um dessen Strukturen nachzubilden. Einen ersten praktischen Schritt in diese Richtung gab es bereits Mitte des letzten Jahrhunderts. "Der amerikanische Informatiker Frank Rosenblatt stellte Ende der 1950er Jahre das Perzeptron vor", sagt von der Malsburg.

Ein Perzeptron ist ein vereinfachtes, künstliches neuronales Netzwerk, das die Grundlage für für eine Klasse von Maschinen schuf, die mit kleinen Entscheidungseinheiten ausrüstet sind.

Zehn Jahre zuvor hatte der Psychologe Donald Hebb zudem eine Hypothese aufgestellt. Diese beschrieb, wie sich neuronale Netze beim menschlichen Lernen bilden. Eine These, die immer noch wichtig und in der Umsetzung schwierig ist für die KI-Forschung, da die von Hebb beschriebenen Wirkungen in den Synapsen ursächlich für die Stabilität eines Netzwerks sind.

Kein Weiterkommen bei grundsätzlichen Fragen

Ein weiteres Gebiet, in dem die Entwicklung von künstlicher Intelligenz von der Hirnforschung profitiert hat, liegt laut von der Malsburg im Bereich der psychologischen Physik, bei der man auf klassischem Weg Reize setzt sowie Reaktionen beobachtet und die KI so trainiert. Zusammengefasst beruhen die heutigen Fortschritte bei der Entwicklung von KI und maschinellem Lernen, also auf Erkenntnissen der Hirnforschung bis in die 1960er.

Bei ganz grundsätzlichen Fragen kommen Hirn- und KI-Forscher jedoch nicht weiter, erklärt von der Malsburg. "Neurowissenschaftler sind in eine Depression geraten", sagt er. "Bei der Frage, wie das Gehirn funktioniert und was Intelligenz eigentlich ist, herrscht seit Jahren Stagnation." Der Forscher kritisiert damit auch offen das Human Brain Project der Europäischen Union. Dieses sammelt Daten und versucht, das menschliche Gehirn als Computermodell nachzubilden. Das Projekt wird laut Angaben der EU mit Fördergeldern von fast 1,2 Milliarden Euro finanziert.

Große Herausforderungen bei Computertechnik

Laut von der Malsburg habe es aber noch keine bahnbrechenden Erfolge vorzuweisen. Vor allem, weil innerhalb der Wissenschaft noch kein Konsens über die Entschlüsselung des Organs und seiner Funktionsweise herrscht. "Zum Beispiel gibt es noch keine Antwort darauf, wie sich die Zellen untereinander verbinden, um ein Symbol höherer Stufe zu kreieren." Ein Symbol höherer Stufe ist beispielsweise das Bild, das wir haben, wenn wir an Weihnachtsfeiern denken. Es ist eine Kombination aus Reizen mit allen gespeicherten und kombinierten Erinnerungen an Farben, Gerüche und den kratzigen Wollpullover mit Rentier-Muster.

Vor großen Herausforderungen stehen die Nachahmer des Gehirns auch bei der Computertechnik. Zwar gibt es Hochleistungsrechner, die ähnlich schnell arbeiten können wie das Gehirn, doch diese Geräte füllen auch heute noch ganze Räume, wie der Supercomputer im Forschungszentrum Jülich. Dieser kommt an die Leistung unseres natürlichen Schaltzentrums heran, in dem jede Synapse mit zehn Billionen Operationen pro Sekunde arbeitet, verbraucht dabei aber Energie in der Größenordnung von Megawatt. Das menschliche Gehirn begnügt sich dagegen mit nur 20 Watt, so Christoph von der Malsburg.

Neue Chips und Computerarchitekturen benötigt

Um die hohen Anforderungen in der Technik weiß auch Michael Tangermann. Der Leiter des Brain State Decoding Lab der Universität Freiburg forscht im Rahmen des dort angesiedelten Exzellenzclusters "BrainLinks-BrainTools" an Neurotechnologien und ihren Anwendungsmöglichkeiten. "Es wird nötig sein, neue Algorithmen zu finden, die das menschliche Lernen besser imitieren können", so Tangermann. "Dafür benötigt man aber neue Chips und Computerarchitekturen, die anders rechnen als heutige Modelle."

Es müssten andere Hierarchien im Speicher gelten, und es müsse möglich sein, gleichzeitig zu rechnen und zu speichern, so der Experte. Solche Maschinen gebe es bislang nicht. Doch: "Der Durchbruch wird kommen", ist sich Tangermann sicher, der in seinem Job täglich interdisziplinär mit Hirn- und KI-Forschern arbeitet. In seiner Gruppe suchen Informatiker und Neurologen beispielsweise nach Lösungen für Parkinsonkranke oder Menschen, die einen Schlaganfall erlitten haben. "Dazu setzen wir Methoden maschinellen Lernens ein und arbeiten nah am menschlichen Gehirn", so Tangermann.

Gehirn-Computer-Schnittstellen

Die Wissenschaftler des Clusters messen zum Beispiel die Gehirnaktivitäten in Echtzeit und entwickeln Technologien, die direkt mit dem Nervensystem interagieren. Auf Basis solcher Forschung entstehen auch invasive Technologien wie Implantate, die direkt ins Gehirn eingepflanzt werden. "Diese Elektroden werden in das Gehirn geschoben und können, an der richtigen Stelle platziert, bestimmte Krankheitssymptome lindern." Praktische Anwendung würde dieses Verfahren heute schon bei Parkinson-Patienten finden.

Ebenfalls möglich sind übrigens auch schon sogenannte "Gehirn-Computer-Schnittstellen". Diese Schnittstellen ermöglichen es, Befehle auf Basis der Gehirnströme an einen Computer weiterzuleiten. Mittels Elektroden, wie zum Beispiel ebenso einem Implantat, kann die elektrische Aktivität im Gehirn gemessen und von Computern analysiert werden. Das kommt vor allem körperlich behinderten Menschen zu Gute, die zum Beispiel ihre Fähigkeit verloren haben zu sprechen und mit Hilfe ihrer Gedanken einen Buchstabiermaschine steuern können.

Kommunikation nur durch Gedanken?

Könnte es da sogar irgendwann möglich sein, nur mit Hilfe seiner Gedanken zu kommunizieren? "Da gibt es ein ganz prinzipielles Problem", so Tangermann. "Im Gehirn ändern sich viele Netzwerke ständig. Es fehlt noch theoretisches Wissen aus der Neurowissenschaft, in welchen Hierarchien die Netze kommunizieren."

Es geht also kompliziert zu im Gehirn. Hinzu käme, dass von solchen Implantaten Millionen anderer Signale mitgemessen werden würden, die eine Kommunikation stören. "Dazu gehören auch unbewusste Handlungen wie zum Beispiel Atmen oder die Muskelkontraktion beim Sitzen."

Mit solch primitiven, das Netzwerk störenden Menschlichkeiten muss sich Pepper nicht befassen. Dem rund 30 Kilogramm schweren und 1,20 Meter großen Roboter reichen eine Handvoll erlebbarer emotionaler Grundstimmungen, um mit seinem Gegenüber in Kontakt zu treten. Somit verfügt Pepper in gewisser Weise aber bereits jetzt über einen in Schaltkreisen manifestierten Werkzeugkasten, mit dem der Roboter einen, wenn auch limitierten Blick in unsere Gedanken werfen kann.