Fortschritte der Technologie Künstliche Intelligenz entwickelt sich rapide weiter

Berlin · Die Risiken künstlicher Intelligenz, werden in Deutschland meist nur anhand selbstfahrender Autos diskutiert. Die großen Fragen wurden noch nicht beantwortet: Welche Nutzung von KI wollen wir verbieten, welche unterstützen?

Maschinen können bereits Texte schreiben, Bilder malen und revolutionieren sogar derzeit den Arbeitsmarkt.

Maschinen können bereits Texte schreiben, Bilder malen und revolutionieren sogar derzeit den Arbeitsmarkt.

Foto: pa/obs/Internet World Messe

Die Fans von „Game of Thrones“, der weltweit erfolgreichsten Fantasy-Serie, sind erlöst. Erste Kapitel des mit riesiger Spannung erwarteten sechsten Buchs der Reihe, auf der die TV-Serie basiert, sind im Internet erschienen. Sprache und Aufbau zeigen den unverkennbaren Stil des Autors George R. R. Martin, der durch die ersten fünf Bücher populär wurde.

Doch die jetzt veröffentlichten Texte stammen nicht aus seiner Feder – sondern von einer künstlichen Intelligenz (KI), die ein US-amerikanische Programmierer mit den bisherigen Büchern fütterte. Der Inhalt lässt zwar zu wünschen übrig – bereits gestorbene Charaktere tauchen wieder auf, und Sinnvolles sagen sie nicht –, dennoch ist der Versuch ein überraschendes Beispiel für den Stand und die Möglichkeiten künstlicher Intelligenzen.

Maschinen haben Schach- und Go-Meister geschlagen, Bilder gemalt, Texte geschrieben und sind fleißig dabei, Arbeitsmarkt zu revolutionieren, ohne dass es öffentlich wahrgenommen wird. Dabei wird die Frage, was KI in Zukunft können wird und was sie tun soll, immer drängender. Die Debatte darüber wird weltweit geführt – in Deutschland steht sie noch an der Startlinie.

Nicht viele kennen das 1988 gegründete Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), in dem bundesweit fast 500 Wissenschaftler und Verwaltungsangestellte arbeiten. Sie forschen an Sprachsoftware, Bilderkennung und Kommunikation zwischen Mensch und Maschine.

Zu ihren Gesellschaftern zählen VW und BMW, die Telekom, aber auch Microsoft, Google und der Chip-Hersteller Intel. Rund 25 Prozent des Geldes kommen neben EU- und Bundesmitteln aus Aufträgen der Wirtschaft, sagt DFKI-Sprecher Reinhard Karger. Auch die Bundeswehr hat bereits Interesse gezeigt: Das DFKI hat für sie eine Software entwickelt, die ihren Hacker-Schutz verbessern sollte.

Die Risiken, die von intelligenter Technologie ausgehen, werden in Deutschland meist nur anhand selbstfahrender Autos (wer haftet, wenn es Unfälle gibt?) oder dem Arbeitsmarkt (wie viele Arbeitsplätze verlieren wir?) behandelt. Die großen Fragen aber wurden bislang weder vom Bundestagsausschuss für Digitale Agenda noch vom Ethikrat beantwortet. Welche Entscheidungen muss letztlich ein Mensch treffen? Welche Nutzung von KI wollen wir verbieten, welche unterstützen? Oft wird mangels Antworten auf die noch begrenzten Fähigkeiten der Maschinen verwiesen. Bleibt uns also noch Zeit?

„Piloten werden schon jetzt darauf trainiert, im Zweifelsfall nicht auf ihr Bauchgefühl, sondern auf die Instrumente zu hören“, sagt Karger. „Wir müssen unsere Urteilsfähigkeit schärfen, wofür wir Menschen die Verantwortung behalten sollen.“ Zur Eile mahnte auch der Philosoph und Ex-Kulturstaatsminister Julian Nida-Rümelin auf einer Tagung des Ethikrats. Auf den Einwand, die Entwicklungen der KI in der Wirtschaft seien überschaubar, sagte er: „Sie haben sich zum Teil schon verselbstständigt.“

Nicht endlos über ethische Standards diskutieren

Online-Konzerne streben nach dem Monopol auf Kommunikation, sie haben wachsende Datenberge mit Informationen über die Erdbevölkerung. Die Urteilsgewalt über das, was richtig und falsch ist, liegt immer weniger in den Händen der Nutzer, der gemeinnützigen Institutionen oder der Politik, sondern bei Unternehmen, die eine der bedeutendsten Technologien der Menschheitsgeschichte am Ende dazu benutzen, mehr Kunden zu bekommen. Die Gesellschaft braucht beim Einsatz von KI eine Tür, durch die sie schreiten und mitreden kann. „Wir haben in Deutschland eine lange Tradition, Dinge aus der Risiko-Perspektive zu sehen“, sagt Thomas Jarzombek (CDU), Internet-Experte der CDU im Bundestag.

Man dürfe nicht „endlos über ethische Standards diskutieren“, um dann zu erleben, wie die USA und China den KI-Markt an sich rissen. „Das einzige Risiko ist, nicht mitzumachen“, warnt Jarzombek. Im Silicon Valley, wo die meisten Software-Entwickler arbeiten, haben sich Amazon, Facebook, Apple zu einer Partnerschaft zur künstlichen Intelligenz zusammengeschlossen. Diese hat sich bei der KI-Entwicklung dem Menschenwohl verschrieben: keine Waffenentwicklung, transparente Forschung, Sicherheit beim Einsatz in der Medizin. Gesetze, die diese Werte festschreiben, gibt es weder in den USA noch in Deutschland.

Dabei bedeutet KI für den Menschen eine existenzielle Gefahr, sagen Microsoft-Gründer Bill Gates, Elon Musk, Tesla-Geschäftsführer und Gründer des Raumfahrtprogramms SpaceX, oder der Physiker Stephen Hawking. Dreh- und Angelpunkt der Debatte ist die sogenannte technologische Singularität, der Zeitpunkt, an dem sich Maschinen ohne Kontrolle oder Zutun des Menschen selbst weiterentwickeln. Raymond Kurzweil, Technischer Entwicklungsleiter bei Google, sieht diesen Tag in weniger als 30 Jahren gekommen.

Kurzweils Thesen sind umstritten, alles riecht ein bisschen nach Science-Fiction. Doch rechtfertigt das das Desinteresse? Arbeitsministerin Andrea Nahles (SPD) steht für viele, die trotz der großen Gefahren nicht sonderlich alarmiert sind. Bei einer Veranstaltung zur künstlichen Intelligenz brachte sie ihre Prioritäten auf den Punkt: „Das ist nicht die Baustelle, die wir gerade haben.“

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort
Kein Zufall
Kein Zufall
Kommentar zum Ende der Bieterfrist für Air BerlinKein Zufall