Interview zu Künstlicher Intelligenz

Warum sich die Telekom Leitlinien für KI gibt

Bleibt größter Arbeitgeber der Region: Die Deutsche Telekom mit der Zentrale in Bonn.

Die Zentrale der Deutschen Telekom in Bonn.

Bonn. Die Deutsche Telekom ist einer der größten Arbeitgeber in der Region und hat sich als einer der ersten Konzerne weltweit Leitlinien für den Umgang mit Künstlicher Intelligenz gegeben. Wir sprachen mit Manuela Mackert, zuständig für Werte im Unternehmen.

Der Umgang mit Künstlicher Intelligenz (KI) braucht Regeln. Regeln, die von Menschen gesetzt sind. Das findet auch die Telekom, die sich als einer der ersten Konzerne weltweit auf Leitlinien für den Einsatz von KI verständigt hat. Sylvia Binner sprach mit Manuela Mackert, Chief Compliance Officer der Telekom, über den Menschen als Richtschnur und die Notwendigkeit eines Not-Aus-Schalters für Künstliche Intelligenz.

Wenn Sie sich eine intelligente Maschine wünschen dürften, welche wäre das?

Manuela Mackert: (lacht) Mein Raumschiff.

Wo wollen Sie denn damit hin?

Mackert: Überall hin. Zum Beispiel, wenn ich Geschäftsreisen mache oder private Dinge erledigen möchte. Eine Kapsel, ein Flugtaxi, das alles da hat, was ich mir wünsche, das merkt, wie ich mich fühle, mir Musik einspielt, wenn ich mich entspannen möchte. Meine Tochter zuschaltet, mit der ich dann spontan einen Dialog führen kann. Ich also die Zeit des Reisens noch mal ganz anders nutzen kann.

Selbstlernende Superrechner, autonom fahrende Autos, Gesichtserkennung, Chatbots oder Kampfdrohnen - was davon ist KI?

Mackert: Das haben wir in Amerika gelernt, beispielsweise als wir mit Sam Altman (Anmerkung der Redaktion: ein amerikanischer Programmierer, Investor, Unternehmer) diskutiert haben. Es ist wichtig, zwischen der "weak Artificial Intelligence" (AI), das ist die Künstliche Intelligenz, die dazu dient, eine spezifische Aufgabe zu lösen, und andererseits der "strong AI" zu unterscheiden. Diese fortgeschrittene Künstliche Intelligenz, die Altman und andere als Superintelligenz bezeichnen, soll in der Lage sein, selbst zu denken und sich weiterzuentwickeln. Wir haben intensiv über neuronale Netze und Zukunftsvisionen gesprochen. Aber da sind wir Gott sei Dank noch nicht. Sollte es doch so weit kommen, stellt sich die Frage: Wo bleibt denn da der Mensch? Diesen Punkt habe ich auch mit Altman diskutiert.

Und? Wo bleibt er?

Mackert: Ich sagte Altman: "Ich bin eine Mama. Ich möchte meinem Kind eine gute Zukunft in einem Wertegefüge geben. Wie sieht es mit Dir aus?" Auch für Altman ist das ein wichtiges Thema. Wir müssen darauf achten, dass das, was wir als neue intelligente Technologien bezeichnen, einen positiven Nutzen für die Menschheit bringt. Wir Menschen bestimmen, wie die Technologie sich entwickelt. Und dazu gehört es ganz klar, unsere ethischen Rahmenanforderungen festzulegen. Das hat man aus meiner Perspektive zum Beispiel in den frühen Phasen im Internet und der Cybersecurity versäumt.

 

Ist der Anspruch mehrheitsfähig?

Mackert: Ich bemerke, dass unter dem Stichwort "Technology for Good" selbst die Technikbegeisterten immer mehr in diesen Dialog einsteigen. Wir haben zum Beispiel bei der Telekom ein Projekt namens "Sea Hero Quest", in dem wir Daten generiert haben, um der Forschung zu helfen, Alzheimer schneller zu erkennen und die Muster dahinter besser zu verstehen. Ich finde, so muss es gehen. KI ist ein Hilfsmittel, ein Werkzeug, über dessen Einsatz wir zu bestimmen haben.

Die Telekom hat sich als einer der ersten Konzerne weltweit Leitlinien zum Umgang mit Künstlicher Intelligenz gegeben. Warum?

Mackert: Es war uns ein dringendes Bedürfnis. Künstliche Intelligenz bietet Chancen und Risiken. Wir müssen diese gestalten, um die positiven Aspekte der Künstlichen Intelligenz als Vorteil für die Menschen zu nutzen. Und darum wollten wir uns einen ethischen Rahmen geben.

Worauf haben Sie sich verständigt? Und wer hat mitgewirkt?

Mackert: Das Stichwort Verständigung ist ganz wesentlich. Wir haben weltweit geschaut, wer in unserem Unternehmen mit Künstlicher Intelligenz zu tun hat oder wer sich privat damit auseinandersetzt. Mit denen haben wir uns zusammengesetzt und uns gefragt: Welchen Rahmen brauchen wir für die tägliche Arbeit mit den neuen Technologien? Was hilft uns? Was brauchen wir, um zu wissen, was richtig ist und was falsch? So haben wir versucht, uns auf Werte zu einigen. Um sagen zu können: Dafür stehen wir als Telekom. Das ist für uns als Programmierer, als Produktdesigner, als Juristen, aber auch als Auszubildende wichtig, um zu wissen, wie sollen wir dieses Produkt designen, damit es die ethische DNA der Telekom in sich trägt und dem Kunden ein vertrauenswürdiges Produkt oder einen verlässlichen Service liefert. Diesen Rahmen wollen wir leben.

Sie haben also über Länder- und über Fachgrenzen hinweg über KI diskutiert. Gab es da sehr verschiedene Ansätze?

Mackert: Wir haben in Israel eine Einheit, die sich mit KI beschäftigt, wie auch in verschiedenen europäischen Ländern und in Deutschland. Auch unser Technologie-Chef aus Südkorea war dabei. In diesem Prozess sind wir auf unterschiedliche Kulturen gestoßen, sind aber trotzdem relativ schnell auf einen Nenner gekommen. Wir haben dann aber auch gesagt: Das ist gut, dass wir unsere Perspektiven entwickelt haben, aber wir möchten nicht isoliert dastehen. Wir brauchen den Dialog. Und so sind wir nach Israel und Amerika gefahren, um uns mit Unternehmen und Wissenschaftlern auszutauschen. Um transparent zu sein und Verständnis zu erzeugen, sind wir in den Dialog mit der Zivilgesellschaft gegangen. Mit dem Studenten, mit dem Lehrer und vielen anderen...

Herausgekommen sind neun Leitsätze, in denen es um Werte wie Verantwortung, Sorgfalt, Vertrauen, Transparenz und Sicherheit geht. Das signalisiert Tiefgang, ist aber zugleich wenig konkret. Wie arbeiten Sie mit den Leitlinien?

Mackert: Wir haben zum Beispiel Tinka, unseren Service-Chatbot in Österreich, wo wir diese Prinzipien bereits umsetzen. Wir haben ein E-Learning entwickelt für unsere Produktdesigner, für unsere Software-Entwickler, wo wir genau diese Leitlinien erklären. Wir haben zudem noch geschaut, wie wir möglicherweise ein Ethik-Komitee implementieren können, um die Anwendung bei der Service- und Produktentwicklung sicherzustellen. Wir müssen ein Handbuch entwickeln für unsere IT-Architektur. Und ganz wesentlich: Wir nutzen einen webbasierten Freigabeprozess für IT-Entwicklungen, um unsere Fragestellungen dort zu implementieren. Und wenn jetzt neue Produkte oder Services entwickelt werden, müssen sie durch diesen Freigabeprozess laufen.

Ist es wichtig, im Gespräch zu bleiben? Denn die Inhalte sind ja nicht statisch, sondern verändern sich.

Mackert: Wir sind da in einer dynamischen Welt. Die Dinge entwickeln sich rasant. Deshalb haben wir unsere Leitlinien öffentlich kommuniziert und wollen in den Dialog treten. Durch die Resonanz merken wir, dass die Menschen das annehmen. Es nehmen auch die Medien an und wollen mehr erfahren. Das ist ganz wichtig für uns. Und so denken wir auch schon über weitere Formate nach, um den Dialog aufzugreifen und zu vertiefen, um ihn immer mit dem abzugleichen, was uns im Arbeitsalltag betrifft, was Kundenwünsche betrifft. Unsere wichtigsten beiden Ziele dabei sind: Wir wollen der beste und vertrauenswürdigste Partner des Kunden sein, und das bestmögliche Kundenerlebnis sicherstellen. Weil KI uns entlasten und bereichern soll.

Reicht es aus, wenn sich Unternehmen KI-Leitlinien geben? Oder ist die ganze Gesellschaft gefragt?

Mackert: Es sind alle gefragt, mitzugestalten. Das bedeutet, wir müssen Transparenz schaffen. Wir müssen informieren, was das überhaupt für eine Technologie ist und was sie kann. Wo sind die Chancen, wo sind die Risiken? Und wo haben wir die Verpflichtung, zu gestalten? Wichtig ist: Die analogen Werte müssen in der digitalen Welt leben und fortbestehen.

Brauchen wir nationale oder sogar internationale Übereinkünfte, wie wir KI im Sinne der Menschen einsetzen wollen? Und wer ist gefragt, diese Diskussion zu organisieren?

Mackert: Eine spannende Frage. Wichtig ist erst mal die Erkenntnis, dass es sich um ein Thema handelt, das dringend diskutiert werden muss. Und das war auch unser Ansatz für die Leitlinien. Es ist aus meiner Sicht eine internationale Verantwortung. Wir Europäer unterschätzen uns oftmals, aber wir haben starke europäische Werte, eine starke europäische Kultur und eine hohe technologische Kompetenz. Wir haben gemerkt, dass die Amerikaner uns auf Augenhöhe sehen. Gerade auch wegen unserer Erfahrungen im Datenschutz und bei Datensicherheitsthemen. Darum sind wir auch Mitglied bei "Partnership on AI" geworden, einem Bündnis, das eine Vorreiterrolle in der Diskussion um den verantwortungsvollen Einsatz von Künstlicher Intelligenz übernehmen will. Wir wollen die internationale Vernetzung und sind gerade dabei, uns in Europa Kontakte aufzubauen. Es wird sicher spannende Themen beim Digitalgipfel der Bundesregierung im Dezember in Nürnberg geben, bei dem wir auch dabei sein werden.

Wie lernen Maschinen? Und was können sie nicht lernen?

Mackert: Der Mensch ist auch dabei der Ausgangspunkt. Die Maschinen lernen, was der Programmierer ihnen beibringt. Wenn die Maschinen so gut sind, dass sie selbst lernen können, bringen sie sich auch alleine viel bei. Sie können sich aber nicht alles beibringen. Wissenschaftler wollen neuronale Netze schaffen, also das Gehirn des Menschen nachempfinden. Aber ich denke nicht, dass Maschinen oder Roboter, die Sensorik menschlicher Finger, also unser Fingerspitzengefühl, oder unsere Empathie erreichen werden. Dabei ist gerade die Empathie ganz wesentlich, denn sie macht das Leben aus, sie macht die Beziehungsfähigkeit des Menschen aus. Und dann ist noch etwas ganz wesentlich: die Neugier. Können Maschinen neugierig sein?

Ich kann es mir nicht vorstellen. Genauso wenig, wie einen Roboter, der die Unberechenbarkeit eines Menschen an den Tag legt...

Mackert: Genau das. Zumal manchmal vermeintlich falsche Entscheidungen doch die richtigen sind, weil sie uns in eine andere Gedankenwelt führen. Nicht umsonst sagen wir Menschen: Wir lernen aus Fehlern. Die Maschinen lernen zwar auch aus ihren Fehlern, aber anders, weil sie allein aus Mustern lernen und ihre Lernerfolge nicht reflektieren können. Ich sehe es bei meiner Tochter, die ich als Mama beschützen will. Aber haben wir nicht da am meisten gelernt, wo es am meisten wehgetan hat?

Stimmt, wir lernen oft unter Schmerzen. Vielleicht auch bei der folgenden Frage: Wie weit können Menschen KI vertrauen? Was wollen wir ihr anvertrauen?

Mackert: Diese Frage hat uns auch getrieben, als wir die Leitlinien entwickelt haben. Da geht es um Vertrauen, um Transparenz, um die Souveränität des Menschen, selbst zu entscheiden, welche Informationen gebe ich zu welcher Zeit an wen und was wird damit gemacht. Genau diesen ethischen Rahmen braucht es, der es uns erlaubt, Grenzen zu setzen. Und, ganz wichtig: Diese Grenzen muss ich schon mitdenken und einplanen, wenn ich die Technik entwickele. Denn am Ende steht wieder der Mensch. Dann kann er sich entscheiden, ob er seine Daten preisgeben will. Weil er vielleicht an Krebs erkrankt ist und sich erhofft, durch anonym vorhandene Daten Auswertungen und Indikatoren zu erhalten, die bei seinem speziellen Krankheitsbild unterstützen können. Nur mit der Achtsamkeit, die wir Menschen in uns tragen, können wir die neuen Technologien für uns gezielt einsetzen.

Das heißt, jeder entscheidet für sich und nicht für alle? Und das immer wieder aufs Neue?

Mackert: Genau. Weil die Würde des Menschen und seine Souveränität unantastbar sind. Unsere Grundwerte leben - auch in der digitalen Welt.

Kritiker fürchten, dass selbstlernende Systeme aus den falschen Mustern und Datensätzen lernen, wie der Microsoft-Chatbot Tay, der im Frühjahr 2016 binnen 24 Stunden zum Rassisten und Holocaust-Leugner mutierte und vom Netz genommen werden musste. Was lässt sich dagegen tun?

Mackert: Auch da landen wir bei der Frage, ob Sicherheit schon bei der Programmierung eine Rolle spielt, wie wir es in unseren Leitlinien festgelegt haben. Gleich zu Beginn müssen die Kontrollpunkte implementiert, die Wertmaßstäbe mitgegeben und immer der Mensch als Kontrollinstanz vorgesehen werden. Es liegt an uns, die Technik zu kontrollieren - und im äußersten Fall den Not-Aus-Schalter zu betätigen. Den muss es dafür geben.

Was müssen wir Ihrer Tochter und deren Altersgenossen an die Hand geben, damit sie in dieser neuen Welt klarkommen?

Mackert: Achtsamkeit im Umgang mit dem, was Apps auf Handys und Tablets sind, was Fernsehen ist und was Medien sind, wie sie funktionieren und wie sie beeinflussen können. Damit sie verstehen, dass sie selbst gestalten können, sich dafür aber das nötige Wissen aneignen müssen. Wir müssen unseren Kindern den Spaß vermitteln, den es bereitet, sich Themen zu erarbeiten und sich eine Meinung zu bilden. Denn die Technologien bieten Inhalte und Hilfen an, aber in den richtigen Kontext setzen müssen wir Menschen das Ganze.

Die Deutsche Telekom widmet sich dem Thema Künstliche Intelligenz auf einem Themespecial. Diverse Beiträge dazu gibt es hier.