Computerprogramme ermöglichen die Nachahmung beliebiger Personen

Sicherheitsexperten warnen : Computerprogramme ermöglichen die Nachahmung beliebiger Personen

Der Mann glaubte fest, seinen Boss am Telefon zu haben. Heute kann sich der Geschäftsführer eines britischen Unternehmens aus der Energiebranche einer besonderen Rolle in der Technikgeschichte rühmen: Er ist das erste Opfer eines Betrugs mit einer gefälschten Stimme.

Der Anrufer gab sich als der Präsident des deutschen Mutterkonzerns aus, zu dem das britische Unternehmen gehört. Der deutsche Akzent im Englischen, die Sprachmelodie – alle Details klangen überzeugend.

Ungewöhnlich war nur, dass der Firmenpräsident den Geschäftsführer am Telefon anwies, eine angeblich enorm dringende Überweisung nach Osteuropa zu veranlassen. „Dieser hat sich zwar etwas gewundert, da er jedoch die Stimme eindeutig erkannte, hat er den Auftrag trotzdem durchgeführt“, sagt Rüdiger Kirsch, Betrugsexperte bei dem Versicherer Euler Hermes, der am Ende für den Schaden aufkommen musste. „Das gesamte Geld war weg.“ Der Schaden: 220 000 Euro.

Der britische Geschäftsführer fühlte sich zwar blamiert – doch er kann sich trösten: Bisher weiß kaum jemand, dass sich Stimmen in Echtzeit nachahmen lassen. Die technische Entwicklung verlief hier in den vergangenen zwei Jahren enorm schnell. Innerhalb von Monaten ist aus einer Utopie eine praktische Möglichkeit geworden. Dabei steht die Technik noch am Anfang: „In einem oder zwei Jahren gibt es vielleicht den ersten Fake–Fall, bei dem die Zahlungsanweisung per Deepfake-Video über WhatsApp kam“, sagt Ron van het Hof, Chef von Euler Hermes in Deutschland. Das Aufkommen der sogenannten „Deepfakes“ beunruhigt nun Sicherheitsexperten rund um den Globus. Zugleich steht die Beschäftigung damit bei deutschen Institutionen offenbar noch ziemlich am Anfang. „Das Thema wird auch aus datenschutzrechtlicher Sicht in der Zukunft sicherlich weiter an Relevanz gewinnen“, teilte das Büro des Bundesdatenschutzbeauftragen mit; weitere Informationen lägen nicht vor. Auch das Bundesamt für Sicherheit in der Informationstechnik befindet sich noch in der Erkundungsphase.

Dabei markiert die neue Technik einen grundsätzlichen Wendepunkt im Umgang mit Kommunikationsmedien. Die wichtigste Möglichkeit, Menschen zu identifizieren, wird schon bald entwertet sein. Die Nachahmung von lebendigem Bewegtbild und Stimme liegen technisch in Reichweite von Normalbürgern. An Hardware genügt ein PC mit einer modernen Grafikkarte. Wer seinem Gegenüber vertrauen will, muss ihn also ab jetzt mit Trickfragen testen – und langfristig wird eine elektronische Echtheitsprüfung den Verbindungsaufbau begleiten. Wie beim Kontakt mit Webseiten könnte dann ein kleines Symbol auf dem Display erscheinen.

Sicherheitsexperten sehen für die Übergangszeit ein großes Problem damit, dass die neuen Verfahren in der Bevölkerung noch unbekannt sind. „Die Gesellschaft wird von den neuen Möglichkeiten überrumpelt“, sagt David Wollmann, Sicherheitsberater bei der Firma NTT Security. Es sei schnelle Aufklärung nötig, sonst drohe eine Welle von Betrugsfällen.

Die Computersoftware zum Nachahmen von Gesichtszügen und Sprechweise hat sich so schnell weiterentwickelt, weil die Forschung an Methoden zur Mustererkennung und -erzeugung einige Hürden genommen hat. Das „deep“ in dem Wort Deepfake kommt von „deep learning“, einem englischen Begriff für Maschinenlernen. Die Software sieht das Video und hört die Stimme, erkennt die persönlichen Eigenschaften – also das „Aussehen“ und den „Klang“ – und erzeugt im nächsten Schritt daraus eine künstliche Version, die sie wiederum mit beliebigen Inhalten wie Gesichtsausdrücken und Sätzen füllen kann. Die Softwarepakete dafür sind ein Ergebnis der Informatik-Forschung. Daher sind sie kostenlos für jeden verfügbar.