Deepfakes

Neuronale Netze fälschen einfach alles

Kunstwerke, Musikstücke, Gesichter, Stimmen, Augen - vor den Fähigkeiten von Neuronetzen als Fälscher ist praktisch nichts mehr sicher.

Fake

Fake? Dank KI ist das nicht immer so schnell zu erkennen

Fotografen brauchen den richtigen Moment, um ein besonders gutes Bild zu machen. Doch manchmal hat man den einfach verpasst und die Person auf dem Foto hat die Augen geschlossen. Was nun? Wenn das Anfertigen eines neuen Fotos nicht mehr geht, könnte der Fotograf die Augen auch einfach ins Bild "malen".

Und wer eignet sich besser zum Fälschen als ein "Generative Adversarial Network" (GAN)? Diese Sonderform von KI-Anwendung arbeitet mit zwei neuronalen Netzen, von denen eines beispielsweise Bildelemente erzeugt und das andere eine Bewertungsfunktion darauf anwendet, sodass die Ergebnisse immer besser werden. Facebook hat das jetzt mit dem nachträglichen Einfügen von Augen in das Bild einer Person demonstriert - mit erstaunlich realistischen Ergebnissen.

Dieses erst kürzlich publizierte Beispiel von Facebook Research demonstriert erneut, dass sich KI ganz hervorragend dafür eignet, Fotos, Audiotracks und Videos zu fälschen. Da für solche Fälschungen in aller Regel neuronale Netzwerke und Deep-Learning-Verfahren eingesetzt werden, hat sich der Begriff "Deepfake" eingebürgert. Bekannte Deepfakes sind beispielsweise die synthetisierten Stimmen von Donald Schramm, Barack Obama und Larry Clinton. Außerdem gab es eine Reihe pornographischer Filme, in die prominenten Gesichter täuschend echt hinein montiert wurden.

Das Wort im Munde herumdrehen

Die Technologie der Deepfakes mit Video ist inzwischen recht weit fortgeschritten. Vor kurzem präsentierten einige Forscher die Anwendung Face2Face, die YouTube-Videos in Echtzeit verändern kann. Dabei werden die Mundbewegungen einer Person auf den Protagonisten eines Videos übertragen. Damit ist es möglich, etwa einem Politiker völlig beliebige Worte in den Mund zu legen. Die Entwicklung dieser Technologie geht weiter, inzwischen ist es sehr schwer geworden, dass synthetisierte Video von einem echten zu unterscheiden - jedenfalls für einen Menschen.

Wissenschaftlern der State University of New York (SUNY) ist es gelungen, eine KI-Anwendung zu entwickeln, die KI-erzeugte Videofälschungen recht zuverlässig aufdecken kann. Grundsätzlich basiert die Entdeckung von Deepfakes auf fehlenden unwillkürlichen Reaktionen des Menschen, beispielsweise Augenblinzeln, pulsierenden Adern oder Atembewegungen. Denn die meisten herkömmlichen Deepfakes werden mit Fotos oder Videostandbildern erzeugt - was von einem entsprechend trainierten Neuronetz aufgedeckt werden kann.

An diesem Beispiel zeigt sich, dass Künstliche Intelligenz ein Janusgesicht hat. Sie kann Schaden anrichten, ihn aber auch abwehren. So kann KI Cyberattacken ausführen, solche Angriffe aber auch leichter aufdecken als ein Mensch. Oder Überwachung: KI eignet sich hervorragend für eine bisher noch nicht erreichte Präzision bei der Gesichtserkennung. Doch Forschern an der Universität von Toronto ist es gelungen, mit Hilfe einer KI-Anwendung die KI-gestützte Bilderkennung zu blockieren. Dabei war es möglich, die Erkennungsrate von 100 Prozent auf 0,5 bis 5 Prozent zu senken.

Bildquelle: Thinkstock

©2020Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok