Schattenseiten des Machine Learning

So gefährlich ist Deepfake-Technologie

Manipuliertes Bild- und Videomaterial ist fast so alt wie das Internet selbst. Per Machine Learning generierte Fälschungen erreichen derzeit aber immer wieder neue Qualitäten und können so zu einem ernsthaften Problem für Politik und Gesellschaft werden.

Schattenriss eines Mannes, der auf eine digitale Maske in seinen Händen blickt

Der Fortschritt bei Künstlicher Intelligenz bringt unangenehme Begleiterscheinungen mit sich.

Das Internet war schon immer ein Ort, an dem die Grenzen zwischen Wahrheit und Manipulation leicht verschwimmen. Ein Umstand, der sich durch die seit Jahren anhaltende Debatte um sogenannte Fake-News nicht unbedingt zum Besseren verändert hat. Während die großen Plattformbetreiber bereits auf Hochtouren an einer Lösung für diese Problematik arbeiten, zeichnet sich bereits eine neue Generation des gleichen Dilemmas ab: Deepfakes. Dabei handelt sich um oft täuschend echte Videofälschungen von zumeist prominenten Personen, die auf Basis von Machine-Learning-Algorithmen generiert werden können.

Die Diskussion nahm in diesem Jahr zunächst an Fahrt auf, als zwei britische Künstler im vergangenen Juni eine verblüffend realistische Deep-Fake-Manipulation von Mark Zuckerberg auf Instagram teilten, bei der dem Facebook-Chef heikle Worte in den Mund gelegt wurden. Möglich gemacht hat es in diesem Fall das israelische Software-Unternehmen Canny AI, dessen KI-unterstützte Werkzeuge eigentlich die Lokalisierung und Synchronisierung für Werber und Filmemacher vereinfachen soll.

Wie simpel solche Fälschungen inzwischen umgesetzt werden können, demonstrierten derweil Forscher der Stanford University mit einer eigenen Deepfake-Technologie. Die Software analysiert dabei zunächst die einzelnen Sprachlaute einer auf Video aufgezeichneten Person und verknüpft diese dann mit den dazugehörigen Mundbewegungen und Gesichtsausdrücken. Zusätzlich wird ein 3D-Modell der unteren Gesichtshälfte erstellt. Dieser Schritt ermöglicht es der Software schließlich, auf Basis der analysierten Daten gezielte Änderungen im Videoablauf vorzunehmen, die per Machine Learning in eine – mehr oder weniger –  flüssige Sprachanimation übersetzt werden.

Bedrohung für die Intimsphäre

Dass Deepfake-Technologie nicht nur eine Gefahr für den journalistischen und politischen Diskurs darstellt, sondern auch auf privater Ebene viel Schaden anrichten kann, zeigte zuletzt ein anonymer Entwickler mit der App „Deepnude”. Die inzwischen wieder offline gegangene Anwendung errechnete aus regulären Fotos ohne weitere Vorkenntnisse Nacktaufnahmen der abgebildeten Personen. Die Software soll laut Aussage des Entwicklers auf einem Open-Source-Algorithmus der University of California basieren und die manipulierten Bilder über sogenannte Generative Adversarial Networks (GANs) generieren. Dabei handelt es sich um selbstlernende neuronale Netzwerke, die immer wieder für die Bildmanipulation verwendet werden. Im Fall von „Deepnude” wurden diese Netzwerke angeblich mit mehr als 10.000 Nacktbildern trainiert. So schnell, wie die App in den Medien auftauchte, so zügig wurde sie aufgrund des öffentlichen Drucks auch wieder eingestampft. Eine missbräuchliche Nutzung der Technologie war hier bereits in der Grundidee angelegt.

Während die meisten Methoden derzeit noch auf große Datenmengen angewiesen sind, um einigermaßen glaubwürdige Fälschungen zu erstellen, haben Forscher des Samsung AI Center und Skolkovo Institute of Science and Technology bereits einen Weg gefunden, diese Hürde zu umgehen. So ist es den Wissenschaftlern gelungen, bereits auf Basis eines einzigen Fotos und eingeschränkter Trainingszeit für den Algorithmus einen sprechenden Bewegtbild-Avatar der abgebildeten Person zu erzeugen. Das ist vor allem eindrucksvoll, wenn es an historischem Bildmaterial wie etwa der Mona Lisa demonstriert wird.

Aktuell mag ein großer Teil der gefälschten Videos noch leicht erkennbar sein, mit der fortschreitenden Entwicklung von Künstlicher Intelligenz dürfte die Identifizierung von Deepfakes aber immer schwieriger werden. Dadurch könnte in Zukunft vor allem der Job von Videoforensikern an Bedeutung gewinnen, die bisher vor allem Amateuraufnahmen auf ihre Echtheit überprüfen mussten. Da freilich nicht jeder über den geschulten Blick bzw. die Werkzeuge solcher Experten verfügt, könnten Videofälschungen schon in naher Zukunft einen maßgeblichen Einfluss auf die öffentliche Meinungsbildung haben. Unter dieser Prämisse müssen sich nicht zuletzt auch Plattformbetreiber wie Google oder Facebook mit der Problematik auseinandersetzen und entsprechende Gegenmaßnahmen entwickeln. 

Bildquelle: Getty Images / iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok