0721 1320980 info@iscl.de
Deepfakes sind Videos, Bilder oder auch Audio-Dateien, welche mit Hilfe von Künstlicher Intelligenz (KI) erstellt oder manipuliert werden und dadurch täuschend echt wirken.
Der Name setzt sich aus den Teilen “Deep Learning”, einer Technik des maschinellen Lernens, und “Fake”, dem englischen Wort für Falsch/Fälschung zusammen.
Was im Jahr 2014 als wissenschaftliches Werkzeug zum Testen von Gesichtserkennung entwickelt wurde, begann schnell zu wachsen, bis es um 2019 in der breiten Gesellschaft ankam und beispielsweise für lustige Spielchen mit Bildern verwendet wurde. Von da an wurde die Technologie der Deepfakes stark weiterentwickelt.
Durch moderne Algorithmen können Gesichter, Stimme und Bewegungen so verändert werden, dass Menschen, oder sogar Tiere und Gegenstände, scheinbar Dinge sagen oder tun, welche in der Realität nie passiert sind.
Deepfakes dürfen allerdings nicht verwechselt werden mit sogenannten “Cheapfakes” oder “Shallowfakes”, welche bei weitem weniger detailliert oder professionell sind und meistens sehr leicht zu erkennen sind.

 

Wo werden Deepfakes verwendet?

Die Technologie der Deepfakes wird bereits in mehreren verschiedenen Bereichen genutzt:
Unterhaltung: In der Filmindustrie wurden durch Deepfakes bereits verstorbene Schauspieler “ersetzt” oder Schauspieler werden optisch verjüngt oder älter gemacht.
Soziale Medien: Deepfakes werden in sozialen Medien für humorvolle Bilder und Videos verwendet.
Werbung/Marketing: Unternehmen benutzen die Deepfake-Technologie, um beispielsweise personalisierte Werbung zu erstellen.
Bildung und Wissenschaft: Deepfakes können zur Simulation historischer Figuren in Bildungsvideos verwendet werden. In vielen Feldern der Wissenschaft wird mit KI und Deepfakes getestet oder simuliert. Ein schönes Beispiel wäre ein kanadisches Start-Up, welches die Deepfake-Technologie benutzt, um Menschen mit ALS (Lou-Gehrig-Syndrom), welche die Fähigkeit zu sprechen verloren haben, weiterhin mit ihrer eigenen, authentischen Stimme sprechen zu lassen.

Gefahren von Deepfakes?

Eine solche Technologie bringt natürlich nicht nur Vorteile, sondern birgt auch Gefahren, welche durch Verbesserung von KIs und Machine/Deep Learning stetig wachsen:
Fake News und Desinformation: Deepfakes werden vor allem in sozialen Medien häufig verwendet, um Falschinformationen zu verbreiten oder politisch zu polarisieren
Identitätsdiebstahl und Betrug: Cyberkriminelle können Deepfakes verwenden, um sich als andere Personen auszugeben. Durch Video und Stimme können sie sich beispielsweise als Geschäftsführer von einem Unternehmen ausgeben.
Rufschädigung und Erpressung: Deepfakes können bestehende Bilder oder Videos so verändern, dass z.B. Personen der Öffentlichkeit bloßgestellt oder erpresst werden können.

Deepfakes erkennen

Es gibt bereits einige Tipps und Tricks, mit welchen man Deepfakes erkennen kann. Der erste Anhaltspunkt ist die Unschärfe von Videos und Bildern, besonders bei Details wie Haaren, Ohren oder dem Hintergrund. Auch unnatürliche Bewegungen von Armen, Beinen oder dem Kopf sind häufig klar erkennbar. Weitere Unstimmigkeiten wären Schatten von Menschen und Gegenständen oder fehlendes Blinzeln von Personen.
Es gibt jedoch auch Technologien, bzw. KI-Modelle, welche Bilder und Videos analysieren und auf Einflussnahme durch KI überprüfen. Beispiele hierfür sind Intel Echtzeit-Deepfake-Detektor, Microsoft Video Authenticator, Reality Defender und viele mehr.
Auf der Webseite vom Bundestamt für Sicherheit in der Informationstechnik (BSI) gibt es auch Beispiele für Deepfakes mit Video- und Tonmanipulation.

Fazit

Es ist zu erwarten, dass Deepfakes unseren Alltag in Zukunft noch stärker begleiten werden. Selbst wenn es einige positive Nutzungsmöglichkeiten gibt, ist es sinnvoll sich auch mit den Schattenseiten auseinander zu setzen. Dazu gehört es, sich auf eine Welt vorzubereiten, in der Realität und Fake noch schwerer auseinander zu halten sind. Vor allem im Hinblick auf Scam-Versuche raten wir dazu, sich mit Freunden und Familienmitgliedern über das Thema auszutauschen, um sich gegen eventuelle Deepfake-Scams zu wappnen.

Quellen: