Erklärt: Warum wird es schwieriger, Deepfake-Videos zu erkennen, und was sind die Auswirkungen? - Februar 2023

Die potentielle Gefahr von Deepfakes liegt darin, dass der Manipulationsgrad so perfekt ist, dass es manchmal scheinbar unmöglich ist, sie von echten Videos zu unterscheiden. Und je schwieriger es wird, die Falschheit zu erkennen, desto größer ist die Gefahr, dass sie als echt ausgegeben wird und die beabsichtigte Verwüstung anrichtet.

DeepfakeKeine der Personen auf diesem Foto ist echt. Sie sind gefälschte Menschen, die von KI generiert werden. (Quelle: https://thispersondoesnotexist.com/)

Bearbeitete Videos oder Deepfakes gehören seit geraumer Zeit zu den wichtigsten Waffen in Propagandaschlachten. Donald Trump verhöhnt Belgien für seinen Verbleib im Pariser Klimaabkommen, David Beckham spricht fließend in neun Sprachen, Mao Zedong singt „I will Survival“ oder Jeff Bezos und Elon Musk in einer Pilotfolge von Star Trek… all diese Videos sind viral geworden, obwohl sie es waren gefälscht, oder weil sie Deepfakes waren.



Im vergangenen Jahr sagte Marco Rubio, der republikanische Senator aus Florida, dass Deepfakes bei der Führung von Kriegen in einer Demokratie genauso wirksam seien wie Atomwaffen. Wenn man früher die Vereinigten Staaten bedrohen wollte, brauchte man 10 Flugzeugträger, Atomwaffen und Langstreckenraketen. Heute brauchen Sie nur noch Zugang zu unserem Internetsystem, zu unserem Bankensystem, zu unserem Stromnetz und unserer Infrastruktur, und immer mehr brauchen Sie nur die Möglichkeit, ein sehr realistisches gefälschtes Video zu produzieren, das unsere Wahlen untergraben könnte, das unser Land stürzen könnte innerlich in eine gewaltige Krise geraten und uns zutiefst schwächen, Forbes zitierte ihn mit den Worten.

Die potentielle Gefahr von Deepfakes liegt darin, dass der Manipulationsgrad so perfekt ist, dass es manchmal scheinbar unmöglich ist, sie von echten Videos zu unterscheiden. Und je schwieriger es wird, die Falschheit zu erkennen, desto größer ist die Gefahr, dass sie als echt ausgegeben wird und die beabsichtigte Verwüstung anrichtet. Aber wird es schwieriger, Deepfakes zu erkennen, da jetzt ausgefeiltere Tools zur Verfügung stehen, die auf künstlicher Intelligenz basieren, um diese Videos zu produzieren?



Was sind Deepfakes und wie werden sie erstellt?

Deepfakes sind gefälschte Inhalte – oft in Form von Videos, aber auch anderen Medienformaten wie Bildern oder Audio –, die mit leistungsstarken Tools der künstlichen Intelligenz erstellt wurden. Sie werden Deepfakes genannt, weil sie Deep-Learning-Technologie verwenden, einen Zweig des maschinellen Lernens, der neuronale Netzsimulationen auf riesige Datensätze anwendet, um gefälschte Inhalte zu erstellen.


Clark Howard und sein Vermögen

Es verwendet einen Zweig der künstlichen Intelligenz, bei dem, wenn ein Computer mit genügend Daten gefüttert wird, er Fälschungen erzeugen kann, die sich wie eine echte Person verhalten. Zum Beispiel kann die KI lernen, wie ein Quellgesicht aussieht und es dann auf ein anderes Ziel transponieren, um einen Gesichtstausch durchzuführen.



Die Anwendung einer Technologie namens Generative Adversarial Networks (GAN), die zwei KI-Algorithmen verwendet – von denen einer den gefälschten Inhalt generiert und der andere seine Bemühungen bewertet und dem System beibringt, besser zu sein – hat dazu beigetragen, genauere Deepfakes zu entwickeln.

GAN kann auch computergenerierte Bilder von falschen Menschen erstellen, die von einer Website namens 'Diese Person existiert nicht' verwendet wurden. Dadurch ist es praktisch unmöglich zu erkennen, ob die Videos oder Bilder, die wir im Internet sehen, echt oder gefälscht sind.



Deepfakes können sehr schwer zu erkennen sein. Zum Beispiel waren viele Leute auf Tiktok-Videos hereingefallen, in denen Tom Cruise Golf spielte, die sich später als Deepfakes herausstellten.

Wird es schwieriger, Deepfakes zu erkennen?

Ein auf der Winter Conference on Applications of Computer Vision 2021 präsentiertes Papier beschreibt eine neue Technik, die Deepfakes narrensicherer macht und es traditionellen Tools erschwert, sie zu erkennen.



Die Studie unter der Leitung von Paarth Neekhara und Shehzeen Samarah Hussain, beide Doktoranden an der University of California San Diego, ergab, dass die Erkennungstools getäuscht werden können, indem leicht manipulierte Eingaben, sogenannte Gegnerbeispiele, in jeden Videoframe eingefügt werden.

PhDPaarth Neekhara und Shehzeen Samarah Hussain, Doktoranden an der University of California San Diego, die die Studie leiteten. Neekhara ist Doktorandin im 4. Jahr in der Fakultät für Informatik, während Hussain, ebenfalls im 4. Jahr ihres Doktorats, Studentin der Fakultät für Elektrotechnik und Computertechnik ist.

Aktuelle Methoden zur Deepfake-Erkennung können leicht umgangen werden, wenn der Gegner den Detektor vollständig oder teilweise kennt, heißt es in dem Papier mit dem Titel „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Example“.



Im Gespräch mit indianexpress.com sagten Neekhara und Hussain, dass die Standard-Erkennungsmethoden alles andere als narrensicher sein können, da nicht garantiert wird, dass neuere Deepfake-Videos erkannt werden, die mit neuen Techniken synthetisiert wurden, die nicht im Datensatz enthalten sind, und sie anfällig für feindliche Eingaben sind.

JETZT BEITRETEN :Der Express Explained Telegram Channel

Gegnerische Eingaben sind leicht modifizierte Eingaben, so dass sie dazu führen, dass tiefe neuronale Netze einen Fehler machen. Es hat sich gezeigt, dass tiefe neuronale Netze anfällig für solche Eingaben sind, die dazu führen können, dass sich die Ausgabe des Klassifikators ändert. In unserer Arbeit zeigen wir, dass ein Angreifer jeden Frame eines Deepfake-Videos geringfügig modifizieren kann, sodass er einen Deepfake-Detektor umgehen und als echt eingestuft werden kann.


Rashel Diaz Alter

DeepfakeWidersprüchliche Beispiele für den FaceForensics++-Datensatz, der vom Forschungsteam der University of California San Diego entwickelt wurde, um Deepfake-Detektoren zu täuschen. ( https://adversarialdeepfakes.github.io/ )

Sie fügten hinzu: Der Angreifer kann für jeden Frame eines Deepfake-Videos eine kleine nicht wahrnehmbare gegnerische Störung erstellen, sie dem Frame hinzufügen und dann alle Videoframes kombinieren, um das gegnerische Video zu erstellen. In unseren Experimenten mit diesen Techniken konnten wir eine Erfolgsrate (des Täuschens des Detektors) von mehr als 90% erzielen.

Welche Bedrohungen stellen Deepfake-Videos dar?

Angesichts der Verbreitung von Deepfake-Videos wächst die Besorgnis, dass sie zur Durchführung politischer Kampagnen eingesetzt und von autoritären Regimen ausgebeutet werden können.

Im Jahr 2019 haben eine Forschungsorganisation namens Future Advocacy und der britische Künstler Bill Posters ein Video erstellt, in dem der britische Premierminister Boris Johnson und der Vorsitzende der Labour Party, Jeremy Corbyn, sich gegenseitig für den Posten des Premierministers befürworten. Die Gruppe sagte, das Video sei erstellt worden, um das Potenzial von Deepfakes zu zeigen, die Demokratie zu untergraben.

Auch im vergangenen Jahr, vor den Wahlen der Delhi-Versammlung, wurden Videos von dem BJP-Präsidenten von Delhi, Manoj Tiwari, der auf Englisch und Haryanvi sprach, viral. In diesen Videos war Tiwari zu sehen, wie er Arvind Kejriwal kritisierte und die Leute aufforderte, für BJP zu stimmen. Die Videos, die in über 5.000 WhatsApp-Gruppen geteilt wurden, stellten sich später als Deepfake heraus, berichtete das digitale Medienunternehmen Vice.

Deepfakes geben auch Anlass zur Besorgnis in einer Zeit, in der die WHO erklärt hat, dass die Covid-19-Krise eine Infodemie ausgelöst hat und bewusst versucht wurde, falsche Informationen zu verbreiten, um die Reaktion der öffentlichen Gesundheit zu untergraben und alternative Agenden von Gruppen oder Einzelpersonen voranzutreiben.

Darüber hinaus werden heutzutage in den sozialen Medien zunehmend gefälschte Videos verwendet, die die Manipulation des Inhalts durch Verwendung eines falschen Datumsstempels oder Standorts, das Ausschneiden von Inhalten zur Änderung des Kontexts, das Weglassen, das Spleißen und die Herstellung umfassen, um Fakten für politische Zwecke absichtlich falsch darzustellen. Die meisten dieser Videos sind keine Beispiele für Deepfakes, sondern zeigen, wie einfach es sein kann, Fakten zu verschleiern und Lügen zu verbreiten, die auf manipulierten Inhalten basieren, die als harte Beweise getarnt werden.

Die andere große Sorge bei Deepfake-Videos ist die Generierung von nicht einvernehmlichen pornografischen Inhalten. Im Jahr 2017 setzte ein Benutzer einen Face-Swapping-Algorithmus ein, um pornografische Deepfake-Videos von Prominenten wie Scarlett Johansson, Gal Gadot, Kristen Bell und Michelle Obama zu erstellen, und teilte sie auf einer Reddit-Bedrohung namens r/deepfake. Das Konto hatte fast 90.000 Abonnenten, als es im Februar nächsten Jahres geschlossen wurde.

Von den Tausenden von Deepfake-Videos im Internet sind mehr als 90 % nicht einvernehmliche Pornografie. Eines der schrecklichsten KI-Experimente im letzten Jahr war eine App namens DeepNude, die Fotos von Frauen entkleidete – sie konnte Fotos machen und dann Frauenkleidung gegen hochrealistische nackte Körper tauschen. Die App wurde nach einem starken Backlash entfernt.

Wie weithin berichtet wird, werden Deepfake-Videos zunehmend dazu verwendet, von verschmähten Liebhabern Rachepornos zu generieren, um Frauen zu belästigen.

Die Bedrohung durch Deepfake-Videos sei bereits offensichtlich, sagten Neekhara und Hussain gegenüber indianexpress.com. Es gibt böswillige Benutzer, die solche Videos verwenden, um berühmte Persönlichkeiten zu diffamieren, Desinformation zu verbreiten, Wahlen zu beeinflussen und Menschen zu polarisieren. Mit überzeugenderen und zugänglicheren Deepfake-Videosynthesetechniken ist diese Bedrohung noch größer geworden, fügten sie hinzu.

Ist ein Durchgreifen in Sicht?

Die meisten Social-Media-Unternehmen wie Facebook und Twitter haben Deepfake-Videos verboten. Sie haben gesagt, sobald sie ein Video als Deepfake entdecken, wird es entfernt.


Wesley schnippt Haus

Facebook hat Forscher aus Berkeley, Oxford und anderen Institutionen angeworben, um einen Deepfake-Detektor zu bauen. Im Jahr 2019 veranstaltete es in Zusammenarbeit mit Branchenführern und akademischen Experten eine Deepfake Detection Challenge, bei der ein einzigartiger Datensatz mit mehr als 100.000 Videos erstellt und geteilt wurde.

Allerdings können nicht alle Deepfakes genau erkannt werden und es kann auch einige Zeit dauern, bis sie gefunden und beseitigt werden. Darüber hinaus unterliegen viele pornografische Websites nicht denselben Beschränkungen.

Neekhara und Hussain sagten: Um Deepfake-Videos genauer zu erkennen, brauchen wir gegensätzlich robuste Modelle, indem wir einen Angreifer einbeziehen, während wir solche Deepfake-Erkennungsmodelle trainieren. Eine langfristige Lösung besteht darin, die Bilder und Videos von dem Gerät, auf dem sie aufgenommen wurden, mit Wasserzeichen zu versehen oder digital zu signieren. Das Wasserzeichen oder die digitale Signatur sollten gestört werden, wenn Deepfake-Techniken wie Face Swaps angewendet werden. Ein Deepfake-Detektor kann dann nur die Signatur oder das Wasserzeichen überprüfen. Dies würde jedoch die Etablierung eines Wasserzeichenstandards für alle Kameras und Mobiltelefone erfordern. Daher kann es noch eine Weile dauern, bis dies Realität wird.

Teile Mit Deinen Freunden: