Skip to content

Deepfakes: Effekt oder Manipulation?

Ein gefälschtes Video des belgischen Königs ging viral – ein eindrucksvolles Beispiel dafür, wie leicht sich Wahrheit inszenieren lässt. Die Verbraucherschutzzentrale warnt: Deepfakes machen es immer schwerer, echte von manipulierten Inhalten zu unterscheiden.

„Wenn sogar der König es sagt, muss es doch echt sein!“ – so dachten viele, als sie das Video von König Philippe >>> sahen. Nur: Der König war ein Trugbild. Das Deepfake, das sich rasant in sozialen Netzwerken verbreitete, zeigt, wie leicht Menschen heute mit einem einzigen Klick getäuscht werden können.

Inhaltsverzeichnis

Wenn KI Videos schöner macht

Künstliche Intelligenz verändert, wie Videos entstehen, wie sie nachbearbeitet werden und wie wir ihnen trauen. Bild- und Video-Enhancement bringt verblüffende Verbesserungen, gleichzeitig eröffnen Deepfakes neue Wege für Unterhaltung — aber auch für Täuschung. Es lohnt sich, das Ganze nicht nur technisch, sondern auch gesellschaftlich zu betrachten.

KI kann Videos automatisch aufpolieren: Rauschen entfernen, Farben korrigieren, Material in niedriger Auflösung hochskalieren und Bewegungen glätten. Für Künstler ist das großartig — mit wenig Aufwand sehen Clips deutlich professioneller aus. Auch historische Aufnahmen lassen sich restaurieren und neu erlebbar machen.

Beispiel: Ein verwackeltes Familienvideo aus den 90ern mit groben Artefakten wird  so aufgearbeitet, dass es heute wie in HD aussieht — Hauttöne werden geglättet, Details nachkonstruiert, und das Bild wirkt plötzlich „moderner“.

 

Deepfakes — von lustig bis Lüge

Doch diese Optimierung birgt auch Risiken. Zuschauer:innen sind sich manchmal nicht bewusst, dass ein visuell „perfektes“ Video nicht zwangsläufig wahr ist. Noch heikler wird’s bei Deepfakes. Das sind Videos, in denen Gesichter oder Stimmen so echt wirken, dass man kaum glaubt, dass sie gefälscht sind. KI kann sogar Details hinzufügen, die im Original nicht existieren. Auf YouTube gibt es harmlose Beispiele, etwa Comedy-Clips, in denen Politiker plötzlich in Filmszenen auftauchen. Aber es gibt auch die dunkle Seite: Fake-Reden von Politiker:innen, manipulierte Nachrichten oder nicht-einvernehmliche Deepfake-Pornos.

Das Problem: Mit frei verfügbarer Software lassen sich solche Videos inzwischen in kürzester Zeit erstellen. Und sie sind oft so gut, dass man sie nicht auf den ersten Blick entlarven kann. Damit sind Deepfakes ein mächtiges Werkzeug – für Unterhaltung, aber auch für Desinformation und Hetze.

Die Justiz verliert dabei ein wichtiges Beweismittel – denn wenn Videos jederzeit auch von Laien manipuliert werden können: Wer glaubt denn noch, dass sie wahr sind?

 

Wer trägt die Verantwortung?

Dann bleibt noch die Frage der Verantwortung: Sollen Plattformen wie YouTube oder TikTok stärker reguliert werden? Plattformen wie YouTube oder TikTok reagieren leider oft erst dann, wenn etwas klar gegen ihre Community-Regeln verstößt. Oft ist der Schaden dann schon passiert und das Video hat die Plattform bereits verlassen und andere Medien angesteckt.

Auch gibt es viele andere rechtlich offene Fragen: Wem gehört eigentlich ein Deepfake? Dem Gesicht, das darin auftaucht? Demjenigen, der die KI trainiert? Oder demjenigen, der das Video hochlädt?

Unabhängig davon, ob die verschiedenen Medien Regulierungen einführen – wir müssen Videos zunehmend kritischer hinterfragen (Stichwort Medienkompetenz). Das fordert konstantes Misstrauen – dauerhaft kritisch zu bleiben zehrt jedoch ungemein an den Nerven. Diese ständige Anforderung an Skepsis kann dazu führen, dass die Menschen mit Zynismus und Abstumpfung, andere mit blindem Teilen reagieren. Und jetzt der Clou daran: Wenn man ein Deepfake als „echt“ teilt – ist man dann nicht sogar selbst Teil des Problems?

 

Deepfakes erkennen

Können wir Deepfakes heute überhaupt noch erkennen? Auditive oder visuelle Hinweise, die heute noch funktionieren, können morgen schon unsichtbar sein – die Technik entwickelt sich rasant weiter. Deshalb sollte man mehrere Prüfmethoden kombinieren — am besten mindestens drei.

Kontext ist König

Was tun: Schau, wo das Video zuerst erschien, wer es gepostet hat und ob eine plausible Story dahintersteht. Oft ruft die Nachricht starke Emotionen hervor.
Beispiel: Ein Clip mit einer angeblichen Politiker-Rede taucht zuerst auf einem Kanal mit 200 Abonnenten auf und fehlt bei etablierten Nachrichten – Vorsicht.

Mehrere Quellen

Was tun: Suche nach weiteren Aufnahmen oder Berichten zum gleichen Vorfall, die von einer anderen, unabhängigen Quelle stammen.
Beispiel: Ein angebliches Unfallvideo sollte auch von lokalen Nachrichten, eventuellen Zeugen in den sozialen Medien oder anderen Kameras vorhanden sein. Findet sich nichts, ist das verdächtig.

Technische Analyse

Was tun: Metadaten auslesen, einzelne Standbilder per umgekehrter Google-Bildersuche prüfen, …

Plausibilitätsprüfung

Was tun: Stimmt Kleidung, Licht, Akustik, Jahreszeit, Sprache zur behaupteten Situation?
Beispiel: Ein Video, das angeblich im portugiesischen Sommer spielt, zeigt schneebedeckte Bäume im Hintergrund — so etwas passt nicht zusammen.

Fact-Checking

Was tun: Prüfe Recherchen von Fact-Checking-Portalen oder Hinweise in Kommentaren; suche nach Expert:innenmeinungen. Faszinierenderweise nutzen die meisten solcher Tools ebenfalls KI, um KI zu entlarven.

Bots erkennen

Was tun: Achte auf plötzliche, koordinierte Verbreitung über viele neue Accounts — das kann auf Bot-Netzwerke hinweisen.
Beispiel: Derselbe Clip wird innerhalb von Minuten von Hunderten Accounts mit gleichen Kommentaren geteilt — typisch für Verbreitung durch Bots.

Dubiose Links

Nachgucken, ob das Video auf komische Webseiten weiterleitet, die z. B. kein Impressum, ausländische Domains, viele Rechtschreibfehler, … haben? Der Fake Shop Finder der Verbraucherzentrale Deutschland ist ein nützliches Tool für Misstrauische >>>

Beispiel: Ein Video, in dem Jamie Oliver von den tollen neuen Vitaminpillen schwärmt, und dass diese exklusiv auf diesem „Onlineshop, Link in der Bio“ zu finden sind. Die Chancen stehen sehr hoch: Das ist Werbung für einen Fake Shop.

 

Melden von Deepfakes

Deepfakes können bei verschiedenen Stellen gemeldet werden. In Belgien ist Safeonweb.be >>> die erste Anlaufstelle: Dort können betrügerische oder manipulierte Videos gemeldet und Hinweise zu aktuellen Betrugsfällen eingesehen werden.

Wenn ein Deepfake zu finanziellen Verlusten oder Identitätsdiebstahl geführt hat, sollte man außerdem die lokale Polizei einschalten und Anzeige erstatten.

Taucht das Video auf sozialen Medien wie Facebook, Instagram oder YouTube auf, kann man es direkt über die jeweilige Melde- oder „Report“-Funktion als irreführenden oder betrügerischen Inhalt kennzeichnen, damit es überprüft und entfernt wird.

Mehr zu "Digitales"

Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.