A split-screen image with a holiday photo on the left and a blurred background on the right. On the left, there are three people sitting on the beach, with one person being erased. The person with a red circle around their head is the one being erased. The background contains a clear blue sky and palm trees. On the right side, we see the picture of a blonde female politician, with her face blurred and a speech bubble saying "Ich lehne Deep Fakes ab". Behind her, we see a light blue background with a red arrow.

KI in Bild und Video: Zwischen kreativer Spielerei und gefährlichen Deepfakes #9vor9

Faszinierend, was man mit KI-Lösungen heute mit Bildern und Videos machen kann. Schnell ist über entsprechende Prompts, mit denen man MidJourney, Firefly oder ideogram.ai füttert, ein komplett neues fotorealistisches Bild generiert. Schnell kann heutzutage aus einem Foto Bildelemente oder Personen einfach mal so verschwinden lassen. Und man schaut auf einem Urlaubsbild zu böse? Auch das kann man schnell in ein Lächeln verwandeln. Ist doch alles super. Oder? Darüber sprechen Lars und ich bei .

Natürlich ist nicht alles super, denn genau die oben beschriebenen Möglichkeiten stellen auch eine ernsthafte Bedrohung dar. Marc-Uwe Kling hat das Horrorbild in seinem Thriller Views auf die Spitze getrieben. Ein komplett künstlich erzeugtes Video einer Vergewaltigung einer deutschen Frau durch durchaus migrantisch aussehende Männer führt in dem Buch zu Gewalt und Terror. Hoffentlich nur eine Dystopie, eine erschreckende Zukunftsvision.

Auch wenn es so weit noch nicht gekommen ist, sind die sogenannten Deepfakes überall um uns herum. Es gab einen 3000%-Anstieg der Deepfake-Verbreitungsversuche auf Social Media seit 2022. Dieser Trend setzte sich fort mit einem weiteren +3000%-Anstieg im Jahr 2023 gegenüber 2022. Die durchschnittliche Zeit, bis ein neuer Deepfake 10.000 Views erreicht, beträgt nur 78 Sekunden. Im Bereich politischer Inhalte enthalten 52% aller viralen Inhalte KI-manipulierte Elemente, wird in diesem Beitrag berichtet. Das führt auch direkt zu einem Vertrauensverlust in digitale Medien.

Der Schweizer Journalist Michael Schüssler bezeichnet Facebook als KI-Misthaufen. In Metas sozialem Medium stammt gefühlt jedes zweite Bild inzwischen von der künstlichen Intelligenz. Wirklich nervig ist jedoch, dass die Fakes allesamt als echt ausgegeben werden. Ist doch alles nicht sooo schlimm? Doch, Tausende Pornovideos sind unterwegs, in denen der Kopf von Prominenten einmontiert wurde. Ein AI-generiertes Video, das den Bundeskanzler Olaf Scholz zeigt, wie er angeblich die Absicht ankündigt, die AfD zu verbieten, wurde von der Kunstgruppe „Zentrum für politische Schönheit“ verbreitet. Kurz vor der Bundestagswahl 2025 verbreiteten russische Akteure gefälschte Videos, die vorgaben, Wahlzettel der AfD würden fehlen oder zerrissen. Rund um den Gaza-Konflikt wurden eine Vielzahl gefälschter Videos verbreitet.

Solche Beispiele gibt es zuhauf und es werden immer mehr. Bilder, Videos und Sprache können heute mit Hilfe künstlicher Intelligenzen immer besser verändert, manipuliert oder sogar gefälscht werden. Fehler, sogenannte Glitches*, sind kaum noch zu erkennen oder nicht mehr vorhanden. Darüber müssen wir uns alle im Klaren sein. Natürlich wird an vielen Stellen über Gegenmaßnahmen diskutiert. So sollen Echtzeit-Erkennungssysteme mit hoher Genauigkeit Fakes entlarven und die EU plant ab 2026 eine Kennzeichnungspflicht für KI-generierte Inhalte.

Tipps & Tricks vom BSI (Bundesamt für Sicherheit in der Informationstechnik), wie man Fälschungen erkennt: Deepfakes – Gefahren und Gegenmaßnahmen

Doch machen wir uns nichts vor: Es wird immer Schlupflöcher geben. Genau deshalb ist die eigene Aufmerksamkeit, das Misstrauen gegenüber komischen und eher dubiosen Inhalten immer wieder gefragt. Wir müssen alle unsere Medienkompetenz aufbauen und insbesondere Informationen, die aus den sozialen Medien oder aus YouTube stammen, erst einmal hinterfragen.

Wo kann (und sollte) ich gefälschte Videos und Bilder melden.

Aber natürlich macht es auch Spaß, mit den Tools Videos, Bilder, Sprache oder auch Texte zu generieren. Nur sollte man unbedingt darauf achten, diese als mit KI-generiert zu kennzeichnen, wenn man sie auf sozialen Medien oder hier im Blog veröffentlicht. Die Titelbilder meiner Beiträge sind offensichtlich künstlich generiert (und ich weise in meinem Impressum darauf hin, dass ich KI nutze, um Texte zu analysieren, mir zusammenzulassen und mehr).

Unterdessen gibt es Werkzeuge zuhauf, mit denen man beispielsweise einfach mal ein Gesicht austauschen kann. So könnte ich mal schnell Angie statt meine Kollegin Beate in den Arm nehmen. (Unsere Gesichter habe ich mal verpixelt.
Unterdessen gibt es Werkzeuge zuhauf, mit denen man beispielsweise einfach mal ein Gesicht austauschen kann. So könnte ich mal schnell Angie statt meine Kollegin Beate in den Arm nehmen. (Unsere Gesichter habe ich mal verpixelt.

Ich publiziere natürlich keine manipulierten, „echten“ Bilder oder lasse solche Bilder oder Videos von Personen generieren. Wenn, dann würde ich sie kennzeichnen. Auch vermeide ich es ganz bewusst, Bilder meiner Frau oder von mir in sozialen Medien zu veröffentlichen. Man kann sehr viel Spaß haben, gerade im Bereich Bildbearbeitung oder Videoerstellung. Und ja, wir müssen uns damit beschäftigen, um Kompetenz aufzubauen. Aber wir müssen alle unbedingt darauf achten, dies mit Verstand zu tun und potenzielle Manipulationen vermeiden. Dies ist gerade jetzt extrem wichtig.

Die Reise der KI in der Sprach-, Bild- und Videobearbeitung hat gerade erst begonnen. Zwischen faszinierenden Möglichkeiten und beunruhigenden Gefahren liegt eine Zukunft, in der unsere Fähigkeit, zwischen Realität und Fiktion zu unterscheiden, mehr denn je gefordert sein wird.

Das Titelbild ist hoffentlich ganz offensichtlich mit einer KI (in diesem Fall ideogram.ai) nach meinen Anweisungen generiert. Diesmal stammt der Prompt (die Anweisung) auch komplett von mir und wurde mir nicht von der KI perplexity.ai aufgrund der Analyse meines Textes oder des Skripts erstellt.

* Sogenannte „Glitches“ in gefälschten Bildern und Videos sind visuelle Anomalien oder Unregelmäßigkeiten, die auf eine digitale Manipulation hindeuten können. Diese Fehler entstehen oft durch Ungenauigkeiten im Fälschungsprozess und können ein Indiz dafür sein, dass ein Bild oder Video nicht authentisch ist.

Zu den typischen Glitches in Deepfakes gehören ruckartige Bewegungen, plötzliche Veränderungen der Beleuchtung oder Hautfarbe, unnatürliches Blinzeln und fehlende Synchronität zwischen Lippenbewegungen und Sprache. Auch digitale Artefakte im Bild können auf eine Fälschung hinweisen. Allerdings werden die Fälschungstechniken stetig verbessert, sodass diese Glitches immer schwieriger zu erkennen sind und zunehmend spezialisierte Erkennungssoftware erforderlich wird. Siehe den Link zum BSI.

Wo kann (und sollte) ich gefälschte Videos und Bilder melden.

In Deutschland gibt es mehrere Möglichkeiten, gefälschte Videos und Bilder (Deepfakes) zu melden:

1. Zentrale Meldestelle für strafbare Inhalte im Internet (ZMI) des Bundeskriminalamts (BKA): Diese Stelle ist seit Februar 2022 in Betrieb und nimmt Meldungen zu strafbaren Inhalten im Internet entgegen, einschließlich Deepfakes.

2. Polizei: Bei Verdacht auf eine strafbare Handlung können Sie Anzeige bei der Polizei erstatten. Dies ist bei jeder Polizeiwache oder online möglich.

3. Plattformen: Melden Sie gefälschte Inhalte direkt bei den Plattformen, auf denen sie veröffentlicht wurden.

4. Trusted Flagger: Diese speziellen Meldestellen, wie z.B. „Respect“, prüfen gemeldete Inhalte und leiten sie gegebenenfalls an das BKA weiter.

5. HateAid: Diese Organisation unterstützt Betroffene von digitaler Gewalt, einschließlich Deepfake-Pornografie, und setzt sich für besseren Schutz ein.

Bei der Meldung ist es wichtig, möglichst viele Beweise zu sammeln, wie Screenshots, Links und andere relevante Informationen. In schwerwiegenden Fällen oder bei Unsicherheit ist es ratsam, rechtliche Beratung in Anspruch zu nehmen.


by

Tags:

Comments

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Regelmäßig informiert bleiben?
StefanPfeiffer.Blog

Jetzt abonnieren, um informiert zu bleiben und alle Beiträge im Zugriff zu haben.

Fortfahren