Die Bedrohung durch KI-generierte Bilder im Kontext von Fake News, besser bekannt als Deepfakes, ist seit Jahren ein Thema in der öffentlichen Diskussion. Bis vor kurzem war es jedoch relativ einfach, ein KI-generiertes Bild von einem echten Foto zu unterscheiden. Doch diese Zeiten sind vorbei. Am vergangenen Wochenende ging ein KI-generiertes Bild von Papst Franziskus in einer Balenciaga-Daunenjacke viral und führte viele Internetnutzer in die Irre.
Die rasante Entwicklung der KI-generierten Bilder
In nur wenigen Monaten haben öffentlich zugängliche KI-Tools zur Bildgenerierung einen Grad an Fotorealität erreicht, der beeindruckend ist. Obwohl das Bild des Papstes einige verräterische Anzeichen einer Fälschung aufwies, war es überzeugend genug, um viele zu täuschen. Dieses Ereignis könnte als die erste wirklich virale Desinformation in die Geschichte eingehen, die durch Deepfake-Technologie angetrieben wurde.
Die Gefahren von Deepfakes
Opfer von Deepfakes, insbesondere Frauen, die Opfer von nicht einvernehmlicher Deepfake-Pornografie geworden sind, warnen seit Jahren vor den Risiken dieser Technologie. In den letzten Monaten sind Bildgenerierungstools noch zugänglicher und leistungsfähiger geworden, was zu qualitativ hochwertigeren gefälschten Bildern geführt hat. Mit dem raschen Fortschritt der künstlichen Intelligenz wird es noch schwieriger, echte von gefälschten Bildern zu unterscheiden. Dies könnte erhebliche Auswirkungen auf die Anfälligkeit der Öffentlichkeit für ausländische Einflussnahme, gezielte Belästigung und das Vertrauen in Nachrichten haben.
Wie lassen sich KI-generierte Bilder und Deepfakes erkennen?
Es gibt einige Tipps, wie Sie KI-generierte Bilder und Deepfakes erkennen können:
- Trügerische Details: Betrachtet man das Bild des Balenciaga-Papstes aus der Nähe, lassen sich einige verräterische Hinweise auf seine Herkunft aus der KI erkennen. Das Kreuz, das scheinbar ohne Kette in der Luft hängt, oder die Kaffeetasse, die ohne erkennbaren Henkel in seiner Hand steht, sind solche Hinweise.
- Unnatürliche Physik: KI-Generatoren verstehen oft nicht, wie Objekte in der realen Welt interagieren. Unlogische Elemente wie schwebende Objekte oder ungewöhnlich geformte Körperteile können ein Indikator für KI-Generierung sein.
- Detailgenauigkeit: KI-Bildgeneratoren sind im Wesentlichen Musterreplikatoren. Sie haben gelernt, wie der Papst aussieht und wie eine Daunenjacke von Balenciaga aussehen könnte, und können beides erstaunlich gut kombinieren. Aber die Gesetze der Physik verstehen sie (noch) nicht. So wird der scheinbar schwebende Kreuzanhänger oder die unlogische Verschmelzung von Brillengläsern und deren Schatten zum verräterischen Detail.
- Fehlende Logik: In den Randbereichen eines Bildes können Menschen intuitiv Unstimmigkeiten erkennen, die KI nicht versteht. Diese Unstimmigkeiten können ein Hinweis auf eine KI-Generierung sein.
- Technische Grenzen: KI-Generatoren haben Schwierigkeiten, komplexe und detaillierte Szenen fehlerfrei zu reproduzieren. Achten Sie auf Anomalien in Texturen oder ungewöhnliche Muster.
- Inkonsistente Beleuchtung: Beleuchtung und Schatten sind für KI-Generatoren oft schwierig korrekt darzustellen. Achten Sie auf inkonsistente Lichtquellen, unstimmige Reflexionen in den Pupillen oder unnatürlich wirkende Schatten.
- Unnatürliche Proportionen: KI-Generatoren können Schwierigkeiten haben, die richtigen Proportionen von Gesichtern oder Körpern zu reproduzieren. Achten Sie auf ungewöhnliche oder verzerrte Proportionen als Hinweis auf eine KI-Erstellung.
Wie wir uns in Zukunft nicht durch Deepfakes täuschen lassen
Im Moment sind Medienkompetenztechniken vielleicht Ihre beste Möglichkeit, um mit KI-generierten Bildern Schritt zu halten. Fragen Sie sich: Woher kommt dieses Bild? Wer teilt es und warum? Wird es durch andere verlässliche Informationen widerlegt?
Suchmaschinen wie Google bieten ein Tool für die umgekehrte Bildsuche an, mit dem Sie überprüfen können, wo ein Bild bereits im Internet geteilt wurde und was darüber gesagt wird. Dieses Tool kann Ihnen dabei helfen herauszufinden, ob Experten oder vertrauenswürdige Publikationen ein Bild als Fälschung eingestuft haben.
Dieser Artikel ist ein Auszug aus dem Buch KI für Content Creation von Alexander Loth. Alle Infos zum Buch und eine kostenlose Leseprobe findet ihr bei Amazon.
Diskutieren Sie mit auf LinkedIn, wie man Deepfakes erkennt und was das für unsere digitale Zukunft bedeutet:
„KI-generierte Bilder Erkennen: Wie man Deepfakes wie den Balenciaga-Papst Identifiziert“ weiterlesen