Anleitung: KI-Fotos erkennen und Fakes nicht auf den Leim gehen
KI-Fotos sind eine hübsche Spielerei – und ideal für Fake-News. Wir zeigen Euch, wie Ihr KI-Fotos sicher erkennen könnt.
Künstliche Intelligenz wird immer besser – und es wird immer schwerer, echte Fotos von KI-Fotos zu unterscheiden. Allerdings sind KI-Fotos nach wie vor erkennbar: Oft, weil sie mehr oder weniger offensichtliche Bildfehler haben. Oder weil sie Unmögliches zeigen. Wir helfen Euch, KI-Fälschungen im Netz und auf Social Media zu entlarven.
KI-Bilder: Vorteile – und Gefahren
Grundsätzlich ist an KI-generierten Fotos und Bildern nichts auszusetzen: Klar, sie werden den ein oder anderen Grafiker und Fotografen ins Schwitzen bringen, doch für Menschen, die häufig Bildmaterial zur Veranschaulichung brauchen – etwa für Powerpoints oder in Artikeln wie diesem hier – können sie ein wahrer Segen sein. Weniger segnungsreich sind sie, wenn sie Fake-News unterstützen oder sich als "Fake-Meme" in den Hinterkopf schleichen.
Noch unangenehmer werden sie, wenn sie Personen des öffentlichen Lebens – oder auch nur "normale" Menschen – als Ziel haben, ganze Gruppen diskriminieren oder gar Sachverhalte falsch darstellen. Der Laie kann zwischen Realität und KI kaum unterscheiden, etwas der Message bleibt auch bei flüchtigem Vorbeiscrollen hängen. Damit unterscheiden sie sich übrigens nur wenig von "echten" Fake-Bildern, also klassischen Montagen oder Bildern im manipulativen Kontext, Bildausschnitt oder Blickwinkel.
KI-Bilder erkennen: Es gibt verschiedene Möglichkeiten
Doch wie könnt Ihr als Nutzer sicherstellen, dass Ihr kein KI-Foto vorliegen habt? Dazu ist es wichtig, sie von echtem Bildmaterial unterscheiden zu können. Einfacher wird das nicht: Bereits jetzt haben Tools wie Midjourney eine Perfektion erreicht, die das Erkennen sehr schwierig machen.
Trotzdem gibt es nach wie vor verschiedene Möglichkeiten, die in aller Regel sehr deutlich "KI-Bild!" schreien – aber auch einfach schlechtes Photoshop sein können. Doch in beiden Fällen wisst Ihr auf jeden Fall, dass Ihr manipuliertes Material betrachtet.
1. Kontext und Quelle hinterfragen
Der wohl allerwichtigste "Cheat" zur Erkennung von KI-Bildern und klassischen manipulierten Fotos ist die Überprüfung von Motiv und Quelle. Die ersten Fragen, die Ihr Euch immer stellen solltet, sind daher:
- Woher stammt das Foto?
- Was zeigt das Foto?
- Ergibt es im genannten Zusammenhang Sinn?
- Wie plausibel ist es, dass das, was das Foto zeigt, tatsächlich passiert ist?
- Welche Nebendetails deuten auf Manipulation oder KI hin?
- Gibt es weitere Quellen im Netz (etwa: Googles Revers-Bildersuche)?
Hochwertige Quellen sind normalerweise: Echte Fotografen, große, bekannte Medien wie die Öffentlich-Rechtlichen, der SPIEGEL oder sogar die BILD-Zeitung: Die richten sich nach dem Pressekodex und manipulieren (Sarkasmus) bestenfalls über Themen-, Bildauswahl und Bildausschnitt (Sarkasmus Ende), nicht jedoch mit KI und Photoshop oder falschem Kontext.
Ganz besonders miese Quellen sind: Alle Social-Media-Angebote, etwa Reddit, X, TikTok oder Instagram. Und alle Sachen die Onkel Horst per Telegram oder WhatsApp in die Familengruppe schickt.
2. Die KI lässt das Foto künstlich wirken
Wenn ein Foto aussieht, wie gemalt, stehen die Chancen gut, dass es von KI erzeugt wurde. Foto-KIs neigen dazu, Farben und Kontraste unnatürlich darzustellen, wodurch selbst "Fotos" oft aussehen wie gemalte Bilder oder extrem nachbearbeitete Fotos. In solchen Fällen muss zwar nicht zwangsläufig eine KI am Werk gewesen sein, Ihr solltet aber schon beim kleinsten Verdacht genauer hinschauen und auf die Details achten. So wie bei dieser jungen Dame hier:
Was auf den ersten Blick wie ein typisches Sinnspruch-Poster aus der Teenie-Abteilung eines T-Shirt-Ladens aussieht, entpuppt sich bei genauerem Hinschauen als KI: Das Bild ist völlig überzeichnet, die Straße sie aus wie gemalt, Details verwaschen, Schilder mit Nonsense-Kauderwelsch.
3. Die KI vergeigt Gesichter und die guten, alten Extremitäten
Ja, Künstliche Intelligenz wird immer besser darin, realistische Fotos zu zeichnen. Bei Händen und Füßen (und manchmal auch Armen und Beinen) scheinen die Möglichkeiten in den Trainingsdaten aber so gigantisch zu sein, dass die Mustererkennung versagt. Das Resultat sind bizarre Fehlbildungen der Personen im Motiv: Finger, Zehen, Knie und Ellbogen stehen im absurden Winkel, sind überzählig oder fehlen.
Und auch bei Gesichtern, insbesondere von Nebenpersonen, kann sich die KI ordentlich vertun: Statt lachenden Gesichtern liefert sie Fratzen wie aus einem Horrorfilm.
Achtet deshalb immer auf diese Details: Ein sechster Finger im Bild kann natürlich auch eine echte Fehlbildung einer echten Person sein, ein krummer Arm oder eine augenscheinliche Fratze auch eine fotografische Verwacklung. Dass alles gleichzeitig auftritt, wie in KI-Fotos, ist aber relativ unwahrscheinlich. Wie in diesem "Foto" hier:
4. Technische Geräte im Bild sind Fantasie
Doch nicht nur Hände, Gesichter und Details vermurksen die KI-Tools: Bei all unseren Tests mit KI-Bildern ist uns aufgefallen, wie unfassbar schlecht die Künstliche Intelligenz technisches Gerät darstellt. Sicher, hier muss man einen Blick für haben, aber wenn Ihr es einmal seht, wisst Ihr, wonach Ihr suchen müsst. KI-Bildgeneratoren fantasiert technisches Gerät dabei regelrecht zusammen, und das so gut wie immer.
Auf den ersten Blick korrekte Details technischer Geräte entpuppen sich auf den zweiten Blick als falsch oder absurd: Der Abstand zwischen den Rädern zu groß, die Proportionen verzerrt, verwaschene Markenlogos, Geräte, die es in der Form nicht gibt oder nie gab. Geräte mit offensichtlicher Funktion – etwa ein Satz Zahnräder an einer Wassermühle oder in einem Uhrwerk – ergeben als KI-Bild mit ziemlicher Sicherheit keinen Sinn.
Achtet deshalb auf Fahrzeuge, Kameras, Smartphones, Computer, Bildschirme, Uhren, Schalter und ähnliche Elektronik im Bild: Entweder, die KI verdaddelt die Geräte komplett – oder sie sind absichtlich so neutral gehalten, dass sie dadurch ins Auge springen. Wie zum Beispiel die Kamera im folgenden Bild. Übrigens: Sogar Simpel-Technik wie Skateboards bekommen die Generativen KI-Modelle selten korrekt hin.
5. Die KI zeichnet Nebendetails falsch
Falls Bildeindruck, Fingerzahl und technisches Gerät Euch korrekt erscheint sind, solltet Ihr einen Blick auf den Hintergrund und nebensächliche Bilddetails werfen. KI-generierte Bilder haben oft unscharfe oder unlogische Hintergründe oder ergeben insgesamt keinen Sinn.
Fehlende oder überzählige Schatten, Tischbeine, die mal rund, mal eckig sind oder viel zu große Weihnachtskugeln. Auch inkonsistente Lichtquellen können ein Indiz sein. Oder wie in diesem Fall ein absolut bizarres Schachbrett. Neben der Tatsache, dass Holzpuppen nicht Schach spielen. Mit Krokodilen. Die sitzen. Ach, KI...
6. Unnatürliche Texturen
KI-Algorithmen haben oft Schwierigkeiten, natürliche Texturen realistisch darzustellen. Das kann sich in unnatürlich aussehenden Haaren, Haut oder anderen Oberflächen – etwa Holz – zeigen. Bei glatten Oberflächen wie Glas oder Lack trifft die KI recht gut, Holzmaserungen und Hauttöne passen nicht immer.
Achtet auf Bereiche, die zu glatt oder zu künstlich wirken. Besonders bei Haut, Haaren und Fell kann die KI deutliche Schwierigkeiten haben, die feinen Details korrekt darzustellen: Gesichter wirken wie aus Plastik oder nach heftiger Photoshop-Bearbeitung, Haare verschwimmen, Oberflächen aus Holz wirken wie gebügelt und so weiter.
7. Lichtquellen, Schatten, Spiegelungen und Reflektionen überprüfen
In der realen Welt kommt das Licht normalerweise aus einer oder mehreren konsistenten Quellen. Bei KI-generierten Bildern kann es jedoch vorkommen, dass die Lichtquellen inkonsistent oder fast chaotisch sind. Oft sind auch Bereiche gut erkennbar, die selbst in einem nachbearbeiteten Foto im Schatten verschwinden würden.
Schaut Euch die Schatten und Lichtreflexionen deshalb genau an. Auch bei Spiegelungen tut sich die KI schwer: Chrom-Stoßstangen eines Oldtimers etwa spiegeln immer ein wenig von der Umgebung – die KI wird das mit ziemlicher Sicherheit falsch oder unpassen darstellen, wenn überhaupt. Wenn sie nicht logisch erscheinen oder aus verschiedenen Richtungen kommen, könnte das Bild von einer KI erzeugt worden sein.
Fazit: Skeptisch bleiben, dann kann nichts passieren
Zusammengefasst gibt es derzeit noch jede Menge Möglichkeiten, KI-Fotos als das zu entlarven, was sie sind: Eine hübsche Spielerei, die jedoch das Potential hat, die Welt zu verändern. Die Technik entwickelt sich laufend weiter, weshalb die Fehler nach und nach weniger werden dürften. Während das hier im Artikel verwendete Dall-E3 noch jede Menge Probleme hat, sieht das zum Beispiel bei Midjourney schon anders aus.
Doch selbst ohne technische Fehler sind Quelle, Inhalt und Kontext immer eine sichere Möglichkeit, gefälschte oder in den falschen Zusammenhang gesetzte Fotos zu erkennen. Dabei ist es ganz egal, ob sie von KI manipuliert oder mit klassischen Methoden gefälscht wurden: Wichtig ist ein gesundes Maß an Skepsis, ein guter Blick für Details – und natürlich das Wissen, dass jedes Foto eine Fälschung sein könnte.