Künstliche Intelligenz

KI-Bilder erkennen und von echten Fotos unterscheiden

KI-Bilder erkennen wird immer schwieriger. Zum Glück gibt es (noch) eine Reihe von Indizien, die ein KI-Bild sicher entlarven.

Mit dem Fortschritt der KI-Technologie werden auch immer realistischere Bilder von KI-Systemen generiert. Inzwischen ist es erstaunlich schwierig, die Bilder von echten Fotos zu unterscheiden. Gerade im Hinblick auf zeitgeschichtliche Fotos ergibt sich bei Diensten wie Midjourney, Dall-E2 und Co. natürlich erhebliches Fake-News-Potential.

Gerade in sozialen Netzwerken und auf kleinen Smartphone-Bildschirmen ist es natürlich schwierig, solche KI-generierten Fotos zu erkennen: Sie sind oft klein, nicht selten besonders spektakulär oder gar schockierend – und daher schnell geteilt und verbreitet.

Euren Augen könnt Ihr deshalb nicht mehr trauen: Das Foto als Dokument des Geschehens hat inzwischen ausgedient und es ist durchaus wahrscheinlich, dass Ihr demnächst einem KI-Fake auf den Leim gehen werdet. Um das zu vermeiden, solltet Ihr die folgenden Dinge achten, die auf KI-Bilder hindeuten. Sie werden meist ersichtlich, wenn Ihr Euch die Bilder genauer betrachtet.

KI-Bilder erkennen: Unmögliche Motive auf einem Foto

Das wohl wichtigste Erkennungswerkzeug zur Identifizierung eines KI-Bildes ist der gesunde Menschenverstand. Ja, damit ist es heutzutage nicht mehr weit her, allerdings ergibt sich aus dem Motiv selbst oft schnell, dass es sich um ein KI-Foto handelt. So kursierte verschiedene Bilder von Papst Franziskus in voller Rapper-Kluft, mit Riesen-Daunenjacke, rennend, behangen mit Goldketten wie ein 90s-Hinterhof-Pimp.

Eine Schnecke, die das Maul aufreißt: Stoff für Albträume – und in echt unmöglich. (Christian Rentrop/Dall-E2)

Natürlich war keines davon echt, und das war auch recht eindeutig: Der Papst ist ein älterer Herr in einem würdevollen Amt, er wird wohl kaum rennen. Er ist der Papst, wird also ganz bestimmt keine Rapper-Kettchen tragen und mit zwielichtigen Gestalten in dunklen Räumen herumhängen oder gar in die Kamera grüßen. Schwieriger fand ich persönlich das dritte Motiv: Eine Seitenaufnahme des Papstes in der dicken Daunenjacke. Dem Motiv gingen sogar Medien auf den Leim. Allerdings gab es auch hier eindeutige Zeichen.

Falsche Proportionen sind KI-gemacht

Im Fall des Papst-Bildes war die Arbeit der KI erkennbar: Die Rechte Hand des vermeintlichen Daunenjacken-Papstes war bei genauerer Betrachtung „nicht richtig“: sie erschien zu klein. Auch die Länge der Arme scheint nicht so richtig zum Rest zu passen.

Zur Ehrenrettung aller, die gefoppt wurden, sei gesagt: Hier muss man schon genau hinsehen – und sich auf sein Bauchgefühl verlassen, um das Fake zu erkennen. Und selbst dann bleibt ein Rest Zweifel: Durchaus möglich, dass jemand aus dem Vatikan den über 80 Jahre alten Franziskus bei einem Außentermin in eine Daunenjacke packt – es war ein kalter Winter.

Der Herr Russenführer tanzt in Galauniform. Einzig: Proportionen stimmen nicht, wenn man genau hinschaut (Boris Hofferbert/Midjourney)

Dennoch verrät dieser Hinweis, worauf es ankommt: KI-Bildgeneratoren sind geniale Werkzeuge, aber eben nicht intelligent. Das bedeutet: Sie haben – anders als ein menschlicher Maler – (noch) keine Vorstellung des Konzepts „Mensch in einer Daunenjacke“. Vielmehr greifen sie auf riesige Datensätze zu und nehmen Bekanntes, um Neues zu generieren. Dabei passieren Fehler – und die könnt Ihr mit scharfem Blick sehen.

Seltsame Gliedmaßen entlarven KI-Bilder

Ein dementsprechend sehr häufig auftretender Fehler von KI-Bildern sind daher unmögliche Gliedmaßen: Finger, Hände und Arme in absurden Winkeln, zu viele oder zu wenige Gliedmaßen, insbesondere fehlende oder überzählige Finger (wobei auch hier das fehlende Verständnis der KI für das Konzept „Mensch“ erkennbar ist). Aber auch: Gliedmaßen, die im Nichts enden, etwa Arme, die hinter einem Objekt verschwinden, aber deren Ende nirgendwo auftaucht.

Die Bilderserie sieht realistisch aus, doch wenn Ihr auf die vermurksten Hände schaut, seht Ihr, das KI am Werk war (Boris Hofferbert/Midjourney)

Finger- und Zehennägel sind ein weiterer Hinweis: Auch hier versagen KIs nicht selten, da ihnen der Sinn für das (Un-)Übliche fehlt, sprich: Sie generieren unpassende, fehlende oder unpassend gepflegte oder ungepflegte Nägel zum jeweiligen Motiv. Ein Obdachloser mit manikürten Fingern ist ebenso unwahrscheinlich wie ein Top-Model mit brüchigen Daumennägeln. Abgesehen davon, dass man die betreffende Person in diesem Fall ja kennen sollte.

Beschriftungen: Kann KI (noch) nicht

Wenn Ihr wissen wollt, ob eine KI am Werk war, ist es übrigens sehr hilfreich, auf Schriftzüge im Bild zu achten: Auf echten Fotos sind – natürlich – echte Schriftzüge zu sehen, sprich: Braune Zuckerbrause heißt braune Zuckerbrause, auf einem Polizeiauto steht „Polizei“ oder „Police“ und natürlich zeigen Straßenschilder auf echte Orte hin. Wenn die Schrift extrem unleserlich bis hin zur Abstraktion ist oder es einfach Pixelmatsch gibt und schriftbasierte Logos – etwa verschiedener Süßgetränkemarken – dementsprechend nicht korrekt aussehen oder völlig unleserlich sind, stehen die Chancen gut, dass das Bild KI-generiert ist.

Äh… was? Und warum hat der Adler einen Kolibri-Kopf? (Christian Rentrop/Midjourney)

Aber Vorsicht: Umgekehrt können solche Elemente natürlich recht einfach im KI-Bild per Photoshop von Menschenhand korrigiert werden und dadurch die „Echtheit“ verbessern: Das Vorhandensein korrekter Schriften bedeutet also nicht, dass ein Bild automatisch echt sein muss!

Schlecht bei KI-Bildern: Licht, Schatten und natürliche Oberflächen

Da KI-Systeme anhand vieler Millionen Bilder aus verschiedenen Quellen lernen, sind sie in aller Regel in der Lage, Motive sehr realistisch darzustellen und sogar die Belichtung korrekt zu gestalten. Allerdings tun sich KI-Systeme schwer mit Reflektionen, Schattenwürfen und ähnlichen Dingen.

Auf den ersten Blick nicht schlecht, aber an der Oberfläche der Zitrone scheitert die KI. Und schaut Euch mal die Schatten an: Sie passen nicht wirklich zu den Objekten. (Christian Rentrop/Dall-E2)

Hinzu kommt, dass schattige Bereiche in Bildern oft seltsam künstlich und „überausgeleuchtet“ wirken, wie HDR-Bilder. Pressefotografen etwa verwenden diese Technik üblicherweise nicht. Ohnehin solltet Ihr Euch den Schattenwurf genauer anschauen: Er passt oft nicht zur (vermuteten) Lichtquelle im Motiv. Wie bei den anderen Faktoren gilt: Es gibt KI-Bilder, die diese Phänomene nicht aufweisen – aber das Vorhandensein entsprechender Merkmale deutet auf ein KI-Bild hin.

KI-Bilder entlarven: Der gute, alte Faktencheck

Womit wir beim wohl wichtigsten Punkt wären: Dem guten, alten Faktencheck. Ihr müsst dafür nicht tiefer recherchieren, vielmehr solltet Ihr zunächst prüfen, woher das Bild stammt und wer es verbreitet. In aller Regel ist anhand der Quelle schon eine Intention (und damit ein Wunsch nach Verbreitung von Falschmeldungen) erkennbar. Besonders die politischen Ränder und Aktivisten sind hier sehr aktiv, links wie rechts.

Erinnert Ihr Euch an den Großbrand des Kölner Doms neulich? Eben: Nie passiert. Abgesehen davon stimmen die Details der Kathedrale auch nicht. (Boris Hofferbert/Midjourney)

Mit Googles Reverse-Bildersuche könnt Ihr zudem prüfen, wo das Bild noch auftaucht und wo es gegebenenfalls ursprünglich erschien. Wenn es zuerst in Social Media oder Diensten wie Reddit aufgetaucht ist, könnt Ihr davon ausgehen, dass es sich um ein Fake und keine professionelle Aufnahme eines echten Fotografen handelt: Die verkaufen ihre Werke, sofern sie Brisanz haben, in aller Regel an Bildagenturen, die sie wiederum der Presse verkaufen.

Sprich: Echte, handgemachte Fotos tauchen normalerweise in (Online-)Zeitungen zuerst auf, die das Bild zudem in einen Kontext setzen: Der Papst in Daunenjacke? Ein Fake, das als solches schnell entlarvt wurde, unter anderem auch, weil es nicht, wie anderer Bilder von A-Promis, aus einer Bildagentur stammte, sondern irgendwo aus den Tiefen von Social Media.

KI-Bilder erkennen wird immer schwieriger

Am Ende des Tages wird Euch künftig wahrscheinlich vor allem der Plausibilitäts- und Faktencheck retten: Wie Plausibel ist es, dass das Ereignis in dieser Form stattgefunden hat? Und woher stammt das Foto? Denn die KI-Systeme lernen schnell: Allein die Fortschritte, die die Dienste in den vergangenen 12 Monaten gemacht haben, sind beängstigend!

Algorithmen werden perfektioniert, das „Verständnis“ der KI immer weiter verbessert, kurzum: Die technische Perfektion der Fake-Bilder wird in nicht all zu ferner Zukunft erreicht sein. Dann gibt es keine Hinweise wie abgeschrittene Gliedmaßen oder Extrafinger mehr. Und Ihr seid auf Euren gesunden Menschenverstand angewiesen. In diesen Zeiten ist es ohnehin nicht so verkehrt, diesen auch einzusetzen.

Christian Rentrop

Diplom-Journalist, Baujahr 1979. Erste Gehversuche 1986 am Schneider CPC. 1997 ging es online. Seither als Schreiberling in Totholzwäldern und auf digitalen Highways unterwegs. Öfter auch auf der Vespa oder mit dem Wohnwagen unterwegs. Seit 2020 Tochtervater, dementsprechend immer sehr froh über eine kleine Kaffeespende.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Schaltfläche "Zurück zum Anfang"
Schließen

Ooopsi!

Bitte deaktiviere Deinen Adblocker.
> <script type='text/javascript'> !function(t){