Künstliche IntelligenzMeinung

Das war’s: Ihr könnt keinem Video im Internet mehr vertrauen!

KI-Videos haben ein Qualitätsniveau erreicht, das es fast unmöglich macht, sie von echtem Content zu unterscheiden. Passt auf Euch auf!

Ist das Video KI oder menschengemacht? Echt oder Fake-News? Schon in letzter Zeit wurde es wird zusehends schwieriger, KI-Slop und künstlich generierte Fälschungen von echten, authentischen Inhalten zu unterscheiden. Das ist jetzt vorbei: Sora 2 von OpenAI, den Machern von ChatGPT, hat ein Qualitätsniveau erreicht, das nicht mehr von echten Inhalten zu unterscheiden ist. Ab sofort müssen wir jedes Video unter Fake-Generalverdacht stellen...

... und es so lange als Fake sehen, bis wir sicher sein können, dass es echt ist. Für alle Videos, die bei Social Media, Youtube, TikTok, Instagram, WhatsApp und Co. findet und die nach dem 30. September 2025, dem Sora-2-Release, hochgeladen wurden gilt ganz besondere Vorsicht: Glaubt nichts mehr! Es handelt sich im Zweifel eine KI-Fälschung!

Damit geht auch Video-Content den Weg der Text- und Fotoinhalte: KI-Videos, der Ton wird gleich mit generiert, sind von menschlichen Werken auf den ersten (und zweiten) Blick nicht mehr zu unterscheiden.

Perfiderweise hat die KI inzwischen nicht nur begriffen, wie Kamerafahrten und Physik funktionieren, sondern gibt auch korrekte Belichtung und die richtige Finger-Anzahl aus. Die Objekt-Konsistenz ist ebenfalls deutlich besser geworden – und das Netz wird seither regelrecht mit Fake-Videos geflutet.

Gut: Die von Sora 2 generierten Schnipsel sind nach wie vor relativ kurz. Das liegt daran, dass die Wahrscheinlichkeit, dass logische oder inhaltliche Fehler passieren, mit der Länge der KI-Videos deutlich wächst. Und nach wie vor greifen natürlich einige der althergebrachten Methoden zur schnellen Erkennung. Andere sind jedoch obsolet:

  • Ein allgemein überfärbter, künstlicher Look: Starke Kontraste, sehr glatte Haut, Personen und Dinge wirken wie gemalt.
  • Auf Details wie Finger oder Füße oder Beschriftungen sind falsch: Finger fehlen oder sind überzählig oder tauchen wie aus dem Nichts auf und verschwinden.
  • Schriften im Video, besonders im Hintergrund, ergeben keinen Sinn oder sind bizarr verformt.
  • Firmennamen sehen zwar authentisch aus, die Schrift im Logo ist jedoch falsch.
  • Im Video geschehen in der Realität unmögliche Dinge: Jemand isst durch die Ohren, Dinge verschwinden oder tauchen wie aus dem Nichts auf, Objekte und Personen verformen sich in Windeseile bizarr.

Derzeit (Stand 13.10.2025) ist Sora 2, andere KI-Anbieter werden sicherlich bald folgen, nur in den USA und Kanada verfügbar. Das schränkt – zumindest im deutschen Sprachraum – die Zahl der Fake-Videos noch ein wenig ein. Zudem ist der Zugang noch limitiert und nur mit einem Invite-Code möglich. Ihr könnt Euer Glück versuchen:

  • Verbindet Euch mit einem VPN in die USA oder Kanada
  • Öffnet die Website https://sora.chatgpt.com/explore im Browser.
  • Gebt den Invite-Code ein.
  • Anschließend müsst Ihr Euch noch bei Sora anmelden: Das ist der gleiche Zugang wie für ChatGPT.

Die Invite-Codes sind derzeit schwer zu bekommen, es gibt Reddit- und Discord-Threads dazu. Das ist gut, denn das bedeutet, dass noch nicht jeder Dulli Schrott-Content zusammenrühren kann. Die Dämme brechen, wenn der Dienst global und im Rahmen der normalen OpenAI-Tarife verfügbar ist: Sora 2 ist als Social-Media-App konzipiert. Wahrscheinlich auch, damit Benutzer die Qualität bewerten können und die KI weiter lernen kann.

Zudem setzt Sora seit jeher ein Wasserzeichen in alle Videos, das ist schon bei der alten Version der Fall. Das lässt sich aber im Zweifel entfernen, entweder durch Buchung des kostenpflichtigen Pro-Accounts für 200 US-Dollar im Monat. Oder, indem Ihr das Video durch ein ebenfalls KI-gestütztes Wasserzeichen-Entfernungs-Tool jagt. Davon gibt es diverse im Netz. Ich werde hier keines verlinken.

Doch wie geht es jetzt weiter? Aufgrund der Tatsache, dass ich als sehr kritischer Nutzer erst heute bei X einem KI-Video auf den Leim gegangen bin, bin ich da sehr pessimistisch. Es war ein Video, das wie von einer Überwachungskamera aufgenommen aussah: Ein Baum fiel um und stürzte fast auf eine Frau mit Hund an der Leine. Der Hunde kam anschließend hinter dem Baum hervor, unverletzt.

Ich finde das Video nicht mehr, auf den ersten Blick dachte ich "krass". Und dann fiel mir auf, dass der Hund so unter dem Baum hervorkam, als hätte er keine Leine an. Wäre es ein echtes Video gewesen, hätte die Leine – auf der der Baum hätte liegen müssen – den Hund am Hervorkommen gehindert. Aber so ein Detail dürfte vielen Leuten beim Doomscrolling kaum auffallen.

Gemeinerweise passieren solche Dinge. Ein solches Szenario ist äußerst unwahrscheinlich, klar: Dass so etwas genau so passiert und es obendrein von einer Überwachungskamera festgehalten wird, sprengt die Grenzen der Realität. Aber es kommt vor! Milliarden Menschen machen täglich tausende Sachen, es gibt eine Fantastilliarde Überwachungskameras... das ist ein wenig wie bei den Affen mit Schreibmaschinen, die zufällig Shakespeare schreiben: Irgendwann kann sich genau so ein Szenario irgendwo ereignen und dabei von einer Überwachungskamera aufgezeichnet werden.

Es sind genau diese niedrigschwelligen Videos, die zufällig aufgenommen wirken und nicht die Hochglanz-Bildwelten, die tagtäglich von Influencern, Marketing-Profis, Hollywood oder eben der KI erschaffen wurden, die Nutzer an die Authentizität glauben lassen. Sondern solche Katzenvideos:

211,1 Millionen Views hat das Video, Stand heute, binnen weniger Tage generiert. Und auch hier wieder: Wer genau hinschaut, weiß, dass dieses Video eigentlich unmöglich ist. Katzen tragen Fische nicht mit den Vorderpfoten, wenn sie rennen. Und wer genau hinschaut, sieht physikalische Glitches: Die Katze wirkt – allerdings erst auf den zweiten Blick – unnatürlich in ihren Bewegungen und in ihrer Umwelt.

Eine lustige Spielerei, könnte man meinen. Doch das Video zeigt genau das Problem dieser ganzen Entwicklung: Beim schnellen Scrollen durch die Social-Media-Kanäle lässt sich so ein Werk kaum von echtem Content unterscheiden. Man lächelt kurz, gibt ein Like, weiter geht's. Doch im Hinterstübchen wird abgespeichert: "Oh, Katzen können das" – und das sorgt für eine ganz subtile Ausbreitung von Falschinformationen.

Was bei Katzen-Raubüberfällen vielleicht noch unterhaltsam ist, kann in anderen Bereichen für ein massives Fake-News-Problem sein. Was spricht dagegen, sublim Videos von unmöglichen Oppositionellen oder politisch nutzbaren Katastrophen in die Social-Media-Feeds einzustreuen? Im Rahmen des alltäglichen Irrsinns und bizarrer Ereignisse geht der Slop unter, wird aber gleichzeitig als Information abgespeichert, selbst wenn man das Video nur "überscrolllt".

Ich sage es mal so: Würde Euch auffallen, wenn ein per KI gefälschtes #söderisst-Video in Eurem TikTok-Feed auftauchen würde? Eben.

Alles, was uns im Anbetracht der neuen Qualität von KI-Videocontent bleiben kann, ist extreme Skepsis: Stellt Euch bei jedem – und ich meine wirklich JEDEM! – Video im Netz, bei Youtube, TikTok, Instagram oder das Ihr von Bekannten zugeschickt bekommt, folgende Fragen:

  • Woher stammt das Video ursprünglich? (Quellenprüfung)
  • Kann sein, was ich da sehe? (Realismus-Check)
  • Warum sehe ich das Video in meinem Feed oder warum schickt es mir jemand? (Intention)

Mehr Möglichkeiten bleiben Euch nicht. Und damit einen schönen Start in die Woche!

Seit Ihr auch schon über Sora 2-Videos gestolpert oder von KI getäuscht worden? Was haltet Ihr von der Entwicklung? Wir freuen uns über Euren Kommentar.

Christian Rentrop

Diplom-Journalist, Baujahr 1979. Schreiberling in Totholzwäldern und auf digitalen Highways. Öfter auch auf der Vespa oder mit dem Wohnwagen unterwegs. Seit 2020 Tochtervater, dementsprechend immer sehr froh über eine kleine Kaffeespende.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
>		<script type='text/javascript'>
			!function(t){