Desinformation: Glaube nicht, was du siehst: Wie KI-Bilder längst die Kriege prägen

KI-Bilder zu Kriegen sind kein neues Phänomen. Inzwischen aber wirken sie teils derart realistisch, dass sie zu einem ernsten Problem werden. Zumal sich mit ihnen Geld verdienen lässt.

Bald zwei Wochen ist es her, als das israelische Verteidigungsministerium verkündete, das berüchtigte Ewin-Gefängnis in Irans Hauptstadt Teheran angegriffen zu haben. Kurz darauf tauchte im Netz ein Video auf, das eine Explosion an einem der Eingänge des Gebäudes zeigen sollte – aufgenommen, so wirkte es, durch die Linse einer Überwachungskamera. 

Der staatliche iranische TV-Sender Fars griff den sechs Sekunden langen Clip in seiner Berichterstattung auf, ebenso westliche Medien. Auch Israels Außenminister Gideon Saar postete die Aufnahme auf seinem Profil bei X. Noch heute kann man das Video dort anschauen. Das Problem: Längst gibt es begründete Zweifel an seiner Echtheit.

X-Post Gideon Saar

Aufgebracht hat sie Hany Farid, ein Experte im Bereich Bildanalyse und digitale Forensik. Nur einen Tag nach dem Beschuss schrieb Farid bei Linkedin, ein Mitarbeiter habe ein Foto des Gefängnisses aus dem Jahr 2023 gefunden, das dem ersten Bild des Videos – „Frame“ genannt – sehr gleiche. Und tatsächlich: Mehrere Äste und Büsche sehen auf dem Foto und im Video völlig identisch aus (siehe Slider unten). Für den Teheraner Frühsommer sind sie zudem ungewöhnlich kahl. Kann das sein? Farid glaubt: nein. Es erscheine „wahrscheinlicher, dass ein KI-gestützter Bild-zu-Video-Generator mit diesem Bild als Quelle genutzt wurde.“

Überraschend wäre das nicht. KI-generierte Bilder oder Videos sind keine neue Erscheinung im Zusammenhang mit Konflikten oder Kriegen. Versuche, durch sogenannte Deepfakes zu täuschen und Stimmung zu machen, gibt es schon länger. Was sich geändert hat: Waren Fälschungen oftmals mit bloßem Auge zu enttarnen, müssen inzwischen selbst Experten ganz genau hinschauen.

„Wer der KI-Erkennung entgehen will, wird das auch schaffen“

Deutlich größere Datensätze, bessere Algorithmen und immer präziser trainierte Modelle: Für Stefan Feuerriegel, Professor und KI-Forscher an der Ludwig-Maximilians-Universität in München, ist es dieser Dreiklang, der die Technologien in den letzten Monaten stark verbessert hat. „Durch diese neue Architektur, die sehr nah an den Textmodellen ist, war es nur eine Frage der Zeit, dass KI-Bilder oder -Videos absolut authentisch und realitätsnah wirken“, sagt Feuerriegel. 

Authentisch und realitätsnah kann im Bereich Desinformation auch heißen, dass eine Aufnahme eben nicht perfekt, wackelfrei oder gestochen scharf ist. So wie beim Video vom Ewin-Gefängnis. Ein für Überwachungskameras nicht unübliches schwarz-weiß Bild, die pixelige Auflösung und – dank des Fotos als Ausgangsmaterial für die KI – eine real existierende Umgebung: All diese Faktoren dürften hineingespielt haben, warum selbst Medien mit spezialisierten Verifikateuren das Video zunächst für echt hielten.

Laut Feuerriegel gibt es zudem die Strategie, hochauflösende KI-Videos nachträglich durch KI-Tools zu verpixeln, also künstlich zu verschlechtern, damit sie authentischer wirken. Diese Verschleierungstaktik hat einen weiteren Effekt: Details lassen sich wesentlich schwerer überprüfen – wenn überhaupt. Für Feuerriegel jedenfalls steht außer Frage: „Wer der KI-Erkennung entgehen will, wird das auch schaffen.“

KI-Content ist spektakulär – und kann Geld einbringen

Andere Akteure setzen weiterhin aufs Motto „Masse statt Klasse“. Während KI-Inhalte im Zusammenhang mit dem russischen Angriffskrieg in der Ukraine eher die Ausnahme bilden, fluteten sie im Israel-Gaza-Krieg von Beginn an die sozialen Netzwerke. Die selbst für ungeübte Augen meist einfach zu entlarvenden Fakes von verletzten Kindern, zerstörten Panzern oder demonstrierenden Menschen sollten mittel- bis langfristig aufgrund ihrer hohen Anzahl verfangen und so zur Stimmungsmache beitragen. 

Mitunter nimmt das kuriose Züge an. Mitte Juni verbreitete sich die Aufnahme eines angeblich durch den Iran abgeschossenen F35-Kampfjets der israelischen Armee. Man muss kein Fachmann sein, um zu erkennen, dass der eigentlich etwa 16 Meter lange Kampfflieger im KI-Bild Ausmaße eines Jumbojets hat und die umherstehenden Menschen größer als Fahrzeuge und Häuser sind. 

So groß wie ein Passagierflugzeug: Ein KI-generiertes Bild eines F35-Kampfjets, dessen Größe völlig falsch dimensioniert ist – genau wie die der umstehenden Menschen
© Screenshot / x.com

Dennoch sammelte der Deepfake tausendfach Likes und Weiterleitungen ein. Das kann – je nach Plattform – die Kasse klingeln lassen. Bei Tiktok oder auch bei X beispielsweise können User mit ihren Accounts Geld verdienen: je mehr Aufmerksamkeit ihre Postings bekommen, desto größer der Scheck. 

Politik und Plattformen in der Pflicht

Feuerriegel wundert es daher nicht, dass gerade in Konflikten und Kriegen emotionalisierende und polarisierende Kampagnen – ob mit Desinformationsabsicht oder nicht – Konjunktur haben. „Nicht umsonst gibt es im Englischen die Weisheit ‚If it bleeds, it leads'“, sagt Feuerriegel. „Wir wissen aus unserer gemeinsamen Forschung mit der New York University, dass gerade negative Nachrichten zu Klicks führen und nachgeschaltet zu einer Feedbackschleife, die sich besser monetarisieren lässt.“

KI kann diese Aufmerksamkeitsspirale nochmals ankurbeln. Auch deshalb sieht Feuerriegel sowohl Politik als auch die Plattformen in der Pflicht. „Natürlich soll und kann der Staat das Internet nicht komplett überwachen“, sagt Feuerriegel. „Angesichts der Tatsache, dass es heutzutage für jedermann ein Leichtes ist, Fehlinformationen – auch durch KI unterstützt – zu verbreiten, sollten wir uns aber die Frage stellen, ob es wirklich richtig ist, dass wir uns bei sozialen Netzwerken völlig anonym anmelden können.“