Transparenzhinweis: Text KI-gestützt, Bild KI-erstellt
Das ZDF zieht nach einem Vorfall im „heute journal“ weitreichende Konsequenzen: In einem Beitrag über Razzien der US-Einwanderungsbehörde ICE wurden Videoausschnitte verwendet, die entweder KI-generiert waren oder aus einem anderen Kontext stammten. Besonders schwer wog dabei, dass KI-Material nicht als solches gekennzeichnet war und zudem offenbar redaktionelle Prüfprozesse versagten. Nach Tagen intensiver Kritik und einer internen Überprüfung reagiert der Sender nun mit einer personellen Entscheidung, die die Debatte über Standards, Verifikation und Transparenz im öffentlich-rechtlichen Journalismus erneut befeuert.
Der Auslöser: Ein „heute journal“-Beitrag und zwei problematische Sequenzen
Im Zentrum der Affäre steht ein Beitrag, der die Härte von ICE-Einsätzen illustrieren sollte. Aus Sicht des ZDF wurden dabei gleich mehrere grundlegende Regeln verletzt. Zum einen kam ein Clip zum Einsatz, der aus dem Internet stammte und KI-generiert war. Zum anderen wurde eine weitere Szene ausgestrahlt, die zwar real war, aber aus dem Jahr 2022 stammte und in einem anderen Zusammenhang aufgenommen worden sein soll. Damit standen nicht nur die Authentizität, sondern auch die korrekte Einordnung und die journalistische Sorgfalt infrage.
Brisant wurde der Vorgang zusätzlich durch den Kontext der Sendung: In der Anmoderation war zuvor sinngemäß vor manipulativen Online-Inhalten gewarnt worden. Dass unmittelbar danach Material lief, das selbst problematisch war, verstärkte den Eindruck eines „Doppelfehlers“ und machte den Fall besonders anschlussfähig für medienpolitische Kritik.
Die Reaktion des Senders: Von der Korrektur zur Aufarbeitung
In den ersten Reaktionen stand beim ZDF zunächst die Erklärung im Raum, die fehlende Kennzeichnung sei auf einen technischen Fehler zurückzuführen. Parallel wurden Versionen des Beitrags in der Mediathek nachträglich verändert beziehungsweise ersetzt. Doch je mehr Details öffentlich wurden, desto deutlicher wurde, dass es nicht bei einem einzelnen Versehen blieb.
Nach Angaben, die in mehreren Berichten übereinstimmend wiedergegeben werden, soll die verantwortliche Autorin das Material ausgewählt haben, ohne Herkunft und Echtheit ausreichend zu prüfen. Zudem habe auch die Schlussredaktion die vorgesehenen Prüfverfahren nicht korrekt angewandt. Damit verlagerte sich die Debatte weg von einer reinen Kennzeichnungsfrage hin zu einem strukturellen Problem: Welche Verifikationsschritte greifen tatsächlich, wenn Bildmaterial aus offenen Quellen stammt und in kurzer Zeit sendefähig gemacht wird?
Personelle Konsequenzen: Korrespondentin in New York abberufen
Am Freitag, dem 20. Februar 2026, folgte dann der Schritt, der dem Trendthema den entscheidenden Impuls gab: Das ZDF berief seine New-York-Korrespondentin Nicola Albrecht mit sofortiger Wirkung ab. Die Begründung fiel ungewöhnlich deutlich aus. Sinngemäß wurde darauf verwiesen, der entstandene Schaden sei groß und es gehe „im Kern um die Glaubwürdigkeit“ der Berichterstattung. Damit machte die ZDF-Spitze klar, dass der Sender den Vorgang nicht als Randnotiz betrachtet, sondern als Ereignis, das das Vertrauen in die journalistische Arbeit unmittelbar berührt.
Die Entscheidung ist auch deshalb bemerkenswert, weil sie einen seltenen Fall darstellt, in dem ein öffentlich-rechtlicher Sender in kurzer Zeit eine klar erkennbare personelle Maßnahme kommuniziert. In der öffentlichen Wahrnehmung wird dies häufig als Signal verstanden, dass interne Standards nicht nur auf dem Papier existieren, sondern im Zweifel auch durchgesetzt werden. Gleichzeitig wirft die Maßnahme Fragen nach der Verantwortungsverteilung auf: Welche Rolle spielen Autorenschaft, redaktionelle Abnahme, Schlussredaktion und technische Produktion, wenn es um KI-Inhalte und deren Kennzeichnung geht?
Pflichtschulungen und strengere Regeln: Was sich beim ZDF ändern soll
Neben der Abberufung kündigte das ZDF weitere Schritte an. Genannt werden verpflichtende Schulungen für Mitarbeitende sowie ein Maßnahmenkatalog, der die Verifikation von Bild- und Videomaterial verschärfen soll. Im Kern zielt dies auf zwei Schwachstellen: erstens auf die eindeutige Prüfung von Herkunft und Kontext, zweitens auf eine verlässliche Kennzeichnung, sobald KI-Elemente im Material enthalten sind oder der Verdacht naheliegt.
Dass Schulungen als Sofortmaßnahme gewählt werden, ist naheliegend, weil sich die Werkzeuge und Fälschungsmöglichkeiten rasant entwickeln. Dennoch ist der Fall ein Hinweis darauf, dass Schulungen allein nicht reichen, wenn Redaktionsroutinen, Zeitdruck und technische Workflows Kennzeichnungen „verschlucken“ oder Prüfprotokolle in der Praxis nicht konsequent angewendet werden. Entscheidend wird daher sein, ob der angekündigte Maßnahmenkatalog klare Zuständigkeiten, verbindliche Checkpoints und dokumentierte Freigaben vorsieht.
Politische und mediale Wucht: Warum der Fall über das ZDF hinausweist
Der Vorfall blieb nicht auf Medienkritik beschränkt, sondern bekam schnell eine politische Dimension. Mehrere Stimmen aus der Politik nutzten die Affäre, um grundsätzliche Fragen an den öffentlich-rechtlichen Rundfunk zu stellen. Besonders häufig tauchte dabei das Argument auf, dass Vertrauen die zentrale Währung journalistischer Angebote sei und dass Fehler im Umgang mit KI-Material dieses Vertrauen überproportional beschädigen können.
Unabhängig von parteipolitischen Motiven zeigt der Fall einen realen Zielkonflikt: Redaktionen wollen Ereignisse schnell, anschaulich und emotional nachvollziehbar darstellen, greifen dabei aber zunehmend auf Material aus offenen Plattformen zurück, in denen Herkunft, Zeitpunkt und Echtheit schwer zu überprüfen sind. KI verschärft dieses Problem, weil nicht nur einzelne Bilder manipuliert werden können, sondern komplette Sequenzen plausibel wirken, ohne je real gefilmt worden zu sein.
Fazit: Ein Lehrstück über Glaubwürdigkeit im KI-Zeitalter
Mit der Abberufung der New-York-Korrespondentin und der Ankündigung verpflichtender Schulungen setzt das ZDF ein sichtbares Zeichen, dass Verstöße gegen Standards Folgen haben. Gleichzeitig macht der Fall deutlich, dass die größte Herausforderung nicht allein die Kennzeichnung von KI-Material ist, sondern die robuste Verifikation in einem Umfeld, in dem „echt“ und „synthetisch“ immer schwerer zu unterscheiden sind.
Ob die Konsequenzen langfristig Vertrauen zurückgewinnen, hängt davon ab, wie nachvollziehbar die Aufarbeitung gelingt und ob die angekündigten Regeln im Redaktionsalltag tatsächlich greifen. Der Skandal ist damit weniger ein singulärer Ausrutscher als ein Stresstest für journalistische Prozesse, die sich an eine neue Realität anpassen müssen: Bilder können überzeugend sein, ohne wahr zu sein, und genau deshalb wird Transparenz zur Voraussetzung von Glaubwürdigkeit.
Quellen
https://www.tagesspiegel.de/gesellschaft/medien/es-geht-um-die-glaubwurdigkeit-zdf-zieht-nach-ki-skandal-usa-korrespondentin-ab-13352427.html
https://www.fr.de/politik/kubicki-spricht-von-zdf-skandal-und-fordert-konsequenzen-94175462.html





