Leica und Sony werden in Kürze Technologien zur digitalen Signatur von Aufnahmen mit ihren Kameras einführen. Jetzt warnt der Deutsche Fotorat vor der Gefahr durch irreführende KI-Bilder in der Berichterstattung. So weist der Fotorat daraufhin, dass zum Nahostkonflikt vermehrt KI-generierte Bilder in Bilddatenbanken angeboten werden, die kaum von authentischen Aufnahmen zu unterscheiden sind.

Erst vor wenigen Tagen hat Leica mit der Leica M11-P eine Technologie eingeführt, die die Authentizität eines Fotos belegen kann. Kurz darauf folgte Sony, das Unternehmen wird für seine Top-Modelle Alpha 1, Alpha 9 III und Alpha 7S III eine Authentifizierungstechnologie per Firmware-Update nachreichen.

Wie wichtig derartige Technologien in der Berichterstattung werden können, zeigt eine aktuelle Warnung des Deutschen Fotorats. Darin wird ein klares Nein zu zur Verwendung von KI-Bildern in der Berichterstattung gefordert. Anlass für diese Forderung sind KI-generiert Bilder zu aktuellen Nahostkonflikt, die als „Stock-Fotos“ gleichberichtigt zu tatsächlichen Aufnahmen aus dem Konfliktgebiet angeboten werden.

Ein Bild, das vermeintlich eine aktuelle Aufnahme aus dem Gaza-Streifen ist. Tatsächlich wurde es komplett von einer künstlichen Intelligenz generiert.

Der Deutsche Fotorat ist der Dachverband der Fotografie in Deutschland. Als spartenübergreifende Interessensvertretung vertritt er die Interessen der Mitgliedsverbände gegenüber Politik und Gesellschaft.

Pressemitteilung des Deutschen Fotorats:

Fotorat warnt vor irreführenden KI-Bildern in der Berichterstattung

23. November 2023. Der aktuelle Nahostkonflikt hat zu einem enormen Anstieg im Angebot von KI-generiertem Bildmaterial geführt, das sich auf diese Ereignisse bezieht. Diese mutmaßlichen Kriegsbilder sind in vielen Fällen weder für Fachleute noch mit technischen Systemen zur Erkennung von KI-Bildern von authentischen Fotos zu unterscheiden.

Unter dem Schlagwort „Gaza“ findet man beispielsweise auf der Plattform von Adobe Stock, einer der führenden Bilddatenbanken, KI-generierte fotorealistische Bilder von zerstörten Städten, hoch emotionale Bilder von Kindern in Trümmerlandschaften oder Portraits von bärtigen Bewaffneten, die in der Bildbeschreibung als „Hamas-Krieger“ bezeichnet werden.

KI-generiert Stock-„Fotos“, die vorgeblich Hamas-Kämpfer zeigen. Quelle des Screenshots: Deutscher Fotorat

Die Bilder werden gleichrangig mit echtem Fotomaterial angeboten, identisch verschlagwortet und in vielen Fällen inhaltlich ähnlich beschrieben. Die Gefahr ist hoch, dass beim Erwerb solcher Bilder, trotz KI-Hinweis beim Anbieter, Kennzeichen der künstlichen Generierung in den weiteren Redaktions-Prozessen bis zur Veröffentlichung übersehen oder gar ignoriert werden. Wenn KI-Bilder gemeinsam mit Fotos im gleichen Umfeld veröffentlicht werden, suggeriert es Authentizität der synthetischen Bilder und schwächt die Glaubwürdigkeit der realen Fotos.

Allein der Verdacht auf irreführende KI-Bilder im Journalismus löst bei MediennutzerInnen einen unumkehrbaren Vertrauensverlust aus. Der Deutsche Fotorat hat bereits im April mit seinem Positionspapier zu KI auf die Gefahren für den gesellschaftlichen Diskurs hingewiesen. Im Licht der aktuellen Situation präzisiert er seine Forderungen:

• Verantwortungsvolles Handeln von Bildanbietern

Auch wenn es legitime Gründe geben kann, allgemeingültige Symbolbilder von Konflikten oder Kampfhandlungen mithilfe von KI-Bildgeneratoren zu erzeugen und anzubieten, müssen es Bildanbieter unterlassen, solche fiktiven Bilder durch Verschlagwortung oder Bildbeschriftung konkreten realen Geschehnissen zuzuordnen. Es ist irreführend und stiftet zu Missbrauch an, beispielsweise KI-Bilder von zerstörten Städten als „Stadt im Gaza-Streifen“ oder synthetische Bilder von Bewaffneten als „Hamas Rebellen“ zu betiteln. Die bloße Kennzeichnung von KI-Bildern beim Vertrieb von Bildrechten reicht nicht aus, wenn sonstige Bildinformationen nicht von denen realer Fotos zu unterscheiden sind.

• Ein klares Nein zur Verwendung von KI-Bildern in der Berichterstattung

Journalistisch arbeitende Medien müssen sich klare Richtlinien geben, die den Einsatz von KI-Bildern in irgendeinem Zusammenhang mit der Berichterstattung über Ereignisse des Tagesgeschehens prinzipiell ausschließen. Bildmaterial muss vor der Veröffentlichung auf seine Authentizität überprüft werden. Die Richtlinien der Redaktionen müssen transparent für MediennutzerInnen kommuniziert werden. Es darf nicht die Pflicht der MediennutzerInnen sein, sich der Authentizität jeder Abbildung anhand von etwaigen Kennzeichnungen in Bildunterzeilen zu vergewissern. Der Fotorat regt an, den Kodex des Deutschen Presserats zum Einsatz von Symbolbildern hinsichtlich KI-generierter Bilder zu präzisieren.

• Verantwortungsvoller Einsatz von KI-Bildern im politischen Diskurs

Auch bei der Nutzung von KI-Bildern in Veröffentlichungen von öffentlichen Stellen, NGOs oder Parteien ist besondere Verantwortung geboten, da NutzerInnen diesen Quellen besonderes Vertrauen entgegenbringen. Hier müssen Symbolbilder, insbesondere mit KI generierte fotorealistische Bilder, deutlich als solche gekennzeichnet werden. Der Deutsche Fotorat fordert Verantwortliche auf, in jedem Einzelfall zu erwägen, ob ein möglicherweise besonders wirksames KI-Bild wirklich eine sinnvolle Funktion hat, oder der Einsatz nicht eher aus Bequemlichkeit oder Kostendruck geschieht. Im Zweifel ist ein authentisches Bild vorzuziehen.