Der Deutsche Fotorat hat am 20. August 2025 eine Stellungnahme zur generativen KI veröffentlicht. Darin warnt er vor rechtlichen Grauzonen beim KI-Training und fordert acht konkrete Maßnahmen – darunter Vergütungspflicht, Transparenz bei Trainingsdaten und ein gesetzlich verankertes Opt-in-Verfahren.
Mit einer ausführlichen Stellungnahme vom August 2025 positioniert sich der Deutsche Fotorat deutlich zur generativen KI. Unter dem Titel „Generative KI im Konflikt mit menschlicher Kreativität“ benennt der Verband zentrale rechtliche und politische Defizite im aktuellen Umgang mit KI-Trainingsdaten und fordert klare gesetzliche Regelungen. Die Stellungnahme umfasst acht konkrete Punkte und reagiert auf das Inkrafttreten der nächsten Stufe des europäischen AI Acts sowie den begleitenden Code of Practice.
Kritisiert wird unter anderem, dass Anbieter generativer KI-Systeme weiterhin auf urheberrechtlich geschützte Inhalte zugreifen, ohne Zustimmung der Urheber oder eine Vergütung. Der Fotorat fordert eine gesetzliche Opt-in-Regelung, Transparenzpflichten für Trainingsdaten, eine klare Kennzeichnung von KI-generierten Bildern sowie rechtliche Absicherung eingebetteter Urheberinformationen. Auch ein kollektiver Vergütungsmechanismus wird angeregt.
Die vollständige Stellungnahme ist unter www.deutscher-fotorat.de abrufbar.
Pressemitteilung Deutscher Fotorat e.V.:
Generative KI im Konflikt mit menschlicher Kreativität Acht Forderungen des Deutschen Fotorats
Am 2. August ist die nächste Stufe der europäischen KI-Verordnung (AI Act) in Kraft getreten, die neue Anforderungen an die Anbieter von KI-Systemen stellt. Zugleich wurde nach einem monatelangen Beteiligungsverfahren der europäische “Code of Practice” veröffentlicht, der unterzeichnenden Firmen das Einhalten der Regeln erleichtern soll.
Aus Sicht der Urheberinnen und Urheber, deren Werke von den KI-Firmen ungefragt und ohne Gegenleistung für die Entwicklung generativer Systeme verwertet werden, sind diese Regelungen enttäuschend. Der fundamentale Konflikt zwischen dem Schutz geistigen Eigentums und dem grenzenlosen Datenhunger der KI-Entwickler verschärft sich. Industrievertreter haben klar erkennen lassen, dass sie keinerlei Interesse haben, die Lieferanten des Trainingsmaterials ihrer KI-Systeme in irgendeiner Form an den Umsätzen ihrer Plattformen zu beteiligen.
Die kommenden Monate sind entscheidend, um bei der anstehenden Überprüfung der geltenden europäischen Richtlinie zu “Copyright in the Digital Single Market” (CDSM-Richtlinie) endlich Schritte zu unternehmen, um Lücken in der Gesetzgebung zu schließen und die Enteignung von Kreativen in einer juristischen Grauzone zu beenden. Der Koalitionsvertrag der neuen Bundesregierung stellt einen „fairen Ausgleich der Interessen aller Akteure“ in Aussicht. Das darf kein leeres Versprechen bleiben. Daher fordert der Deutsche Fotorat:
1. Geistiges Eigentum muss beim KI-Training gesetzlich geschützt sein
KI-Firmen argumentieren, dass das Sammeln und Verwerten aller irgendwie zugänglichen Daten von der Erlaubnis zum “Text und Data Mining” (TDM) gedeckt sei und berufen sich auf Artikel 4 der CDSM-Richtlinie und §44b des Urheberrechtsgesetzes. Dabei waren in den Jahren, in denen diese Regelungen in Kraft traten, die Möglichkeiten generativer KI-Systeme allenfalls Spezialisten in Ansätzen bekannt.
Bei Verabschiedung der Richtlinie (EU) 2019/790 des Europäischen Parlaments (CDSM-Richtlinie) im Jahr 2019 und bei deren Umsetzung ins deutsche Recht 2021 hat sich das öffentliche Interesse auf die umstrittenen “Uploadfilter” konzentriert. Dass damals zugleich Regelungen zum Text und Data Mining (TDM) eingeführt wurden, blieb weitgehend unbeachtet.
Immer mehr Juristinnen und Juristen äußern Zweifel daran, dass das Training generativer KI überhaupt durch die TDM-Regelungen gedeckt ist.
Es wird höchste Zeit, das Urheberrecht auf europäischer Ebene anzupassen. Die für 2026 geplante Überprüfung der CDSM-Richtlinie bietet dafür die Gelegenheit, und wir fordern die Bundesregierung auf, sich bei der EU-Kommission und im Rat der EU für eine Reform einzusetzen, die klarstellt, dass die Entwicklung kommerzieller Systeme der generativen KI nicht von Ausnahmen der TDMRegelungen gedeckt ist.
Die bestehenden rechtlichen Unklarheiten führen zu jahrelangen juristischen Auseinandersetzungen über viele Instanzen in zahlreichen Ländern. Und es sind stets die Urheber:innen, die in langwierigen und kostenintensiven Einzelfallentscheidungen für ihre Rechte kämpfen müssen. Die Anbieter von KI-Systemen, die bereits heute Milliardenumsätze mit kostenpflichtigen Angeboten erzielen, berufen sich hingegen auf Regelungen, die ursprünglich für Forschungszwecke gedacht waren, etwa der Analyse medizinischer Daten.
Zudem haben sich in den letzten Jahren Strukturen herausgebildet, in denen kleine Firmen oder gemeinnützige Vereine das Erstellen von enormen Datensammlungen übernehmen, die dann von großen Tech-Konzernen zur Entwicklung ihrer Produkte eingesetzt werden. Auch der neue Code of Practice billigt diese Praxis und entbindet die Konzerne weitgehend von der Verantwortung, die Rechtmäßigkeit der Datensätze zu überprüfen. Solche Hintertüren müssen verschlossen werden.
Das Urheberrecht muss die Verwendung geschützter Inhalte im KI-Training als neue Nutzungsart regeln. Urheber:innen müssen in die Lage versetzt werden, ihre Rechte wahrzunehmen, unabhängig davon, in welchem Rechtsraum die Modelle entwickelt wurden, sobald diese KI-Modelle in ihrer Rechtsordnung angeboten werden. Das schreibt der AI Act der Europäischen Union bereits vor.
2. KI-Unternehmen müssen Kreative angemessen vergüten
Die Nutzung von geschützten Werken für das Training von KI-Systemen geht in ihren wirtschaftlichen Auswirkungen weit über jene von bisher bekannten Nutzungsarten hinaus. In vielen Bereichen wird generative KI die Tätigkeit von Kreativen komplett ersetzen und so ihre wirtschaftliche Existenz gefährden. Dabei war es deren jahrzehntelange Arbeit, auf deren Basis die Entwicklung dieser Systeme erst möglich wurde. Diese einschneidenden Folgen müssen berücksichtigt werden, wenn man über neue Vergütungsmodelle nachdenkt, die nach dem Urheberrecht “angemessen” für die Betroffenen zu sein haben.
Eine Vergütung muss es sowohl für die Nutzung von Werken für das KI-Training als auch für den Output der KI-Generatoren geben. KI-Anbieter und Plattformen müssen zu fairen Vergütungen der Urheber:innen verpflichtet werden. Dabei geht es nicht nur um künftige Nutzungen. Alle Urheber:innen, deren Werke bisher ohne ihr Wissen und ohne ihre Zustimmung als KI-Trainingsmaterial ausgebeutet wurden, müssen dafür entschädigt werden. Es darf keine amnestieähnliche Lösung für die derzeit auf dem Markt aktiven Modelle geben, wie sie derzeit von der EU-Kommission erwogen wird.
Angesichts der Billionen-Investitionen in Software- und Hardwareentwicklung ist die Forderung von KI-Unternehmen absurd, die Rohstoffe aller generativer Modelle – Fotos, Bilder, Texte, Filme, Musik – kostenlos für ihre Produkte verwerten zu dürfen.
Ohne menschliche Kreativität kann es keine generative KI geben. Es sollte also im langfristigen Interesse der KI-Unternehmen liegen, dass kreatives Arbeiten weiterhin geachtet wird und Kreative ihren Lebensunterhalt damit verdienen können.
3. KI-Training darf nur mit aktiver Zustimmung der Urheber:innen erfolgen
Es darf nicht den Urheber:innen auferlegt sein, über “Opt-Out”-Regelungen zu versuchen, ihre Wer- ke vor der Verwendung im KI-Training zu schützen und die ihnen gesetzlich eindeutig zustehenden Rechte zu sichern. Die rechtlichen Anforderungen an solche Vorbehalte sind derzeit unklar. Die technischen Voraussetzungen erfordern zum Teil einen erheblichen Aufwand für die Kreativen, und ob solche Vorbehalte tatsächlich respektiert werden, ist zweifelhaft.
Wir fordern daher eine gesetzliche Lösung, die ein KI-Training mit Werken nur mit ausdrücklicher Erlaubnis der Rechteinhaber:innen zulässt. Dieser sogenannte Opt-In ermöglicht es ebenfalls, faire Lizenzbedingungen für die Verwertung im KI-Training zu vereinbaren.
Falls es bei den Opt-Out-Regelungen der aktuellen Gesetze bleiben sollte, bei denen Kreative einen Nutzungsvorbehalt gegen die Verwertung ihrer Werke für das KI-Training aussprechen müssen, so muss die Willenserklärung der Schöpfer:innen in jeder erkennbaren Form von den KI-Anbietern respektiert werden. Dazu gehören Textpassagen in den Nutzungsbedingungen von Webseiten ebenso wie Metadaten, die in den digitalen Werken eingebettet sind.
Einen solchen Nutzungsvorbehalt zu erklären, darf nicht einseitig die Kreativen mit Aufwand und Kosten für technische Lösungen belasten. Hilfreich wäre beispielsweise ein digitales Werksverzeichnis, das von staatlichen Stellen wie dem Amt der Europäischen Union für geistiges Eigentum (EUIPO) betrieben wird. Ein solches Verzeichnis könnte alternativ auch als Opt-In-Register für KI- Training ausgelegt sein.
Ansätze, die Verwertung von Werken durch umfassende, kollektive Lizenzen zu legalisieren, dürfen Urheber:innen nicht die Möglichkeit nehmen, die Nutzung ihrer Werke individuell für das KI-Training zu untersagen.
4. KI-Training muss transparent stattfinden
Um die Nutzung von urheberrechtlich geschützten Werken wirksam zu kontrollieren, müssen die Daten- und Linksammlungen, die für KI-Training genutzt werden, öffentlich und ohne technische Hürden zugänglich sein.
Die Anbieter von generativen KI-Systemen wehren sich gegen die Offenlegung ihrer Quellen mit dem Argument, dadurch würden Geschäftsgeheimnisse verletzt. Es ist absurd, dass diejenigen, die freien Zugriff auf alle jemals online gestellten Werke fordern, den Schutz ihrer Geschäftsgeheimnis- se beanspruchen, sobald sie sich die öffentlichen Werke für ihre Zwecke einverleibt haben.
Auch technische Argumente gegen die Offenlegung der verwendeten Trainingsdaten in werkba- sierter Form (nicht nur in Kategorien) sind längst widerlegt. Eine detaillierte Quellendokumentation und -auskunft bei KI-Systemen ist technisch möglich und in vielen Fällen trivial. So sind auch die umstrittenen Datensammlungen des LAION e.V., die vielen Entwicklern als Grundlage dienen, als Open Source öffentlich einsehbar. Dieser Katalog enthält fast 6 Milliarden Bilder. Wenn Transparenz hier möglich ist, muss sie auch an anderer Stelle realisierbar sein.
Der Code of Practice verpflichtet die KI-Unternehmen lediglich zu allgemeinen Angaben zur Her- kunft von Daten, etwa “Web Crawling”. Das jüngst von der EU-Kommission vorgelegte “Template” für die Auskünfte der Firmen ist komplett unzureichend. So müssen KI-Unternehmen z.B. lediglich die Namen der verwendeten Crawler, den Zeitraum der Sammlung, und eine Liste der Top 10% aller Do- mains, die im Internet ausgewertet wurden(für KMU maximal 1000) zur Verfügung stellen. Auch müssen Firmen sich nicht festlegen, ob sie sich auf Bestimmungen zur wissenschaftlichen For- schung oder zur kommerziellen Nutzung berufen.
Ohne eine vollständige, werkgenaue Offenlegung mit der Angabe konkreter URLs ist eine Rechts- durchsetzung nicht möglich.
5. Urheberinformationen dürfen nicht gelöscht werden
Urheber-, Lizenz- und Nutzungsinformationen oder auch Nutzungsvorbehalte, die beispielsweise mit den Werken in den eingebetteten Metadaten gespeichert wurden, dürfen nicht gelöscht wer- den.
Nach § 95c UrhG ist das bereits heute verpflichtend. Der Paragraf wird aber in aller Regel nicht beachtet. So werden diese Informationen beim Upload auf Webseiten oder Social-Media-Plattfor- men sehr häufig automatisiert entfernt. Bereits 2016 gab das Landgericht Hamburg der Klage eines Fotografen gegen Facebook wegen dieser Praxis recht.
Die Umsetzung von § 95c UrhG muss über Haftungs- und Schadensersatzregelungen abgesichert werden. Mit einem Verbandsklagerecht für Urheberrechtsfragen oder durch Abmahnfähigkeit könn- te das Gesetz endlich durchgesetzt werden.
Alle Maßnahmen, die für die Erhaltung des Urheberrechts und die Sicherung der Glaubwürdigkeit von Fotografie notwendig sind, müssen so umgesetzt werden, dass KI-Unternehmen und professi- onelle Nutzer haftungsrechtliche Risiken eingehen, wenn sie gegen die Regeln verstoßen.
Wir fordern, dass die Maßnahmen zum Schutz der Urheberrechte als unmissverständliche und durchsetzbare Verpflichtung formuliert werden, ähnlich wie Maßnahmen in der Produkthaftung. Die Vernichtung von Urheberinformationen und das Verschleiern der Herkunft von Trainingsdaten darf nicht als rechtliche Lappalie behandelt werden. Die bestehenden Gesetze müssen auch angewen- det werden.
6. Der Unterschied zwischen authentischer Fotografie und KI-Bildern muss erkennbar bleiben
Es muss klar unterschieden werden:
- Gibt eine Fotografie authentisch wieder, was in der Realität stattgefunden hat?
- Wurde eine Fotografie manipuliert oder in einer Weise bearbeitet, die den ursprünglichen Bildinhalt nicht mehr korrekt wiedergibt?
- Handelt es sich um ein fotorealistisch generiertes Bild, das nicht durch einen fotografischen Vorgang entstanden ist?
Inzwischen sind KI-generierte Bilder visuell nicht mehr von authentischen Fotografien zu unter- scheiden. Sie werden bereits heute vielfältig für Manipulation und Betrug eingesetzt.
Als Folge wird die Beweiskraft von Fotografien nicht nur im Einzelfall sondern grundsätzlich in Frage gestellt. Ohne wirksame Gegenmaßnahmen werden diese Entwicklungen die Demokratie und un- sere freiheitliche Grundordnung gefährden. Der Deutsche Fotorat hat schon 2023 vor der Verwendung von KI-Bildern in der Berichterstattung gewarnt.
KI-generierte Bilder und andere KI-Werke müssen als solche gekennzeichnet werden. Darüber hin- aus muss es auch Standards zur Kennzeichnung von authentischen Fotografien und zur Sicherung dieser Authentizität geben. Die technischen Grundlagen dafür sind bereits vorhanden. Der Gesetzgeber ist gefordert, Regelun- gen zu finden, die sich nicht am abstrakten Streben nach Rechtssicherheit orientieren, wie es leider viele der heutigen Datenschutz-Regelungen erkennen lassen. Nötig sind praxisnahe Ansätze, die Nutzerinnen und Nutzern von Medien eine klare Orientierung bieten. Artikel 50 der europäischen KI-Verordnung fordert ab August 2026 eine Kennzeichnung KI-generierter Inhalte, doch es ist derzeit völlig unklar, wie diese Kennzeichnungen in der Praxis umgesetzt werden sollen und wer dafür verantwortlich ist. Inhaltlich wird die Kennzeichnung von “Deep Fakes” durch “Betreiber” von Angeboten verlangt. Alle diese Begriffe lassen großen Interpretationsspielraum, welche Art von Inhalten in welchem Nutzungsumfeld zu kennzeichnen sein werden. Da KI-Werkzeuge immer mehr in übliche Software zur Bildbearbeitung integriert werden, ist zu befürchten, dass Regelungen zur Abgrenzung zwischen authentischen Fotos und teilweise mit Hilfe von KI generierten Bildern entweder extrem komplex ausfallen werden oder wegen allgemeiner Formulierungen weitgehend wirkungslos bleiben.
Daher fordern wir Medienunternehmen und Online-Plattformen auf, aktiv daran mitzuarbeiten, klare Standards zum Umgang mit KI-generierten Bildern zu schaffen und ihren Nutzerinnen und Nutzern zu kommunizieren. Eine Form der Transparenz könnte zum Beispiel darin bestehen, im journalistischen Kontext jegliche Verwendung von KI-Bildern auszuschließen oder durch eine differenzierte Bildsprache authentische Fotos und illustrierende Darstellungen offensichtlich unterscheidbar ma- chen.
7. Die Rechte von Urheberinnen und Urhebern dürfen keine Verhandlungsmasse sein
Auch wenn dies in offiziellen Stellungnahmen derzeit ausgeschlossen wird, ist die Gefahr groß, dass Urheberrechte und andere Bestimmungen der europäischen KI-Regulierung beim Ringen um Handelsabkommen – insbesondere mit der konfrontativen US-Regierung – als Verhandlungsmasse eingesetzt werden. Immer wieder fordern Industrievertreter und Politiker die Rücknahme oder Aus- setzung von Teilen des AI Acts.
Der Wunsch nach Schutz von geistigem Eigentum darf nicht als fortschrittsfeindlich diffamiert wer- den. In der gegenwärtigen Debatte wird häufig der Eindruck erweckt, Regulierung behindere Innovation und stelle einen Standortnachteil dar. Das Gegenteil ist richtig. Europa hat die Chance, durch faire Marktregeln Anreize für neue Geschäftsmodelle zu schaffen. Wer im Verdrängungswettbewerb nach dem Verständnis der Regierungen in den USA and China alles den Interessen weniger Kon- zerne unterordnet, gibt die Möglichkeit eines echten Standortvorteils aus der Hand.
8. Europäische Regulierungsverfahren müssen transparent und demokratisch geführt werden
Das Beteiligungsverfahren zum europäischen Code of Practice für den AI Act hat dramatische Defizite offenbart. Trotz monatelanger Konsultationen mit großem Aufwand kann von einer fairen demokratischen Willensbildung keine Rede sein. Das Mammutverfahren mit über 1400 Interessenvertretern wurde klar von Industrielobbyisten dominiert. Über 60% der Teilnehmer stammten aus ihren Reihen, wobei bei den meisten als “sonstige Industrievertreter” Ausgewiesenen keine klare Firmenzugehörigkeit erkennbar war. Vertreter von Rechteinhaber:innen stellten hingegen nur etwa ein Zehntel der Teilnehmer.
Die Leitenden der Arbeitsgruppen wurden nach einem intransparenten Verfahren berufen und stammten zu einem großen Teil von US-amerikanischen Forschungseinrichtungen mit engen Verbindungen zu KI-Anbietern.
Darüber hinaus konnten Industrievertreter:innen in nicht-öffentlichen Diskussionsrunden an der Ausgestaltung der Richtlinien mitwirken. Ihre Behauptungen, wonach viele regulatorische Ansätze technisch nicht realisierbar seien, wurden nicht hinterfragt, sondern führten in vielen Fällen zur Abschwächung entworfener Regelungen. Organisationen der Zivilgesellschaft konnten hingegen die jeweils aktuellen Fassungen nur in Online-Sitzungen unter großem Zeitdruck zur Kenntnis nehmen.
Für die jetzt anstehenden Debatten zur Reform der CDSM-Richtlinien und einer eventuellen Reform des AI Acts müssen Prozesse und Rahmenbedingungen geschaffen werden, die eine faire Beteiligung aller Interessengruppen ermöglichen. Die Zukunft generativer KI-Systeme darf nicht in der alleinigen Kontrolle weniger Konzerne in den USA und China liegen. Eine Schwächung oder Aussetzung der Urheberrechte führt nicht zu einer Stärkung der europäischen KI-Unternehmen, sondern zur Entwertung des Datenschatzes, den die europäische Kreativbranche hervorgebracht hat.
Die vollständige Stellungnahme finden Sie hier: [Link zum PDF/Download
Aktuelle Kommentare