Grafik Christian HerzenbergerDieser Beitrag unternimmt den Versuch, die Belichtung für digitale Aufnahmemedien mit Hilfe des Zonensystems neu zu verstehen und für die praktische Anwendung aufzubereiten, so dass konsistente Bildergebnisse direkt aus der Kamera realisiert werden können. Er soll auch Anregung sein, dass die hier dargestellte Form der Belichtung als Open-Source-Beitrag von jedem Hersteller aufgegriffen werden möge, der diesen Betrachtungen etwas abgewinnen kann:

Es sei vorausgeschickt, dass mir dieser Zugang sehr bei meiner konkreten Arbeit hilft, auch wenn die technischen Voraussetzungen derzeit nur eine näherungsweise Umsetzung erlauben. Aufgezeigt werden soll, wie ein modifiziertes Verständnis des Zonensystems dazu verhelfen kann, die Belichtung von Motiven mit unterschiedlichem Motivkontrast schon bei der Aufnahme so aufzubereiten, dass eine nachträgliche Tonwertkorrektur zur Bildoptimierung, außer für kreative Zwecke, weitgehend entfallen kann; dass also die Digitalfotografie in die Lage versetzt wird, konsistente Bildergebnisse direkt aus der Kamera zu liefern.

Dazu habe ich eine Tabelle angefertigt, wo mein Zugang exemplarisch dargestellt ist und die weitgehend selbsterklärend für den Betrachter sein sollte. Trotzdem eine „Gebrauchsanweisung“:

Mein Ansatz geht davon aus, das Zonensystem, mit seiner Einteilung von 0 – 10 Belichtungszonen, als grundlegende Skala für die Positionierung von Belichtungswerten bei Motiven mit unterschiedlichem Kontrast zu nutzen. Aber nicht in seiner klassischen Form, schon gar nicht mit lateinischen Zahlenwerten versehen, sondern – resultierend aus der Erkenntnis, dass es sich bei der Zonenskala dem Prinzip nach um nichts anderes als eine umgekehrte Tonwertskala handelt – definiert als Promilleskala von 0 ‰ bis 1000 ‰. Ergänzend dazu findet sich auf der Darstellung eine sich umgekehrt proportional darstellende Tonwertskala, ebenfalls in Promille; passend zu einer anzustrebenden 10-Bit-Ausgabe.
 

Grafik Christian Herzenberger

 
Zwischen diesen beiden Skalen entfalten sich nun die Belichtungswerte von drei exemplarisch ausgewählten Kontrastsituationen, die ich, um möglichst runde Zahlenwerte für die Darstellung zu erhalten, folgendermaßen definiert habe: Die Abstufung erfolgt nach logarithmischen Einheiten, entsprechend einem Motivkontrast von 1:100, 1:1000 und 1:10.000. Als Parameter dafür dienen Lichtwerte im Umfang von 6,6, 10 und 13,3 EV, die messtechnisch relevanten Remissions-Prozentwerte (REM); und die entsprechenden (maximalen) Dichtewerte, entsprechend Dmax 2,0, 3,0 und 4,0. Als Nullwert für den Belichtungsabgleich habe ich nicht das bekannte 18-%-Grau gewählt, sondern ein 10%-iges Grau, entsprechend einem Dichtewert von 1,0 – als tatsächlich mittleres Grau eines Kontrastumfangs von 1:100 (in der Darstellung auch entsprechend herausgehoben).

Die Darstellung der Belichtungsstufen erfolgt in dem ihnen entsprechenden Grauwert (welcher auch als Binärwert einer 10-Bit-Ausgabe lesbar ist). Lichtwerte, Remissions- und Dichtewerte stehen zueinander immer im gleichen Verhältnis, und entfalten sich unter einer gegebenen Kontrastsituation gleichmäßig, logarithmisch abgestuft, entlang der Skalen von Zonen- bzw. Tonwerten: Jeder gleichmäßige Belichtungssprung, in der Tabelle in Drittelstufen dargestellt, nimmt auf den Skalen seinen exakt definierten Platz ein – ist zonen- bzw. tonwertmäßig genau lokalisiert.

Bei höheren Motivkontrasten – hier 1:1000 und 1:10.000 – sehen wir aber, dass sich der „mittlere“ 10-%-Grauwert hin zu helleren Tonwerten, zu höheren Zonenwerten verschiebt – und mit ihm auch alle anderen Tonwerte, mit Ausnahme des reinen Weiß. Was sich logischerweise aus dem Umstand ergibt, dass hier auch ein größerer Umfang an Helligkeitswerten in das vorgegebene Raster der Zonen- und Tonwerte eingefügt werden muss, die Grundanforderung sich aber nicht ändert: Dass sich logarithmisch definierte Belichtungswerte stets im gleichen Abstand zueinander einfügen müssen, um korrekt darstellbar zu sein.
 

Grafik Christian Herzenberger

 
Dies führt nun praktisch dazu, dass sich hohe Kontrastunterschiede eng abgestuft, geringe Kontraste hingegen deutlich abgestuft auf den Referenzskalen abbilden – dass somit der Kontrastumfang nicht nur deutlich abgebildet wird, sondern auch der dafür zur Verfügung stehende Ausgaberaum umfassend optimal genutzt wird (entsprechend einem Histogramm, das sich, unabhängig vom Aufnahmekontrast, stets optimal darstellt). Die Wiedergabe von Bildern nähert sich dadurch weitgehend dem natürlichen Helligkeits-Empfinden des Auges an.

Dies führt nun zu konkreten Schlussfolgerungen bzw. „Regeln“, die sich aus dem Dargestellten ableiten lassen:

  1. Es ist logisch notwendig, dass bei gleicher Belichtung, aber unterschiedlichem Motivkontrast, die Kontrast„kurven“ angepasst und signalmäßig asymmetrisch verstärkt werden müssen – je höher der Kontrastumfang, desto stärker.
  2. Die Belichtungsermittlung erfolgt nicht mehr (allein) über einen (mittleren) Referenzwert, sondern leitet sich vorrangig aus dem vom Sensor erfassten Kontrastumfang einer Szenerie ab.
  3. Die Belichtungsinformation geschieht nicht mehr über eine klassische Lichtwaage, auch nicht über ein komplexes Histogramm, sondern der Fotograf bekommt über eine „Zonenwaage“ die Information vermittelt, welchen Tonwertumfang sein Motiv belegt, bzw. welchem Tonwert ein angemessenes Motivdetail entspricht. Eine Kontrasteinstellung als zusätzlicher, kreativ nutzbarer Belichtungsparameter erscheint wünschenswert.
  4. Belichtungstechnisch ermöglicht das Zonensystem exakt definierte Belichtungsänderungen, abhängig vom vorhandenen (oder auch wählbaren) Motivkontrast; da jeweils ein 100-‰-Sprung auf der Zonenskala genau 1/10 des Gesamtmotivkontrasts, somit des Belichtungsumfangs, entspricht.
  5. Die notwendige Belichtungsanhebung ist mathematisch exakt definiert: Entspricht ein 10-%-Grauwert bei einem Kontrast von 1:100 einem Zonenwert von 500 ‰, so gilt bei einem Kontrast von 1:1000 ein 666-‰-Zonenwert. Seine Position liegt demnach, bezogen auf den Belichtungsumfang von 10 Belichtungsstufen, 16,6 % höher. Eine Signalverstärkung entspricht genau diesem Prozentsatz, umfasst also konkret 1,66 Lichtwerte. Diese Regel gilt, ausgehend vom geringst darstellbaren Kontrastumfang, für alle darzustellenden Belichtungswerte und ist entsprechend anzuwenden.
  6. Sollte der Kontrastumfang eines Motivs das Aufzeichnungsvermögen des Sensors übersteigen, so lässt sich das Zonen-Prinzip auch auf eine dann notwendige HDR-Belichtung anwenden.
  7. Der letztliche Ausgabekontrast hat keinen unmittelbaren Einfluss auf die Positionierung der Lichtwerte auf der Zonenskala; weswegen die Zonenskala auch nicht belichtungstechnisch relevant ist, sondern einfach einen Referenzmaßstab dafür liefert, mit welchem Tonwert ein bestimmter Belichtungswert (im Ausgabemedium) darzustellen ist.
  8. Bezüglich der Farbdarstellung gelten die gleichen Zonen-Regeln: Es wird also jeder Farbwert, ausgehend vom Motivkontrast, exakt auf der Zonenskale verortet und damit in seiner Farb(ton)darstellung genau festgelegt.
  9. Eine zumindest 10-Bit-Ausgabe wäre im Hinblick auf eine genauere Darstellung auch kontrastreicher Motive möglichst anzustreben, der gültige 8-Bit-JPEG-Standard grundsätzlich zu hinterfragen.
  10. Es drängt sich der zwingende Verdacht auf, dass ein solches Verständnis von Belichtung auch entsprechende Auswirkungen auf die Funktion von Belichtungsautomatiken haben muss.

 

Grafik Christian Herzenberger

 
Argumente und Schlussfolgerungen

Mein Ansatz soll nicht nur das Fotografieren mit der Digitalkamera vereinfachen, sondern, durch weitgehenden Entfall der Notwendigkeit nachträglicher Tonwertkorrektur, auch Arbeitserleichterung und Zeitersparnis bringen. Und er soll dazu verhelfen, dass ein gegebener Belichtungsumfang exakt (!) im darstellbaren Tonwertspektrum verortet wird – dadurch aber auch kontrolliert(er) und besser nachvollziehbar manipulierbar wird, wenn dies gewünscht ist. Die Zonen- bzw. Tonwertskala – in meinem Zugang ja nur zwei gegenläufige Betrachtungsarten des Themas – geben die Struktur vor, in die sich ein Motiv mit gegebenen Kontrastumfang natürlich und, vor allem, gesetzmäßig (!) einfügt.

Es geht nicht um ein (nachträgliches) Manipulieren der Kontrastkurve, vielmehr variiert die Aufzeichnung des Motivkontrasts schon seines Umfangs wegen zwischen:

  • STEIL, wenn es sich um ein kontrastarmes Motiv handelt, dessen geringe Kontraste dadurch besser herausgearbeitet werden
  • NORMAL, wenn der Motivkontrast mit dem Ausgabeumfang übereinstimmt (der vom Ausgabemedium 8-Bit-JPEG bestimmt wird, aber idealer Weise möglichst auf ein mindestens 10-Bit-Niveau gehoben werden sollte)
  • FLACH, wenn Motive mit hohem Kontrast für ein begrenztes Ausgabemedium aufbereitet werden müssen (vergleichbar einer HDR-Ausgabe)

Verschiedene Methoden der Anwendung sind denkbar:

  1. Der Kontrastumfang eines Motivs wird automatisch registriert und für eine korrekte Ausgabe automatisch aufbereitet.
  2. Der Ausgabekontrast wird mit Hilfe einer „Tonwertwaage“ manuell eingestellt, die Auskunft über den hellsten, den dunkelsten und einen angemessenen Tonwert gibt; an den Motivkontrast angepasst.
  3. Der Ausgabekontrast wird nach Belieben gewählt – Abweichungen vom konkreten Motivkontrast können kreativ genutzt werden.
  4. In der Bildbearbeitung kann der Bildkontrast – nachvollziehbar – innerhalb der Darstellungsbreite variiert werden.

Diese Form der Kontrastbeeinflussung unterscheidet sich von bisher vorgegebenen Werkzeugen bzw. Einstellungen hauptsächlich dadurch, dass hier der Kontrast mit konkreten Werten, in reproduzierbaren Abstufungen beeinflusst werden kann – dass die Kontrasteinstellung als ein zusätzlicher, die Bildausgabe wesentlich bestimmender, Belichtungsparameter neu definiert wird.

Interessant wäre es, den Motivkontrast als EV-Stufen vorzugeben. Gleichzeitig erscheint es auch sinnvoll, die bisherigen, aus Filmzeiten übernommenen ISO-Werte neu als EV-Verstärkungsstufen, ausgehend von einem genormten Basiswert (entsprechend ISO 100) zu definieren. Dadurch wird es möglich, die Kontrast- und Belichtungsparameter in ihrer wechselseitigen Abhängigkeit zueinander darzustellen und wahrzunehmen

Dadurch, dass der Aufnahmesensor selbst zur Belichtungsmessung und -steuerung herangezogen wird, entfallen künftig mehr oder weniger aufwändige Messmodule, einschließlich unterschiedlicher Messmethoden. Allenfalls könnte ein, ebenfalls über den Sensor gesteuerter Autofokus mit selektiven Messfeldern dafür sorgen, für definierte AF-Bereiche auch eine konkrete Tonwertinformation zu liefern.

Evident scheint auch das Ende der herkömmlichen SLR-Technologie zu sein, lässt sich doch beim Spiegelreflex-Prinzip der Sensor selbst nicht zur Belichtungs- und AF-Steuerung verwenden. Da aber der Entfall eines optischen Suchers eine Verarmung der Fotografie bedeutete, wäre eine Alternative, den Schwingspiegel durch einen starren Spiegel oder ein Teilerprisma zu ersetzen.

Für eine automatische Belichtungssteuerung ist es entscheidend, dass unterschiedliche Motivkontraste nicht einheitlich aufbereitet werden – was das Versagen von Automatiken hauptsächlich begründet –, sondern dass unterschiedliche Kontraste auch unterschiedliche Bewertung erfahren, und dass eben nicht ein „durchschnittlicher Grauwert“ allein (der nur zur Erfassung einer Grundhelligkeit, damit zum eigentlichen Belichtungsabgleich, nötig ist) für eine korrekte Belichtung sorgen kann, sondern dass ein Motiv in seiner gesamten Helligkeitsstruktur erfasst und korrekt umgesetzt werden muss.

Genau das ermöglicht die Digitalfotografie – weil das Aufnahmemedium gleichzeitig auch „misst“ (eigentlich Photonen zählt) und damit befähigt wird, Motive nicht allein in ihrer „durchschnittlichen“ Helligkeit zu erfassen, sondern aus einer Analyse heraus auch korrekte Darstellungen abzuleiten vermag – wenn die Vorgabe passt. Weil das aber im Moment nicht so erfolgt – allenfalls automatisierte Ansätze dazu in die Kameras verbaut werden (zuschaltbare Kontrast- oder Tonwertkorrekturen) –, war es mir ein Anliegen, dieses (irgendwie leidige) Thema gründlich zu analysieren, und mit einer freien Interpretation des Zonensystems eine, wie ich glaube, gültige Aussage treffen zu können.

Nebenbei hat sich damit (für mich) auch die Frage danach beantwortet, warum wir so sehen (können) wie wir (so abweichend von digitaler Aufzeichnungstechnik) halt sehen: Weil auch unsere Augen letztlich nichts anderes als Photonenzähler sind – die aber nicht einer linearen Interpretation unterliegen (wenig ist nichts, mehr ist besser, und viel mehr ist viel, viel besser), sondern die die richtigen Schlüsse aus den Differenzen der Photonenmengen zu ziehen vermögen (mehr ist mehr, und weniger ist weniger – aber stets im proportionalen Maß).

Letztlich auch eine philosophische Frage … 😉

(Christian Herzenberger)