Grafik Christian HerzenbergerDieser Beitrag unternimmt den Versuch, ein Verständnis von Licht und Farbe zu vermitteln, das sich von rein technischen Zugängen frei macht, und der dabei zeigen möchte, dass unserem Gesichtssinn ein durchaus logisches, auch für den Laien gut verständliches Prinzip der Wahrnehmung zu Grunde liegt. Womit dann auch der Geist frei werden möge, diese Einsichten in der Anwendung auf technisches Gerät – hier vorzugsweise die digitale Aufnahmetechnik – umzusetzen und anzuwenden:

Seit wir digital fotografieren, hat auch das Thema Farbe in die Köpfe der Fotografen intensiver Einzug gehalten, als dies zu Analogzeiten je ein Thema sein konnte. Die direkte Umwandlung von Licht mit seinem Farbspektrum in elektrische Signale – der digitale Aufnahmeprozess – hat uns in die Lage versetzt, auch weitgehenden Einfluss auf die Wiedergabe rezipierter Licht- und Farbwerte zu nehmen. Eng damit verbunden ist die Festlegung konkreter „Farbräume“, und die Ausgestaltung verschiedener mathematischer Modelle, zur Umsetzung von Lichtimpulsen in mehr oder weniger exakt definierte Farb- und Helligkeits-Ausgabewerte.

Wer sich unvoreingenommen mit diesen Zugängen auseinandersetzt, wird wohl nicht umhin kommen, festzustellen, dass es eine relativ breite Lücke zwischen den Farben der Natur und jenen Farbwerten gibt, die technisch überhaupt dargestellt werden können. Über weite Bereiche scheint es unmöglich zu sein, Farben in ihrer maximalen Intensität wiederzugeben, worunter dann auch die Farbsättigung, die Farbdifferenzierung, die Darstellung von Farbnuancen spürbar leiden.

Interpolationen

Wir haben zur Kenntnis genommen, dass unsere Sensoren mitnichten in der Lage sind, die vorhandene Farben in ihrem vollen Spektrum aufzuzeichnen. Besonders sichtbar sind diese Defizite dort, wo man sie, in Kenntnis aktueller Sensortechnik, gerade nicht erwarten würde: Vor allem im und rund um das Grün-Spektrum – obwohl besonders die Grün-Rezeption bevorzugt wird. Andererseits behelfen wir uns seit den Anfängen der Digitalfotografie mit – mehr recht als billigen – Interpolationsmethoden über offensichtliche Mankos hinweg. Ausnahmen, wie 3-Chip-Videokameras, mit voll- wie gleichwertiger Farbrezeption, bestätigen die verbreitete Regel.

Dass unter dieser Vorgehensweise nicht nur die Farbdarstellung, sondern auch das nominelle Auflösungsvermögen der Sensoren zwingend leidet, ist ein inzwischen oft gleichgültig zur Kenntnis genommener „Kollateralschaden“, dem aktuell gerade mal ein anderes Sensorenkonzept entgegenzuwirken trachtet. Allerdings auch nur unter der Einschränkung, dass sich hier die Interpolationsprozesse von der Fläche in die Tiefe des, die Auflösung wahrenden, Sensoraufbaus verlagern. Nun könnte man einwenden, dass trotz der bekannten Beschränkungen, denen die Digitalfotografie bzgl. ihres Lichtsammel- und Farbdifferenzierungsvermögens unterliegt, inzwischen ein hohes Maß an Bild- und auch Farbqualität die Ergebnisse des digitalen Aufnahmeprozesses prägt. Mithin sich ein tieferer, diese Beschränkungen hinterfragender Zugang zum Thema eigentlich auch erübrigen könnte – und wir in vorauseilender Dankbarkeit der kleinen, vielleicht auch größeren, Verbesserungen harren sollten, die uns im Fortschritt der Technologie mit Sicherheit noch ereilen werden …

Das dahinter stehende Problem ist allerdings ein tieferes – eines, das sich mit herkömmlichen, rein technisch-mathematischen Zugängen auch zukünftig nur bedingt in den Griff bekommen lassen wird. Weswegen es sinnvoll erscheint, technische Umsetzungen in Resonanz zu unseren Sinneswahrnehmungen zu bringen – ein aus der Natur abgeleitetes Verständnis von Licht und Farbe zu formulieren, um damit nachhaltig(er)e Technik zu entwickeln und anzuwenden.

Thesen

In Form einiger bewusst redundanter Thesen, die ich hier zur Diskussion stellen möchte, sind zwei Zugänge direkt miteinander verknüpft – bedingen einander auf’s Engste (* siehe Danksagung weiter unten). Wie schon bei der Erörterung der Dynamischen Belichtungssteuerung wäre auch hier die Zonenskala als Promille-Skala bzw. als 10-Bit-Einteilung darstellbarer Helligkeitswerte definiert. Dem Primat des Themas Farbe gehorchend, schien es mir aber geboten, die Zonen- bzw. Tonwertskalen dahingehend zu modifizieren, dass ich sie verdreifacht habe – um sie als Summenwerte der einzelnen Farb-Zonenwerte darstell- und lesbar zu machen. So gesehen könnte man sie auch, abweichend von der zu Grunde liegenden Zonenskala, als Farbzonenskala bezeichnen. Übrigens ergibt sich aus der markant logarithmischen Abstufung „zufällig“ eine Analogie zu Dezibel- bzw. Dichtewerten – deren Umfang, wohl auch „zufällig“, die physiologischen Grenzen des Gesichtssinns markieren …
 

Grafik Christian Herzenberger

 
Wie ich schon in meinem Beitrag zur Dynamischen Belichtungssteuerung versucht habe zu zeigen, eignet sich das Zonensystem nicht nur dafür, das Sehen, die Wahrnehmung an sich, korrekt zu beschreiben, sondern ließe sich auch – unter veränderten technischen Rahmenbedingungen – hervorragend einem erweiterten und verbesserten Zugang zum Thema Belichtungssteuerung voranstellen. Da Licht aus genau definierten Frequenzen des elektromagnetischen Spektrums besteht, die wir gemeinhin als Farben wahrnehmen, liegt der Schluss nahe, dass nicht nur Licht in Summe, sondern auch sein Farbspektrum den Regeln des Zonensystems gehorcht – und dadurch eine wesentliche Vereinfachung und Präzisierung im Licht- und Farb-Reproduktionsprozess befördert werden könnte.

Licht und Farbe

Licht und Farbe sind keine voneinander unabhängigen „Phänomene“, die man dadurch in den Griff bekommt, dass man sie zergliedert, und ihre einzeln formulierten Attribute über technisch aufwändige Rechen- bzw. Interpolationsprozesse zu stimmigen Ausgabewerten zusammenführt. Farbe ist letztlich eine differenzierende Darstellung von Helligkeitswerten. Keine Farbe ist unabhängig von der Helligkeit eines Motivs vorstell- oder darstellbar. Jeder beliebige Farbwert ist eindeutig einem Helligkeitswert zwischen den Extremen Schwarz und Weiß zugeordnet – und kann mit diesem über einen Zonenwert (einen umgekehrt proportionalen Tonwert) verknüpft werden.

In diesem Sinne betrachte ich die Farbwerte (Potenzialwerte) als Teilmengen von Helligkeitswerten – hingegen Helligkeitswerte als Summenwerte von Farbwerten. Sowohl Helligkeits- wie Farbwerte sind einem gegebenen Kontrastumfang unterstellt, woraus sich deren Zonenwerte ableiten. Dort, wo Lichtwerte über EINEN Zonenwert verortet sind, benötigt man zur Farbverortung DREI Potenzialwerte, die als Summenwert den Zonenwert jenes Lichtwertes spiegeln, den sie repräsentieren. Ein einfaches Beispiel: Zone 1500 besteht aus den Farbpotenzialwerten R500 G500 B500 – oder aus jedem anderen Farbwert, der als Summenwert 1500 ergibt …

Subjektive Farbwahrnehmung ist davon abhängig, dass das Mischungsverhältnis der Grundfarben möglichst genau ermittelt und dargestellt wird, dass die Farbwerte über Helligkeit und Kontrast einem entsprechenden Zonenwert zugeordnet sind – als eigentliche Herausforderung für eine technische Umsetzung. Dieser Zugang erübrigt es, dem Thema mit aufwändiger Farbmetrik und differenzierenden Attributen, wie „Sättigung“, „Helligkeit“ oder „Farbigkeit“, beizukommen. Mit der Verknüpfung von Licht- und Farbwerten über die Zonenskala wird das gesamte Spektrum der Farben nicht nur eindeutig definiert, sondern auch – unter der Prämisse einer darauf abgestimmten Mess- und Ausgabetechnik – weitgehend uneingeschränkt darstellbar.

Eine Über- oder Unterbetonung einzelner Farben – im Bemühen, diese an subjektives Empfinden anzugleichen – weicht der Einsicht, dass gerade dieser Zugang verhindert, dass sich das volle Farbspektrum korrekt darstellen läßt. Weil die Wahrnehmung, die Wertigkeit einzelner Farben, physiologisch – also subjektiv – bedingt ist, befördert eine technisch anbiedernde Aufbereitung keineswegs die Korrektheit der Farbrezeption. Vielmehr ist es nötig, das Farbspektrum gleichwertig zu erfassen und proportional zueinander zu bewerten, um auf dieser Basis eine direkte, natürliche, nicht interpretierende Darstellung zu ermöglichen. So prägt die objektive Darstellung von Helligkeit und Kontrast „automatisch“ den natürlichen Grad der Wahrnehmung von Farben – und umgekehrt. Erst das Auge wandelt die objektive Darstellung in subjektives Empfinden – womit erst solcherart generierte Bilder auf unterschiedliche Betrachter, auch bei unterschiedlichem Sehvermögen, gleichermaßen korrekt wirken können. Aus diesem Zugang ergeben sich definitive Aussagen, die sich zur Farbwahrnehmung treffen lassen:

  1. Reines Schwarz und Weiß in der Ausgabe ergibt sich nur aus einer völligen Abwesenheit von Information am Sensor (Zone 0), oder die völlige Überbelegtheit des Sensorvolumens (Zone 3000).
  2. Alle erfassbaren Sensorwerte sind in jedem Fall an einen Farb- oder Grauwert gebunden – wobei neutrale Grauwerte natürlich aus völlig übereinstimmenden Grundfarbwerten definiert sind.
  3. Die primären Grundfarben Rot, Grün und Blau, als auch die (komplementären) Sekundärfarben Cyan, Magenta und Yellow, sind über das Zonensystem genau lokalisiert – erstere an den Zonenwert 1000, letztere an den Zonenwert 2000 gebunden.
  4. Eine Farbe ist nicht durch einen absoluten Lichtwert – eine bestimmte Motivhelligkeit – definiert, sondern allein durch ihre adäquate Quantifizierung. Die Korrektheit der Farbwiedergabe wird durch die genaue Erfassung des Motivkontrastes, und der daraus abgeleiteten, symmetrischen Verteilung von hellen und dunklen Farbwerten auf der Zonenskala definiert.
  5. Als Grenzwerte für den darzustellenden Kontrastumfanges gelten jene Farbwerte, deren Grundfarbanteile zusammen oder einzeln die Grenzen der Sensorrezeption tangieren.

Die Belichtungssteuerung orientiert sich allein am Lichtwertumfang, also dem Kontrastumfang eines Motivs. Über den Sensor findet die Messung auf Pixelebene statt – ermöglicht dadurch eine Motivanalyse bis in den Mikrokontrast hinein. Erst die exakte Ermittlung der Lichtwerte – paralell zur Analyse der zugehörigen Farbwerte – legt über den Kontrastumfang deren Lage auf der Zonenskala fest. Die spektrale Bewertung des Lichts befördert die korrekte Darstellung von Motiven – besonders solchen, die keine expliziten Schwarz- und Weißanteile aufweisen.

Voraussetzung dafür ist, dass die Belichtungsmessung der Kamera nicht auf einen mittleren Grauwert geeicht ist, sondern dass sich ein „mittleres Grau“, aus dem konkreten Kontrastumfang, somit den Helligkeits- gleich Farbwerten eines Motivs, und deren symmetrischer Anordnung, individuell ableitet.

Sensoren

Aus diesen Überlegungen heraus läßt sich auch die Anforderung an eine Sensortechnik – eigentlich eine „Antennentechnik“, weil einen Teilaspekt des elektromagnetischen Spektrums „empfangend“ wird – definieren, mit einem grundlegend andersartigen Aufbau, dafür einem sehr direkten Zugang zur Erfassung von Licht in seinem sichtbaren Spektrum. Ein solcher Sensor besitzt, je Pixel, einen dreidimensionalen, pyramidenförmigen Aufbau – in vier übereinander liegenden Ebenen angeordnete, lichtempfindliche Elemente, die, von oben nach unten, für die drei Grundfrequenzen und die Gesamtfrequenz des sichbaren Lichts empfindlich sind. Die Flächen der einzelnen Ebenen vergrößern sich dabei, ausgehend von der kleinsten, oberen, um die Faktoren 2, 3 und 4 für die darunter liegenden.

Wichtig dabei ist, dass den exakt zu ermittelnden Frequenzen auch unterschiedlich dimensionierte Rezeptionsflächen zur Verfügung stehen – deren Flächenanteile an der Gesamtfläche aber, mit jeweils 25%, gleich groß ausfallen. Damit wird drei Grundanforderungen Genüge getan:

  1. werden die Farbanteile des Lichtspektrums in einem „Punkt“ vereint aufgezeichnet.
  2. stehen den drei Grundfarben (Grundfrequenzen) jeweils angemessene, ihre individuelle Streuung berücksichtigende, Rezeptionsflächen zur Verfügung; die dann
  3. in jeweils gleicher Wertigkeit erfasst und zur Interpretation herangezogen werden.

 

Grafik Christian Herzenberger

 
Dem neutralen Flächenanteil fällt dabei die Aufgabe zu, die Lichtwertverteilung – also den Kontrastumfang – zu ermitteln, um auf dieser Basis eine genaue Zuordnung erfasster Farbwerte zu ermöglichen. Die Farbflächen hingegen weisen dem jeweiligen Bildpunkt, abhängig vom Kontrastumfang, einen passenden Zonenwert zu. Dadurch entfällt die, sowohl beim Bayer- als auch beim Foveon-Sensor nötige, Interpolation der Farbwerte – sie stehen als direkte Messergebnisse zur Verfügung. Das Auflösungsvermögen entspricht der nominellen Pixelzahl des Sensors.

(Christian Herzenberger)
 
 
Danksagung:

An dieser Stelle möchte ich jenen beiden Personen Referenz erweisen, denen sich dieser Zugang in Summe verdankt, ohne dass ich hier detailiert auf deren Wirken eingehen möchte (das kann und sollte umfassend nachgelesen werden).

Ansel Adams verdankt sich die grundlegende Formulierung des Zonensystems, auf dessen Basis ich schon in einem Beitrag nachdrücklich für eine Dynamische Belichtungssteuerung plädiert habe. Ich betone dies deswegen, weil dieser Zugang nicht nur ein in meinen Augen genialer ist, sondern weil hier – auf die Farbwahrnehmung angewandt – das Potenzial des Zonensystems nochmals nachhaltig erweitert, seine Bedeutung vertieft wird.

Harald Küppers verdanke ich mein grundlegendes Verständnis von Farbe und deren Wahrnehmung. Sein Zugang zum Thema Farbe – wiewohl der Drucktechnik zugewandt – ist ähnlich zonenbasierend, wie es Adams für die Darstellung unterschiedlicher Helligkeitswerte in Grauwerte angedacht und praktiziert hat. So, wie Adams‘ Zonensystem Pate stand für eine freie Interpretation und erweiterte Anwendung auf das Thema digitale Belichtung, dient mir Küppers hier als Ausgangspunkt für freie Überlegungen und Interpretationen zum Thema digitale Farbe.