Illustration Randolf ButzbachOder: Warum Thomas Maschke Unrecht hat und die weit verbreitete Sorge, der Sensor könnte eine höhere Auflösung haben als das Objektiv, selbst dann unbegründet ist, wenn sie zutreffend ist:

Mit dem Erscheinen der Nikon D800/E mit ihren 36 Megapixeln auf Leica-Format (vulgo: Kleinbild, Vollformat, FX), der Sony Alpha 77 mit 24 Megapixeln auf APS-C, der Sony RX100 mit ihren 20 Megapixeln auf 1-Zoll-Sensor, oder dem Handy Nokia 808 mit fast 42 Megapixeln ist die Diskussion um die Grenzen der Auflösung voll entflammt: Für diese hohe Auflösung gäbe es doch gar keine Objektive mehr, sagen die einen. Die anderen argumentieren etwas hilflos, dass es vor vielen Jahren mal einen Film namens Agfa-Ortho 25 gab, mit einer extrem hohen Auflösung, und da hätte schließlich auch keiner nach der Qualität der Objektive gefragt. Dazwischen liegen diejenigen, die mit ihren MicroFourThirds- oder gar Kompakt-Kameras, die ein sehr feines Pixelraster haben (vgl. Tab. 1), überraschenderweise brauchbare Bilder erhalten – was gemäß der weit verbreiteten Meinung zum Thema Auflösung eigentlich undenkbar ist.
 

µm MP mm2 Format Modelle, beispielhaft
8,5 12 24×36 KB D700
8,0 6 15,8×23,6 DX („APS-C“) D70
6,0 24 24×36 KB a900, D3X
5,2 80 40,4×53,7 MF 645 IQ180
4,9 36 24×36 KB D800/E
4,0 24 15,8×23,6 DX („APS-C“) a77, NEX-7
3,7 16 13,0×17,3 MFT GH2, OM-D
2,4 20 13,2×8,8 CX RX100
2,0 10 5,6×7,4 1/1,63“ XZ-1, LX-5
1,4 42 7,5×10,8 1/1,2“ Nokia 808
1,3 16 4,7×6,2 1/2,33“ FS45, WB100
1,1       Smartphone

Tabelle 1: Die Pixelgröße verschiedener (mehr oder weniger) aktueller Kameras.

„Wieviele Megapixel verkraftet eine Kamera?“ fragte Thomas Maschke hier kürzlich und kam zu dem Schluss, „dass 16 Megapixel bei MicroFourthirds – ebenso wie 24 Megapixel im APS-C-Format – schon sehr sportlich sind“.

Die richtige Antwort hätte jedoch gelautet: „Je mehr (Megapixel und Dynamikumfang), desto besser!“

Verwirrend?

Dann der Reihe nach:

Die Auflösungsgrenze des perfekten Objektivs

In den folgenden Betrachtungen gehen wir davon aus, dass wir ein perfektes Objektiv haben, das keinerlei Abbildungsfehler aufweist. Auch gehen wir davon aus, dass unser Bildpunkt ein perfekter Punkt ist, also ohne Ausdehnung, mit 100 % Helligkeit im Punkt selber und direkt daneben 0 % Helligkeit. Um die Betrachtungen weiterhin zu vereinfachen, beschränken wir uns auf streng monochromatisches Licht, also Licht nur einer einzelnen Wellenlänge. Diese Situation werden wir in der Praxis so natürlich niemals vorfinden. Sie hilft uns aber beim Verständnis der Situation: Wenn wir alles weglassen, was die Auflösung offensichtlich begrenzt – gibt es dann eine Grenze der Auflösung und, wenn ja, wo liegt sie?

Diese gedachte letztgültige Grenze bezeichnen wir in der Physik als „theoretische Grenze“. Der Begriff unterscheidet sich entschieden von dem gleichen Begriff der Alltagssprache, wo der Ausdruck „theoretische Grenze“ gleichbedeutend ist mit angenommene, vermutete, vermeintliche, oder hypothetische Grenze. Hier geht es dagegen um eine letztgültige Grenze, die eigentlich nur in unserer perfekten, vereinfachenden Gedankenwelt erreichbar ist.

Auch die im Folgenden gezeigten perfekten Bilder existieren eigentlich nur in unserer Gedankenwelt. In der Realität werden viele andere Effekte, wie z.B. Linsenfehler, die Bilder überlagern. All das ist in den gerechneten Bildern nicht berücksichtigt worden. Die Bilder sind auf den jeweiligen zu zeigenden Einfluss des Bildes reduziert. Sie stellen somit die Situation in einer perfekten Welt dar.

Kann nun also ein perfektes Objektiv unendlich hoch auflösen, oder gibt es eine letzte Grenze, wo nichts mehr geht, selbst wenn alles perfekt sein sollte? –  Ja, es gibt eine solche Grenze: Auch wenn die Linse selber perfekt sein sollte: Sie ist nicht unendlich groß. Irgendwo hat sie einen Rand und eine Fassung – selbst wenn die Linse einen Durchmesser von 39,3 m hat, wie z.B. das European Extremely Large Telescope (E-ELT) der Europäischen Südsternwarte. Irgendwo ist Schluss: Auch wenn alles andere perfekt sein sollte – um den Rand kommen wir nicht herum: Und diese Begrenzung des Linsendurchmessers ist es, die die Auflösung letztgültig begrenzt (und die der Hauptgrund für die derart großen Durchmesser von Teleskopen ist).

Wenn wir also einen perfekten Punkt durch unsere Optik abbilden wollen, werden wir es trotz perfekter Optik nicht schaffen, diesen perfekten Punkt als perfekten Punkt abzubilden: Der Punkt wird durch die begrenzte Größe des Strahlengangs verbreitert. Der Grund dafür ist, dass die Lichtwelle um Hindernisse herumlaufen, also in den Schattenraum eindringen kann. Diese Beobachtung wurde bereits 1665 (Datum der Veröffentlichung) von Francesco Maria Grimaldi (1618 – 1663) beschrieben und ist allgemein als Beugung bekannt.

Scheinbar unabhängig davon beschrieb Christiaan Huygens 1690 den der Beugung zugrundeliegenden Mechanismus, der als Huygenssches Prinzip bekannt ist: Man kann jeden Punkt einer Welle als Überlagerung von unendlich vielen dicht nebeneinander liegenden sogenannten „Elementarwellen“ ansehen, die sich derart gegenseitig überlagern, dass wir die bekannte Wellenfront sehen. Trifft nun eine Wellenfront auf ein Hindernis, ist dieser Überlagerungsmechanismus gestört, und die Elementarwelle kann sich ungehindert in den Schattenraum hinter dem Hindernis ausbreiten.
 

Illustration: Randolf Butzbach

Abbildung 1: Beugungs- oder Airyscheibchen, bei 550 nm Wellenlänge des Lichtes (grün) und Blende 8.

 
Abb. 1 zeigt, wie das Bild des perfekten Punktes verbreitert wird, wenn die Auflösung durch die eben besprochene Beugung begrenzt ist. In der Mitte haben wir ein starkes Maximum, dann fällt die Intensität nach außen hin stark bis auf Null ab, steigt dann wieder an, aber bei weitem nicht so stark wie im Zentrum, fällt wieder auf Null ab und so weiter und so fort, bis ins Unendliche – oder bis der Bildausschnitt zu Ende ist.

Wie breit ist nun das Punktbild? Es gibt zwar keine natürliche Begrenzung des Punktbildes außer dem Bildausschnitt, allerdings wird die Intensität irgendwann so schwach, dass wir es nicht mehr wahrnehmen können, wo wir sagen: Hier ist kein Beugungsbild mehr zu sehen. In Abb. 1 ist der dritte Ring noch deutlich erkennbar, der vierte nur noch wahrnehmbar und beim fünften Ring (in den Ecken) fängt schon das „Kaffeesatzlesen“ an. Der Übergang zwischen Beugungsscheibchen und Nicht-Beugungsscheibchen ist also fließend. Wie sollen wir dann die Breite messen?

Nun, das hängt davon ab, was wir mit dem Zahlenwert machen wollen. Meistens misst man die volle Breite beim halben Maximalwert. Das geht normalerweise einfach und entspricht auch unserer intuitiven Vorstellung von Breite. Für manche Zwecke kann es dagegen günstiger sein, die halbe Breite bei 61 % zu messen, weil sie dann der Standardabweichung entspricht. Für andere Zwecke ist es sinnvoller, die Breite bei 10 % und/oder 90 % zu messen. Wir sehen schon: Die Definition der Breite ist vollkommen willkürlich und hat mehr mit äußeren Umständen als mit der Kurve selbst zu tun.

Das Beugungsbild des Punktes, auch Beugungs- oder (nach George Biddell Airy (1801-1892), der es erstmals berechnet hat) Airy-Scheibchen genannt, nimmt dagegen eine gewisse Sonderstellung ein: Die Berechnung dieses Beugungsbildes ist „per Hand“ extrem aufwendig und wurde erst durch den Einsatz von Computern und mathematischen Bibliotheken normal handhabbar.

Dagegen ist die Berechnung der Lage des ersten Beugungsminimums des Airy-Scheibchens ein Klacks: Der Ring des ersten Beugungsminimums hat einen Radius von
 

Formel

 
wobei R den Abstand der Blende zum Schirm/Film, λ die Wellenlänge des Lichts und D den Durchmesser der Blende bezeichnet.

Wenn wir nun als Abstand R die Brennweite f annehmen (was nicht vollkommen falsch ist bei symmetrischen Objektiven und Fokussierung auf Unendlich) und berücksichtigen, dass die sogenannte Numerische Apertur NA, also die Blendenzahl, sich als Verhältnis von Brennweite f zu Blendendurchmesser D ergibt, erhalten wir
 

Formel

 
Und damit haben wir einen sehr einfachen Ausdruck für den Radius des ersten Beugungsminimums. Ein Ausdruck, der sehr viel einfacher zu messen ist, als die Breite des Beugungsbildes bei 50 % Maximalwert – zumal wir den Wert des Maximums hier gar nicht kennen müssen. Folglich bietet sich dieser Wert geradezu an, als Maß für die (halbe) Breite des Beugungsscheibchens. Wichtig ist aber, im Hinterkopf zu behalten, dass dieses Maß vollkommen willkürlich gewählt wurde, und dass das Beugungsscheibchen sich ausbreitet, bis es nicht mehr wahrnehmbar ist oder am Rand des Films bzw. Sensors abgeschnitten wird.

Zwei Beugungsscheibchen

Was passiert nun, wenn wir einen zweiten Punkt auf dem Film abbilden? Dumme Frage: Zwei Bilder natürlich, wie in Abb. 2a gezeigt.
 

Illustration: Randolf Butzbach

Abbildung 2a: Zwei Beugungsscheibchen im Abstand von 10 µm bei 550 nm (grün) und Blende 8.

 
Und wenn wir sie weiter zusammenrücken, wie z.B. in Abb. 2b gezeigt? Na, dann haben wir immer noch zwei Bilder. Aber Vorsicht! Die Ausläufer der beiden Beugungsbilder überlappen sich irgendwann nicht unwesentlich. In den Bereichen, wo die Intensitäten der einzelnen Beugungsbilder bereits auf 37 % abgefallen ist, summieren sich die beide Intensitäten zu stattlichen 73 % der Intensität im Zentrum: Der Dunkelraum zwischen den beiden Bildern hat sich mit Licht angefüllt und ist nur noch 27 % dunkler als die Maximalhelligkeiten und damit nur noch mehr oder weniger gut erkennbar.
 

Illustration: Randolf Butzbach

Abbildung 2b : Zwei Beugungsscheibchen im Abstand von 5,4 µm bei 550 nm (grün) und Blende 8. Das Rayleigh-Kriterium ist für diese Wellenlänge und Blende erfüllt. Die Intensität fällt zwischen den Maxima auf 73 % des Maximalwerts ab.

 
Wenn wir nun die beiden Beugungsbilder noch weiter zusammenschieben wie in Abb. 2c, läuft der Dunkelraum zwischen den beiden Beugungsbildern komplett zu und wir können die beiden Bilder nicht mehr auseinander halten. Es ist nur noch ein verbreitertes Beugungsbild erkennbar.
 

Illustration: Randolf Butzbach

Abbildung 2c: Zwei Beugungsscheibchen im Abstand von 4,2 µm bei 550 nm (grün) und Blende 8: Es gibt kein Minimum zwischen den beiden Maxima mehr, mit denen die beiden Beugungsbilder unterscheidbar wären. Die absolute Auflösungsgrenze ist erreicht (Sparrow-Grenze).

 
Und wenn wir die Beugungsbilder nun noch weiter zusammenschieben, verschmelzen sie komplett und erscheinen als einzelner Punkt, wie in Abb. 2d gezeigt.
 

Illustration: Randolf Butzbach

Abbildung 2d: Zwei Beugungsscheibchen im Abstand von 2 µm bei 550 nm (grün) und Blende 8: Die beiden Beugungsbilder können nicht mehr unterschieden werden und erscheinen als ein Punkt.

 
Der Übergang zwischen „klar voneinander unterscheidbar“ und „nicht mehr unterscheidbar“ ist also ebenfalls fließend. Zur Illustration ist in Abb. 3 der Kontrast zwischen Minimum und Maximum gegen den Abstand der Beugungsbilder aufgetragen:
 

Illustration: Randolf Butzbach

Abbildung 3: Der Kontrast zwischen den zwei Beugungsscheibchens aus Abb. 2, aufgetragen als Funktion des Punktabstands. Je enger die Punkte zusammenrücken, desto geringer wird der Kontrast zwischen den einzelnen Punkten, bis er irgendwann ganz verschwindet (Sparrow-Grenze). Das Rayleigh-Kriterium ist dagegen ein willkürlicher Punkt auf der Kurve.

 
Dabei ist der Kontrast definiert als
 

Formel

 
Wie viele Details wir schließlich erkennen, d.h. auflösen können, hängt dann davon ab, wie viel Kontrast wir (für das fertige, ausgedruckte und an der Wand hängende Bild) benötigen, um mit unserem Auge z.B. zwei Grashalme voneinander unterscheiden zu können.

Weil es grade so schön passt, kommt hier ein etwas abstrakterer Einschub: Für die Beschreibung der Auflösung werden in der Praxis statt der beschriebenen Punkte z.B. Linienmuster unterschiedlicher Periodenlängen verwendet, deren Helligkeit sich sinusförmig ändert, wie in Abb. 4 für verschiedene Periodenlängen skizziert: Die Helligkeitsänderung erfolgt also nicht sprunghaft von 0 % auf 100 %, sondern ändert sich sinusartig zwischen 0 % und 100 % wie in Abb. 4 a) gezeigt. Aber egal, ob wir nun Punkte oder sinusförmiges Streifenmuster abbilden: Die optischen Elemente „verschmieren“ den Kontrast: Die Unterschiede zwischen maximaler und minimaler Helligkeit sinken, je dichter die Linien zusammengepackt sind, also je kürzer die Periodenlänge bzw. je höher die Frequenz des Linienmusters ist. D.h. je mehr Linienpaare pro Millimeter abgebildet werden, desto „flauer“ ist der Kontrast, wie in Abb. 4 b) skizziert.
 

Illustration: Randolf Butzbach

Abbildung 4: Streifenmuster mit sinusförmigem Helligkeitsverlauf unterschiedlicher Periode (a) werden durch ein optisches System mit verringertem Kontrast abgebildet (b). Dabei wird der Kontrast umso geringer je dichter die Linienpaare zusammenrücken bis sie nicht mehr unterscheidbar sind (Skizze).

 
Wir können jetzt die Maxima und Minima für jede Linienfrequenz ausmessen und in einem Diagramm den so ermittelten Kontrast (ähnlich Abb. 3) gegen die Anzahl der Linienpaare pro Millimeter auftragen, wie in Abb. 5 gezeigt.
 

Illustration: Randolf Butzbach

Abbildung 5: Die Modulationsübertragungsfunktion (MTF) einer einzelnen runden Blende bei 550 nm Wellenlänge des Lichtes und Blende 2, 4, 8 und 16. Man sieht, dass bei Blende 16 der Kontrast bei 50 lp/mm bereits auf ca. 50% abgefallen ist und er bei ca. 110 lp/mm dann komplett verschwindet, während man bei Blende 2 bei 300 lp/mm noch knapp 60 % Kontrast hat.

 
Die Kurve beschreibt also, was von einst 100 % Kontrast im Objekt (Abb. 4 a) nach der Abbildung der sinusförmigen Linien im Bild (Abb. 4 b) noch übrig bleibt. Diese Kurve heißt Kontrast- oder Modulationsübertragungsfunktion (MÜF) bzw. Englisch Modulation Transfer Function (MTF)

Der Charme der MTF ist, dass man für jedes Element der Wiedergabekette eine solche MTF angeben kann, die man dann alle miteinander multiplizieren kann und so die gesamte Kontrastübertragung der Wiedergabekette erhalten kann. Das funktioniert allerdings nur für Sinusfunktionen – was uns also nichts nützt, weil so was im täglichen Leben ja wohl nur sehr selten vorkommt.

Wirklich?

Achtung, jetzt kommt’s ganz dicke: Joseph Fourier (1768 – 1830), dem man dafür gar nicht genug danken kann, hat herausgefunden, dass man jede Struktur – also auch unser Motiv bzw. Bild – als Überlagerung von Sinus-Funktionen, also Frequenzen, ansehen und beschreiben kann. Das Ergebnis dieser Umrechnung nennt sich dann vornehm (je nach Verfahren) Fourierreihe oder Fouriertransformation. Wir können folglich jedes Bild als Überlagerung von Sinusfunktionen betrachten, auf dessen Beschreibung im sogenannten Frequenzraum wir die MTF anwenden dürfen: Das ist der Grund, warum wir z.B. für die Messung der MTF Sinusfunktionen brauchen.

Aber zurück zu unseren anschaulicheren Beugungsscheibchen …

 
Nun habe ich die vier Versionen von Abb. 2 nicht ausschließlich zufällig ausgewählt. Insbesondere Abb. 2b beschreibt die Situation, wie sie allgemein diskutiert wird, wenn das Gespräch auf das Thema Auflösung kommt: Das Maximum des ersten Beugungsscheibchens fällt mit dem ersten Minimum des zweiten Beugungsscheibchens zusammen, was allgemein als Rayleigh-Kriterium bezeichnet wird. Nach allem, was wir bisher bereits wissen, ist mit dem Rayleigh-Kriterium nicht das Ende der möglichen Auflösung des Objektivs erreicht. Diesen Punkt sehen wir erst bei Bild 2c erreicht, wenn es kein Minimum zwischen den beiden Maxima mehr gibt: die sogenannte Sparrow-Grenze.

Warum redet dann alle Welt vom Rayleigh-Kriterium?

Ganz einfach: Erstens sind die Beugungsringe sehr leicht zu beobachten, und damit auszumessen: Ein Lineal reicht. Zweitens liegt im praktischen Leben zwischen Rayleigh-Kriterium und absoluter Auflösungsgrenze (Sparrow-Grenze) kein sehr großer Unterschied mehr. Als Auflösungsgrenze ist das Rayleigh-Kriterium vollkommen willkürlich gewählt, nur der Einfachheit der Berechnung geschuldet und als Abschätzung der Auflösungsgrenze nicht vollkommen falsch – besonders, wenn man, drittens, berücksichtigt, dass u.a. die Linsenfehler ja auch die Auflösung begrenzen (können). Oder, um es mit Lord Rayleighs eigenen Worten zu sagen:
 

„This rule is convenient on account of its simplicity and it is sufficiently accurate in view of the necessary uncertainty as to what exactly is meant by resolution.“

(Diese Faustformel ist dank ihrer Einfachheit bequem, und sie ist hinreichend genau, angesichts der zwangsläufigen Unsicherheit, was mit Auflösung tatsächlich gemeint ist.)

 
Die Auflösungsgrenze hat also nur indirekt mit dem Beugungsscheibchen zu tun. Richtig gelesen: nur indirekt. Die Beugung sorgt zwar für eine Verbreiterung des Punktes – die Auflösung ist aber letztendlich dadurch begrenzt, wie gut wir das Minimum (sofern es noch vorhanden ist) noch auflösen können, also es von den Maxima unterscheiden können. Also, wie gut wir die „Delle“ zwischen den Punktbildern erkennen können: Wir können die Auflösung des Objektivs also nicht losgelöst von unseren Beobachtungsmöglichkeiten sehen.

Das ist nun der Punkt, wo unser Film oder Sensor ins Spiel kommt. Denn der hat einen entscheidenden Einfluss darauf, ob, und wenn ja, wie gut wir die „Delle“ zwischen den beiden Punktbildern aufzeichnen können. Wir können die Auflösungsgrenze des Objektivs also nicht losgelöst von der Auflösungsgrenze unserer Bildaufzeichnung betrachten.

Daher ist die Frage „Wie viele Megapixel verkraftet eine Kamera?“ ungefähr so sinnvoll wie die Frage „Wie viele Liter Benzin verkraftet ein Auto?“ Was dem Objektiv sein Sensor ist, ist dem Auto sein Benzin. Das eine ist nötig, um mit dem anderen etwas anfangen zu können. Ohne Benzin fährt kein Auto und ohne (wie auch immer gearteten) Sensor gibt es kein verteilbares und diskutierbares vom Objektiv erzeugtes Bild.

Schauen wir uns also nun den Einfluss des Sensors auf die Auflösung des Gesamtsystems Objektiv-Sensor an:

Der Einfluss des Sensors auf die Gesamtauflösung

Die Kontrastauflösung

Der erste Einfluss des Sensors ist die Intensitäts- oder Kontrastauflösung: Die Detektierung von Licht basiert auf dem Photoeffekt, für dessen Erklärung übrigens Albert Einstein 1921 seinen Nobelpreis bekommen hat: Wenn ein Lichtteilchen („Photon“) auf ein Elektron trifft kann es – genügend hohe Energie, d.h. Frequenz oder kurze Wellenlänge, vorausgesetzt – das Elektron aus seiner Bindung an den Atomkern herausschlagen.

Film

Beim Film geht dabei die lichtempfindliche chemische Verbindung im Wortsinn in die Brüche. Stark vereinfacht ausgedrückt, werden die so entstandenen Bruchstücke im Entwicklungsprozess eingefärbt und die verbliebenen ganzen Verbindungen vom Fixierer herausgewaschen.

Je größer nun diese Verbindungen sind, desto wahrscheinlicher ist es, dass ein Photon eine Verbindung trifft und zerstört. Es reichen also bereits wenige Photonen aus, „um Schaden anzurichten“, sprich, der Film wird umso grobkörniger, je empfindlicher er ist. (Was allerdings nicht heißt, dass jeder grobkörnige Film auch hochempfindlich ist…) Dagegen sind hochauflösende Filme, also solche mit sehr kleinem Korn, gleichzeitig auch unempfindlich.

Weiterhin ist es beim Film so, dass mit jeder zerstörten Verbindung eine Verbindung weniger bleibt, die lichtempfindlich ist. Das heißt, je stärker der Film bereits lokal belichtet ist, desto unempfindlicher wird er an dieser Stelle und die Schwärzung geht in Sättigung. Überbelichtete Spitzlichter werden also nicht radikal abgeschnitten, sondern laufen sanft aus.

Für die Auflösungsgrenze bedeutet das, dass die Kontrastkurve zwischen den Punktbildern flach wird, also dem Erkennen der „Delle“ zwischen den Punktbildern entgegen wirkt. D.h. wie gut der Film die beiden Punktbilder auseinanderhalten kann, hängt also auch davon ab, wie der Film belichtet wird: Wird der Film unter- oder überbelichtet, mag der Unterschied in der Anzahl der belichteten Verbindungen nicht groß genug sein, um die „Delle“ noch erkennen zu können.

Sensor

Anders stellt sich die Situation beim Sensor dar: Hier geht keine Verbindung kaputt. D.h. das einzelne Bildelement (Pixel) bleibt während der ganzen Zeit der Belichtung gleichmäßig empfindlich. Die Elektronen werden von ihrer Bindung an den Atomkern gelöst („Äußerer Photoeffekt“) und in einem Kondensator gespeichert. Das so dem Atom fehlende Elektron wird sofort über den Schaltkreis nachgeliefert. Eine andere Möglichkeit besteht z.B. darin, eine Photodiode unter dem Einfluss des Lichtes leitfähig zu machen („Innerer Photoeffekt“) und so einen Kondensator zu (ent)laden.

In beiden Fällen ist dann aber irgendwann plötzlich Schluss: Der Kondensator ist vollständig ge- bzw. entladen, was dazu führt, dass (überbelichtete) Spitzlichter schlicht abgeschnitten werden. Da Elektronen unteilbar sind, also eine diskrete Anzahl Elektronen gespeichert ist, werden beim Auslesen des Sensors die gespeicherten Elektronen ausgezählt. D.h. das im Sensor gespeicherte Signal ist bereits von Natur aus digital. Folglich ist es (abgesehen von Marketinggründen) sinnlos, die Bittiefe des sogenannten Analog-Digital-Wandlers (ADC) zu vergrößern, wie immer wieder in den Foren gefordert wird. Der ADC kann keine größere Anzahl verschiedener Werte abliefern, als im Sensor Elektronen „produziert“ und gespeichert werden können.

Wie man leicht sieht, zählt dabei das Verhältnis vom gewollten Signal zum sogenannte Helligkeitsrauschen, also der Belichtung des Pixels unter anderem durch Wärme (der Sensor ist nicht nur für sichtbares Licht empfindlich!), der statistischen Streuung der einfallenden Photonen und damit der erzeugten Elektronen (bei identischer Belichtung!), sowie von der Belichtungszeit unabhängige Störungen, die durch das Auslesen entstehen.

Um mal Butter bei die Fische zu geben, ein konkretes Beispiel: Der Kodak KAF-40000 Fullframe-CCD-Sensor, dessen Spezifikationen sich sehr gut mit denen der Pentax 645D decken, hat laut Datenblatt (PDF-Datei) eine Kapazität von 42.000 Elektronen pro Pixel. Der Rauschuntergrund besteht dagegen aus 13 Elektronen Ausleserauschen, was ein Signal-Rausch-Verhältnis von 42.000:13 oder 3231:1 ergibt. Hinzu kommt (bei 60°  C Sensortemperatur) die wärmebedingte „Belichtung“ von 42 pA/cm2, d.h. 262 Millionen Elektronen pro Sekunde und Quadratzentimeter bzw., bei einer Pixelgröße von 6×6 µm2, 94 Elektronen pro Sekunde und Pixel. Dieser Wert verdoppelt sich alle 5,5°  C: Bei 65,5°  C sind es also schon 188 Elektronen/Sekunde, bei 71°C 376 Elektronen, usw. Bei einer angenommenen „Belichtungszeit“ von einer 1/50 Sekunde (also der Zeit zwischen letzten Löschen und Auslesen) ergäbe sich so bei 60°C Betriebstemperatur ein Wärmeanteil von ungefähr 2 Elektronen/Pixel. Zusammengenommen bedeutet das ein Signal-Rausch-Verhältnis von 42.000:(13+2) oder 2800:1. Damit hätten wir einen Dynamikumfang von 2800:1 oder 11,5 Blendenstufen, wie Kodak und Pentax ihn in den Technischen Daten kommunizieren.

Bei längeren Belichtungszeiten steigt der Wärmeanteil entsprechend. Hierbei hilft man sich damit, dass man den Wärmeanteil mit schwarz maskierten Pixeln an Bildrand misst und ihn dann nach der Belichtung vom eigentlichen Bild abzieht. Bei längeren Belichtungszeiten wird man nach der Aufnahme noch ein Bild mit der selben Belichtungszeit bei geschlossenem Verschluss aufnehmen und dieses Dunkelbild vom eigentlichen Bild abziehen. Besser ist natürlich, durch Kühlung dafür zu sorgen, dass der Wärmebeitrag möglichst klein bleibt, was aber bei Fotoapparaten weder praktikabel noch finanziell darstellbar ist.

Wenn wir die generierten Photoelektronen jetzt „digitalisieren“, dann brauchen wir zunächst z.B. einen 16-Bit-ADC, um die maximal 42.000 Elektronen aus dem Pixel voll darstellen zu können. Von den 16 Bit brauchen wir aber genau genommen nur 15,4 Bit. Davon sind die unteren 3,9 Bit mit den 15 Elektronen Auslese- und Wärmerauschen gefüllt, die wir sofort wegwerfen können, da sie keinerlei Information enthalten und uns somit auch nichts nützen. Übrig bleiben also wiederum nur – Überraschung!!! – 15,4-3,9=11,5 Bit echtes Signal, die wir platzsparend und verlustfrei in 12 Bit Datenbreite speichern können. Eine höhere Bittiefe bzw. Datenbreite wäre damit nur Verschwendung von Speicherplatz und erhöht die Speicher und Transferzeiten (Serienbilder!)) – – wobei es natürlich andererseits nichts schaden kann, die Datenbreite etwas größer auszulegen, um den statistischen Schwankungen im Rauschen Rechnung zu tragen: Die 13 Elektronen Ausleserauschen sind schließlich nur der Mittelwert.

Bleiben wir also für die folgende Betrachtung bei den 11,5 Blendenstufen bzw. Bit:

Für unsere Auflösungsgrenze bedeutet dies, dass bei perfekter Belichtung im Fall des Rayleigh-Kriteriums, dass wir in den Maxima einen digitalisierten Wert von 2800 haben und in der „Delle“ zwischen den beiden Punktbildern einen Wert von ca. 2050. D.h. es liegen ca. 750 Zählerwerte zwischen den Maxima und dem Minimum. Wir können die beiden Punktbilder also sehr gut voneinander unterscheiden.

Und auch wenn das Bild unterbelichtet sein sollte, bzw. wenn wir in die Schattenpartien des Bildes gucken, wo z.B. nur ein Zehntel des Maximums belichtet sein könnte, haben wir immer noch einen Zählerstand von 280 in den Maxima und von 205 im Minimum. Zwischen Maximum und Minimum liegen also immer noch ca. 75 Zählerwerte Abstand, die in der Weiterverarbeitung gestreckt werden können.

Ganz anders sieht die Welt aus, wenn wir das Bild z.B. in einer 8-Bit-JPEG-Datei speichern, die aufgrund der 8 Bit nur 256 verschiedene Werte pro Farbkanal annehmen kann: Hier würden in den Schattenpartien die Maxima einen Zählerstand von 25 erreichen und das Minimum würde bei 18 liegen., also grade mal 7 Zähler Unterschied. Der Wert läge also knapp über dem Rauschen, würde wohl weiterhin von JPEG-Artefakten überlagert, und sich vermutlich auch bei einer Kontrasterhöhung in der Bildbearbeitung nicht mehr sauber herausarbeiten lassen. Hinzu kommt, dass z.B. im sRGB-Farbraum die Schatten mit einem sogenannten gamma-Wert von 2,2 aufgehellt werden, damit sie dem natürlichen Seheindruck näher kommen. Diese Aufhellung erfolgte auch bei den hier gezeigten Beugungsbildern, um die Ringe um das Maximum im Zentrum erkennbar zu machen (vgl. Abb. 1). Abbildung 6 zeigt den Vergleich zwischen der linearen Helligkeitswiedergabe (gamma=1,0) und dem mit gamma=2,2 aufgehellten Bild.
 

Illustration: Randolf Butzbach

Abbildung 6: Der Einfluss der Gammafunktion auf die Unterscheidbarkeit von zwei Punkten: Links mit gamma=1,0, rechts mit gamma=2,2 wie im sRGB-Farbraum üblich.

 
Von Megapixeln: Viel hilft viel

Kommen wir nun zu dem meistdiskutierten Aspekt der Auflösung: Der Ortsauflösung des Sensors, oder, salopp gesagt, den Megapixeln.

Schauen wir uns zunächst den klassischen Fall an, in dem der Abstand der Bildpunkte größer ist als die Größe der Pixel und der Beugungsscheibchen. Im Beispiel in Abb. 7 befinden sich die Punkte wie in Abb. 2a in einem Abstand von 10 µm. Bei Verwendung eines 50-mm-Objektivs und bei einem Aufnahmeabstand von drei Metern entspricht dies einem Objektabstand von 0,6  mm, den wir hier abgebildet sehen. Das Bild ist mit einer Pixelgröße von 4 µm gerastert, was zum Beispiel 24 Megapixel auf APS-C entspricht. Wir können die beiden Punkte hier noch sauber unterscheiden.
 

Illustration: Randolf Butzbach

Abbildung 7: Die Beugungsbilder (550 nm, Blende 8) von zwei Punkten im Abstand von 10 µm bei einem Pixelraster von 4 µm: Die beiden Punkte können noch als zwei verschiedene Punkte erkannt werden.

 
Was passiert nun, wenn wir die Punkte auf das Rayleigh-Limit, also hier 5,4 µm bei Blende 8 und 550 nm Wellenlänge, zusammenschieben wie in Abb. 2b gezeigt? Abbildung 8 zeigt also dasselbe Bild wie Abb. 2b, jedoch mit 4 µm Sensorauflösung gerastert. Wie wir sehen, können wir jetzt die beiden Punkte nicht mehr unterscheiden. Sie verschmelzen zu einem einzelnen Punkt. Das ist der Fall, der in den Foren diskutiert wird: Er zeigt aber auch, dass uns das Rayleigh-Kriterium hier nicht weiterhilft als alleinige Definition der Auflösungsgrenze.
 

Illustration: Randolf Butzbach

Abbildung 8: Die Beugungsbilder (550 nm, Blende 8) von zwei Punkten im Abstand von 5,4 µm (Rayleigh-Kriterium) bei einem Pixelraster von 4 µm: Die beiden Punkte verschmelzen zu einem Punkt und können nicht mehr als zwei verschiedene Punkte erkannt werden.

 
Was passiert aber nun, wenn wir uns nicht an das Rayleigh-Kriterium halten, und die Auflösung des Pixelrasters einfach weiter erhöhen, auf, sagen wir 1 µm, was laut gängiger Forenweisheit vollkommen sinnlos sein soll? Das Ergebnis sehen wir in Abb. 9:
 

Illustration: Randolf Butzbach

Abbildung 9: Dieselbe Situation (erfülltes Rayleigh-Kriterium) wie in Abb. 8, jedoch bei einem Pixelraster von 1 µm. Dank der hohen Auflösung können die beiden Punkte wieder als zwei verschiedene Punkte erkannt werden.

 
Wir können jetzt die „Delle“ zwischen den beiden Beugungsscheibchen wieder auflösen, und erkennen, dass es sich um zwei Punkte handelt statt einen, wie im Fall von Abb. 8 gezeigt.

Wenn wir das Raster nun noch weiter erhöhen (würden), auf sagen wir 0,1 µm, so erhalten wir Bild 2b: Denn nichts anderes stellt Bild 2b dar. Die für die Illustration dieses Artikels mit 0,1 µm gerasterte Summe der „analogen“ Airy-Funktionen.

Je höher die Pixelauflösung des Sensors ist, desto genauer kann also das Bild aufgezeichnet werden und desto feinere Informationen können herausgearbeitet werden.

Die Beschränkung der Diskussion auf Rayleigh-Kriterium und Pixelgröße, die angeblich größer sein muss als jenes, ist somit nur sehr grob, ähnlich wie ein Schnitzwerk mit der Axt.

Schlussfolgerung für den Sensor

Gilt also das Fazit: „Je mehr Megapixel pro Fläche, desto besser“?

Ja und nein. Ja, weil dann die Ortsauflösung des Sensors steigt. Nein, weil je mehr Pixel pro Quadratmillimeter untergebracht sind, desto kleiner wird die Pixeloberfläche und desto unwahrscheinlicher wird es, dass (wie beim Filmkorn) ein Photon in ein Pixel trifft – bei teilweise gleichbleibenden Störeinflüssen, also Beiträgen zum Rauschen. Das Pixel wird also unempfindlicher, während manche Störeinflüsse gleich bleiben und somit das Signal-Rauschverhältnis sinkt, was unserer Intensitäts-Auflösung entgegenwirkt.

Gilt also doch: Je größer die Pixel desto größer das Signal-Rauschverhältnis?

Auch hier haben wir wieder ein Ja-Aber: Denn je größer die Pixel werden, desto empfindlicher wird zwar das einzelne Pixel für das Licht (wie gewollt), aber gleichzeitig wird es auch (ungewollt) empfindlicher für Störeinflüsse wie z.B. Wärme. Das Signal-Rauschverhältnis verbessert sich also irgendwann nicht mehr. Das Einzige, was hilft, ist durch ein intelligentes Schaltungsdesign das Ausleserauschen möglichst gering zu halten und den Wärmeanteil aufwendig durch Kühlung zu reduzieren – wobei letzteres in einer Kamera selten praktikabel ist.

Die Hohe Kunst des Sensorbaus besteht also jetzt darin, die sich widerstrebenden Eigenschaften Ortsauflösung (Megapixel) einerseits und Intensitätsauflösung (Dynamikumfang) andererseits durch konstruktive Tricks zu „versöhnen“ und für die jeweilige Anwendung den besten Kompromiss aus beiden zu finden.

Jenseits des monochromatischen Beugungsscheibchens

Bisher haben wir andere wesentliche Einflüsse ausgeblendet. Allen voran sei hier erwähnt, dass unsere bisherigen Betrachtungen sich auf monochromatisches Licht einer mittleren Wellenlänge bezogen. In der Praxis hat man normalerweise statt einer einzelnen scharf definierten Wellenlänge weißes Licht bzw. ein größeres Wellenlängenintervall wie in Abb. 10 skizziert:
 

Illustration: Randolf Butzbach

Abbildung 10: Überlagerung der Beugungsscheibchen von verschiedenen Wellenlängen bei Blende 8. Bei dem Punktabstand ist das Rayleigh-Kriterium für grünes Licht (grüne Linie) erfüllt, während rotes Licht (rote Linie) nicht mehr aufgelöst werden kann und die blauen Beugungsscheibchen (blaue Linie) noch sehr klar von einander unterscheidbar sind. Die praktisch beobachtbare Auflösung für weißes Licht ist also ein Mischung aus allen Wellenlängen. Aus Gründen der Klarheit wurden die einzelnen Beugungsbilder weggelassen und nur die Summe gezeigt.

 
In Abb. 10 ist – wie bisher diskutiert – das Rayleigh-Kriterium für grünes Licht erfüllt. Für blaues Licht dagegen ist bei gleichem Punktabstand das Rayleigh-Kriterium in weiter Ferne, während die beiden Punkte bei rotem Licht nicht mehr unterschieden werden können und zu einem Punkt verschmelzen.

Dabei bezieht sich Abb. 10 ausschließlich auf das Beugungsscheibchen. Im Fall von Glasoptiken (Objektiven) muss man in der Praxis weiterhin z.B. die Dispersionseigenschaften des Glases berücksichtigen, also wie stark sich der Brechnungsindex des Glases in Abhängigkeit von der Wellenlänge ändert – und damit wie unterschiedlich stark die einzelnen Farben des Lichtstrahls abgelenkt werden. Dabei kann es z.B. passieren, dass der Auflösungsvorteil des Beugungsscheibchens am blauen Ende durch die Dispersionseigenschaften des Glases wieder zunichte gemacht wird.

Auch hier ist also der Übergang von klar aufgelöst zu nicht aufgelöst fließend. Man wird aber immer alle Beugungsbilder der einzelnen Wellenlängen / Farben gleichzeitig sehen, bzw. auf dem Sensor aufzeichnen.

Und das bringt uns nun zu der Farbempfindlichkeit des Sensors. Der Bayer-Sensor „sieht“ bekanntlich nur jedes zweite Pixel in der selben Farbe, wobei der einzelne Farbkanal sauber definiert ist. Beim Foveon-Sensor wird dagegen jeder Farbkanal mit jeder Farbe belichtet – nur unterschiedlich stark gewichtet und die nachfolgende Mathematik muss daraus die Farbinformationen extrahieren. Die Beurteilung, welches Verfahren die besseren Ergebnisse liefert, liegt weit jenseits dieses Beitrags.

Auch haben wir andere reale Einflüsse wie z.B. Abbildungsfehler oder den Antialias-Filter (sofern vorhanden) ausgeblendet. Als weitere Schritte müssten wir beim Sensor die Gradationskurve bzw. die Stellung der Kontrastregler im Bildbearbeitungsprogramm sowie die Wiedergabefunktion des Druckers und Papiers berücksichtigen. Im Fall des Films beeinflussen das Vergrößerungs- bzw. Projektionsobjektiv sowie die Gradationskurve des Fotopapiers die Auflösungsgrenze. Und schließlich und endlich hat auch unser Auge eine Wiedergabefunktion mit nachgeschalteter extrem leistungsfähiger „Bildverarbeitung“.

Es gibt aber keine Rayleigh-Grenze (wie hier unterstellt), ab der von jetzt auf sofort nichts mehr aufgelöst wird. Stattdessen nimmt der Kontrast der (immer gröberen) Details immer mehr ab, bis bei der Sparrow-Grenze der Kontrast bei 0 % angelangt ist und somit keine Details mehr unterscheidbar sind. Es gibt also keinen scharfen Übergang zwischen „aufgelöst“ und „nicht aufgelöst“.

In der Praxis erweist sich damit die gängige Faustregel „Maximale Blende gleich zweimal Pixelgröße in Mikrometern“ als um mindestens 1–2 Blendenstufen zu pessimistisch.

Das Thema ist also weitaus komplexer, als es hier darstellbar ist. Wenn der Text jedoch ein bisschen zum Verständnis der Grenzen der Auflösung beigetragen hat und zeigen konnte, das diese Grenzen weiter gesteckt sind, als gemeinhin angenommen, so ist das Ziel erreicht.

Zu guter Letzt …

… bleibt noch anzumerken, dass sich unsere Betrachtungen darauf bezogen, dass wir ein perfektes Objektiv haben, das keinerlei Abbildungsfehler aufweist, das es in der Praxis so eigentlich nicht gibt. Wie gesagt: „eigentlich“. Die modernen Optikschmieden sind heute jedoch durchaus in der Lage, Optiken (und dabei denke ich jetzt auch an Spiegeloptiken) zu bauen, bei denen die Abbildungsfehler der „Linse“ gegenüber der Beugungsgrenze vernachlässigbar sind. Die Auflösung der Optik kann also gegebenenfalls nicht durch irgendwelche Fehler in den Abbildungseigenschaften der Optik begrenzt sein, sondern erst durch die Beugung, wie hier dargestellt. Oder, anders ausgedrückt: Perfekte Optiken, nur begrenzt durch die Beugung, existieren tatsächlich.

(Randolf Butzbach)
 
 
R.B. ist promovierter Physiker und hat sich u.a. mit den Grenzen der Auflösung von Optiken für Röntgenstrahlen beschäftigt. Privat fotografiert er seit seinem 10. Lebensjahr.

Mit Dank an Hubert H. Nasse, Carl Zeiss AG, für die Durchsicht und wertvolle Anregungen.
 
 
Zum Weiterlesen:
Wie liest man MTF-Kurven? (PDF-Datei)
Wie liest man MTF-Kurven? – Teil II (PDF-Datei)