Illustration Randolf ButzbachOder: Warum Thomas Maschke Unrecht hat und die weit ver­brei­tete Sorge, der Sensor könnte eine höhere Auf­lö­sung haben als das Objek­tiv, selbst dann unbe­grün­det ist, wenn sie zutref­fend ist:

Mit dem Erschei­nen der Nikon D800/E mit ihren 36 Mega­pi­xeln auf Leica-Format (vulgo: Klein­bild, Voll­for­mat, FX), der Sony Alpha 77 mit 24 Mega­pi­xeln auf APS-C, der Sony RX100 mit ihren 20 Mega­pi­xeln auf 1-Zoll-Sensor, oder dem Handy Nokia 808 mit fast 42 Mega­pi­xeln ist die Dis­kus­sion um die Gren­zen der Auf­lö­sung voll ent­flammt: Für diese hohe Auf­lö­sung gäbe es doch gar keine Objek­tive mehr, sagen die einen. Die ande­ren argu­men­tie­ren etwas hilf­los, dass es vor vielen Jahren mal einen Film namens Agfa-Ortho 25 gab, mit einer extrem hohen Auf­lö­sung, und da hätte schließ­lich auch keiner nach der Qua­li­tät der Objek­tive gefragt. Dazwi­schen liegen die­je­ni­gen, die mit ihren Micro­FourT­hirds- oder gar Kom­pakt-Kame­ras, die ein sehr feines Pixel­ras­ter haben (vgl. Tab. 1), über­ra­schen­der­weise brauch­bare Bilder erhal­ten – was gemäß der weit ver­brei­te­ten Mei­nung zum Thema Auf­lö­sung eigent­lich undenk­bar ist.
 

µm MP mm2 Format Modelle, bei­spiel­haft
8,5 12 24x36 KB D700
8,0 6 15,8x23,6 DX („APS-C“) D70
6,0 24 24x36 KB a900, D3X
5,2 80 40,4x53,7 MF 645 IQ180
4,9 36 24x36 KB D800/E
4,0 24 15,8x23,6 DX („APS-C“) a77, NEX-7
3,7 16 13,0x17,3 MFT GH2, OM-D
2,4 20 13,2x8,8 CX RX100
2,0 10 5,6x7,4 1/1,63“ XZ-1, LX-5
1,4 42 7,5x10,8 1/1,2“ Nokia 808
1,3 16 4,7x6,2 1/2,33“ FS45, WB100
1,1       Smart­phone

Tabelle 1: Die Pixel­größe ver­schie­de­ner (mehr oder weni­ger) aktu­el­ler Kame­ras.

„Wieviele Megapixel verkraftet eine Kamera?“ fragte Thomas Maschke hier kürz­lich und kam zu dem Schluss, „dass 16 Mega­pi­xel bei Micro­Fourt­hirds – ebenso wie 24 Mega­pi­xel im APS-C-Format – schon sehr sport­lich sind“.

Die rich­tige Ant­wort hätte jedoch gelau­tet: „Je mehr (Mega­pi­xel und Dyna­mik­um­fang), desto besser!“

Ver­wir­rend?

Dann der Reihe nach:

Die Auf­lö­sungs­grenze des per­fek­ten Objek­tivs

In den fol­gen­den Betrach­tun­gen gehen wir davon aus, dass wir ein per­fek­tes Objek­tiv haben, das kei­ner­lei Abbil­dungs­feh­ler auf­weist. Auch gehen wir davon aus, dass unser Bild­punkt ein per­fek­ter Punkt ist, also ohne Aus­deh­nung, mit 100 % Hel­lig­keit im Punkt selber und direkt dane­ben 0 % Hel­lig­keit. Um die Betrach­tun­gen wei­ter­hin zu ver­ein­fa­chen, beschrän­ken wir uns auf streng mono­chro­ma­ti­sches Licht, also Licht nur einer ein­zel­nen Wel­len­länge. Diese Situa­tion werden wir in der Praxis so natür­lich nie­mals vor­fin­den. Sie hilft uns aber beim Ver­ständ­nis der Situa­tion: Wenn wir alles weg­las­sen, was die Auf­lö­sung offen­sicht­lich begrenzt – gibt es dann eine Grenze der Auf­lö­sung und, wenn ja, wo liegt sie?

Diese gedachte letzt­gül­tige Grenze bezeich­nen wir in der Physik als „theo­re­ti­sche Grenze“. Der Begriff unter­schei­det sich ent­schie­den von dem glei­chen Begriff der All­tags­spra­che, wo der Aus­druck „theo­re­ti­sche Grenze“ gleich­be­deu­tend ist mit ange­nom­mene, ver­mu­tete, ver­meint­li­che, oder hypo­the­ti­sche Grenze. Hier geht es dage­gen um eine letzt­gül­tige Grenze, die eigent­lich nur in unse­rer per­fek­ten, ver­ein­fa­chen­den Gedan­ken­welt erreich­bar ist.

Auch die im Fol­gen­den gezeig­ten per­fek­ten Bilder exis­tie­ren eigent­lich nur in unse­rer Gedan­ken­welt. In der Rea­li­tät werden viele andere Effekte, wie z.B. Lin­sen­feh­ler, die Bilder über­la­gern. All das ist in den gerech­ne­ten Bil­dern nicht berück­sich­tigt worden. Die Bilder sind auf den jewei­li­gen zu zei­gen­den Ein­fluss des Bildes redu­ziert. Sie stel­len somit die Situa­tion in einer per­fek­ten Welt dar.

Kann nun also ein per­fek­tes Objek­tiv unend­lich hoch auf­lö­sen, oder gibt es eine letzte Grenze, wo nichts mehr geht, selbst wenn alles per­fekt sein sollte? –  Ja, es gibt eine solche Grenze: Auch wenn die Linse selber per­fekt sein sollte: Sie ist nicht unend­lich groß. Irgendwo hat sie einen Rand und eine Fas­sung – selbst wenn die Linse einen Durch­mes­ser von 39,3 m hat, wie z.B. das European Extremely Large Telescope (E-ELT) der Euro­päi­schen Süd­stern­warte. Irgendwo ist Schluss: Auch wenn alles andere per­fekt sein sollte – um den Rand kommen wir nicht herum: Und diese Begren­zung des Lin­sen­durch­mes­sers ist es, die die Auf­lö­sung letzt­gül­tig begrenzt (und die der Haupt­grund für die derart großen Durch­mes­ser von Tele­sko­pen ist).

Wenn wir also einen per­fek­ten Punkt durch unsere Optik abbil­den wollen, werden wir es trotz per­fek­ter Optik nicht schaf­fen, diesen per­fek­ten Punkt als per­fek­ten Punkt abzu­bil­den: Der Punkt wird durch die begrenzte Größe des Strah­len­gangs ver­brei­tert. Der Grund dafür ist, dass die Licht­welle um Hin­der­nisse her­um­lau­fen, also in den Schat­ten­raum ein­drin­gen kann. Diese Beob­ach­tung wurde bereits 1665 (Datum der Ver­öf­fent­li­chung) von Fran­cesco Maria Gri­maldi (1618 – 1663) beschrie­ben und ist all­ge­mein als Beu­gung bekannt.

Schein­bar unab­hän­gig davon beschrieb Chris­tiaan Huy­gens 1690 den der Beu­gung zugrun­de­lie­gen­den Mecha­nis­mus, der als Huy­gens­sches Prin­zip bekannt ist: Man kann jeden Punkt einer Welle als Über­la­ge­rung von unend­lich vielen dicht neben­ein­an­der lie­gen­den soge­nann­ten „Ele­men­tar­wel­len“ anse­hen, die sich derart gegen­sei­tig über­la­gern, dass wir die bekannte Wel­len­front sehen. Trifft nun eine Wel­len­front auf ein Hin­der­nis, ist dieser Über­la­ge­rungs­me­cha­nis­mus gestört, und die Ele­men­tar­welle kann sich unge­hin­dert in den Schat­ten­raum hinter dem Hin­der­nis aus­brei­ten.
 

Illustration: Randolf Butzbach

Abbil­dung 1: Beu­gungs- oder Airy­scheib­chen, bei 550 nm Wel­len­länge des Lich­tes (grün) und Blende 8.

 
Abb. 1 zeigt, wie das Bild des per­fek­ten Punk­tes ver­brei­tert wird, wenn die Auf­lö­sung durch die eben bespro­chene Beu­gung begrenzt ist. In der Mitte haben wir ein star­kes Maxi­mum, dann fällt die Inten­si­tät nach außen hin stark bis auf Null ab, steigt dann wieder an, aber bei weitem nicht so stark wie im Zen­trum, fällt wieder auf Null ab und so weiter und so fort, bis ins Unend­li­che – oder bis der Bild­aus­schnitt zu Ende ist.

Wie breit ist nun das Punkt­bild? Es gibt zwar keine natür­li­che Begren­zung des Punkt­bil­des außer dem Bild­aus­schnitt, aller­dings wird die Inten­si­tät irgend­wann so schwach, dass wir es nicht mehr wahr­neh­men können, wo wir sagen: Hier ist kein Beu­gungs­bild mehr zu sehen. In Abb. 1 ist der dritte Ring noch deut­lich erkenn­bar, der vierte nur noch wahr­nehm­bar und beim fünf­ten Ring (in den Ecken) fängt schon das „Kaf­fee­satz­le­sen“ an. Der Über­gang zwi­schen Beu­gungs­scheib­chen und Nicht-Beu­gungs­scheib­chen ist also flie­ßend. Wie sollen wir dann die Breite messen?

Nun, das hängt davon ab, was wir mit dem Zah­len­wert machen wollen. Meis­tens misst man die volle Breite beim halben Maxi­mal­wert. Das geht nor­ma­ler­weise ein­fach und ent­spricht auch unse­rer intui­ti­ven Vor­stel­lung von Breite. Für manche Zwecke kann es dage­gen güns­ti­ger sein, die halbe Breite bei 61 % zu messen, weil sie dann der Stan­dard­ab­wei­chung ent­spricht. Für andere Zwecke ist es sinn­vol­ler, die Breite bei 10 % und/oder 90 % zu messen. Wir sehen schon: Die Defi­ni­tion der Breite ist voll­kom­men will­kür­lich und hat mehr mit äuße­ren Umstän­den als mit der Kurve selbst zu tun.

Das Beu­gungs­bild des Punk­tes, auch Beu­gungs- oder (nach George Bid­dell Airy (1801–1892), der es erst­mals berech­net hat) Airy-Scheib­chen genannt, nimmt dage­gen eine gewisse Son­der­stel­lung ein: Die Berech­nung dieses Beu­gungs­bil­des ist „per Hand“ extrem auf­wen­dig und wurde erst durch den Ein­satz von Com­pu­tern und mathe­ma­ti­schen Biblio­the­ken normal hand­hab­bar.

Dage­gen ist die Berech­nung der Lage des ersten Beu­gungs­mi­ni­mums des Airy-Scheib­chens ein Klacks: Der Ring des ersten Beu­gungs­mi­ni­mums hat einen Radius von
 

Formel

 
wobei R den Abstand der Blende zum Schirm/Film, λ die Wel­len­länge des Lichts und D den Durch­mes­ser der Blende bezeich­net.

Wenn wir nun als Abstand R die Brenn­weite f anneh­men (was nicht voll­kom­men falsch ist bei sym­me­tri­schen Objek­ti­ven und Fokus­sie­rung auf Unend­lich) und berück­sich­ti­gen, dass die soge­nannte Nume­ri­sche Aper­tur NA, also die Blen­den­zahl, sich als Ver­hält­nis von Brenn­weite f zu Blen­den­durch­mes­ser D ergibt, erhal­ten wir
 

Formel

 
Und damit haben wir einen sehr ein­fa­chen Aus­druck für den Radius des ersten Beu­gungs­mi­ni­mums. Ein Aus­druck, der sehr viel ein­fa­cher zu messen ist, als die Breite des Beu­gungs­bil­des bei 50 % Maxi­mal­wert – zumal wir den Wert des Maxi­mums hier gar nicht kennen müssen. Folg­lich bietet sich dieser Wert gera­dezu an, als Maß für die (halbe) Breite des Beu­gungs­scheib­chens. Wich­tig ist aber, im Hin­ter­kopf zu behal­ten, dass dieses Maß voll­kom­men will­kür­lich gewählt wurde, und dass das Beu­gungs­scheib­chen sich aus­brei­tet, bis es nicht mehr wahr­nehm­bar ist oder am Rand des Films bzw. Sen­sors abge­schnit­ten wird.

Zwei Beu­gungs­scheib­chen

Was pas­siert nun, wenn wir einen zwei­ten Punkt auf dem Film abbil­den? Dumme Frage: Zwei Bilder natür­lich, wie in Abb. 2a gezeigt.
 

Illustration: Randolf Butzbach

Abbil­dung 2a: Zwei Beu­gungs­scheib­chen im Abstand von 10 µm bei 550 nm (grün) und Blende 8.

 
Und wenn wir sie weiter zusam­men­rü­cken, wie z.B. in Abb. 2b gezeigt? Na, dann haben wir immer noch zwei Bilder. Aber Vor­sicht! Die Aus­läu­fer der beiden Beu­gungs­bil­der über­lap­pen sich irgend­wann nicht unwe­sent­lich. In den Berei­chen, wo die Inten­si­tä­ten der ein­zel­nen Beu­gungs­bil­der bereits auf 37 % abge­fal­len ist, sum­mie­ren sich die beide Inten­si­tä­ten zu statt­li­chen 73 % der Inten­si­tät im Zen­trum: Der Dun­kel­raum zwi­schen den beiden Bil­dern hat sich mit Licht ange­füllt und ist nur noch 27 % dunk­ler als die Maxi­mal­hel­lig­kei­ten und damit nur noch mehr oder weni­ger gut erkenn­bar.
 

Illustration: Randolf Butzbach

Abbil­dung 2b : Zwei Beu­gungs­scheib­chen im Abstand von 5,4 µm bei 550 nm (grün) und Blende 8. Das Rayl­eigh-Kri­te­rium ist für diese Wel­len­länge und Blende erfüllt. Die Inten­si­tät fällt zwi­schen den Maxima auf 73 % des Maxi­mal­werts ab.

 
Wenn wir nun die beiden Beu­gungs­bil­der noch weiter zusam­men­schie­ben wie in Abb. 2c, läuft der Dun­kel­raum zwi­schen den beiden Beu­gungs­bil­dern kom­plett zu und wir können die beiden Bilder nicht mehr aus­ein­an­der halten. Es ist nur noch ein ver­brei­ter­tes Beu­gungs­bild erkenn­bar.
 

Illustration: Randolf Butzbach

Abbil­dung 2c: Zwei Beu­gungs­scheib­chen im Abstand von 4,2 µm bei 550 nm (grün) und Blende 8: Es gibt kein Mini­mum zwi­schen den beiden Maxima mehr, mit denen die beiden Beu­gungs­bil­der unter­scheid­bar wären. Die abso­lute Auf­lö­sungs­grenze ist erreicht (Spar­row-Grenze).

 
Und wenn wir die Beu­gungs­bil­der nun noch weiter zusam­men­schie­ben, ver­schmel­zen sie kom­plett und erschei­nen als ein­zel­ner Punkt, wie in Abb. 2d gezeigt.
 

Illustration: Randolf Butzbach

Abbil­dung 2d: Zwei Beu­gungs­scheib­chen im Abstand von 2 µm bei 550 nm (grün) und Blende 8: Die beiden Beu­gungs­bil­der können nicht mehr unter­schie­den werden und erschei­nen als ein Punkt.

 
Der Über­gang zwi­schen „klar von­ein­an­der unter­scheid­bar“ und „nicht mehr unter­scheid­bar“ ist also eben­falls flie­ßend. Zur Illus­tra­tion ist in Abb. 3 der Kon­trast zwi­schen Mini­mum und Maxi­mum gegen den Abstand der Beu­gungs­bil­der auf­ge­tra­gen:
 

Illustration: Randolf Butzbach

Abbil­dung 3: Der Kon­trast zwi­schen den zwei Beu­gungs­scheib­chens aus Abb. 2, auf­ge­tra­gen als Funk­tion des Punkt­ab­stands. Je enger die Punkte zusam­men­rü­cken, desto gerin­ger wird der Kon­trast zwi­schen den ein­zel­nen Punk­ten, bis er irgend­wann ganz ver­schwin­det (Spar­row-Grenze). Das Rayl­eigh-Kri­te­rium ist dage­gen ein will­kür­li­cher Punkt auf der Kurve.

 
Dabei ist der Kon­trast defi­niert als
 

Formel

 
Wie viele Details wir schließ­lich erken­nen, d.h. auf­lö­sen können, hängt dann davon ab, wie viel Kon­trast wir (für das fer­tige, aus­ge­druckte und an der Wand hän­gende Bild) benö­ti­gen, um mit unse­rem Auge z.B. zwei Gras­halme von­ein­an­der unter­schei­den zu können.

Weil es grade so schön passt, kommt hier ein etwas abs­trak­te­rer Ein­schub: Für die Beschrei­bung der Auf­lö­sung werden in der Praxis statt der beschrie­be­nen Punkte z.B. Lini­en­mus­ter unter­schied­li­cher Peri­oden­län­gen ver­wen­det, deren Hel­lig­keit sich sinus­för­mig ändert, wie in Abb. 4 für ver­schie­dene Peri­oden­län­gen skiz­ziert: Die Hel­lig­keits­än­de­rung erfolgt also nicht sprung­haft von 0 % auf 100 %, son­dern ändert sich sinus­ar­tig zwi­schen 0 % und 100 % wie in Abb. 4 a) gezeigt. Aber egal, ob wir nun Punkte oder sinus­för­mi­ges Strei­fen­mus­ter abbil­den: Die opti­schen Ele­mente „ver­schmie­ren“ den Kon­trast: Die Unter­schiede zwi­schen maxi­ma­ler und mini­ma­ler Hel­lig­keit sinken, je dich­ter die Linien zusam­men­ge­packt sind, also je kürzer die Peri­oden­länge bzw. je höher die Fre­quenz des Lini­en­mus­ters ist. D.h. je mehr Lini­en­paare pro Mil­li­me­ter abge­bil­det werden, desto „flauer“ ist der Kon­trast, wie in Abb. 4 b) skiz­ziert.
 

Illustration: Randolf Butzbach

Abbil­dung 4: Strei­fen­mus­ter mit sinus­för­mi­gem Hel­lig­keits­ver­lauf unter­schied­li­cher Peri­ode (a) werden durch ein opti­sches System mit ver­rin­ger­tem Kon­trast abge­bil­det (b). Dabei wird der Kon­trast umso gerin­ger je dich­ter die Lini­en­paare zusam­men­rü­cken bis sie nicht mehr unter­scheid­bar sind (Skizze).

 
Wir können jetzt die Maxima und Minima für jede Lini­en­fre­quenz aus­mes­sen und in einem Dia­gramm den so ermit­tel­ten Kon­trast (ähn­lich Abb. 3) gegen die Anzahl der Lini­en­paare pro Mil­li­me­ter auf­tra­gen, wie in Abb. 5 gezeigt.
 

Illustration: Randolf Butzbach

Abbil­dung 5: Die Modu­la­ti­ons­über­tra­gungs­funk­tion (MTF) einer ein­zel­nen runden Blende bei 550 nm Wel­len­länge des Lich­tes und Blende 2, 4, 8 und 16. Man sieht, dass bei Blende 16 der Kon­trast bei 50 lp/mm bereits auf ca. 50% abge­fal­len ist und er bei ca. 110 lp/mm dann kom­plett ver­schwin­det, wäh­rend man bei Blende 2 bei 300 lp/mm noch knapp 60 % Kon­trast hat.

 
Die Kurve beschreibt also, was von einst 100 % Kon­trast im Objekt (Abb. 4 a) nach der Abbil­dung der sinus­för­mi­gen Linien im Bild (Abb. 4 b) noch übrig bleibt. Diese Kurve heißt Kon­trast- oder Modu­la­ti­ons­über­tra­gungs­funk­tion (MÜF) bzw. Eng­li­sch Modu­la­tion Trans­fer Func­tion (MTF)

Der Charme der MTF ist, dass man für jedes Ele­ment der Wie­der­ga­be­kette eine solche MTF ange­ben kann, die man dann alle mit­ein­an­der mul­ti­pli­zie­ren kann und so die gesamte Kon­trast­über­tra­gung der Wie­der­ga­be­kette erhal­ten kann. Das funk­tio­niert aller­dings nur für Sinus­funk­tio­nen – was uns also nichts nützt, weil so was im täg­li­chen Leben ja wohl nur sehr selten vor­kommt.

Wirk­lich?

Ach­tung, jetzt kommt’s ganz dicke: Joseph Fou­rier (1768 – 1830), dem man dafür gar nicht genug danken kann, hat her­aus­ge­fun­den, dass man jede Struk­tur – also auch unser Motiv bzw. Bild – als Über­la­ge­rung von Sinus-Funk­tio­nen, also Fre­quen­zen, anse­hen und beschrei­ben kann. Das Ergeb­nis dieser Umrech­nung nennt sich dann vor­nehm (je nach Ver­fah­ren) Fou­rier­reihe oder Fou­rier­trans­for­ma­tion. Wir können folg­lich jedes Bild als Über­la­ge­rung von Sinus­funk­tio­nen betrach­ten, auf dessen Beschrei­bung im soge­nann­ten Fre­quenz­raum wir die MTF anwen­den dürfen: Das ist der Grund, warum wir z.B. für die Mes­sung der MTF Sinus­funk­tio­nen brau­chen.

Aber zurück zu unse­ren anschau­li­che­ren Beu­gungs­scheib­chen …

 
Nun habe ich die vier Ver­sio­nen von Abb. 2 nicht aus­schließ­lich zufäl­lig aus­ge­wählt. Ins­be­son­dere Abb. 2b beschreibt die Situa­tion, wie sie all­ge­mein dis­ku­tiert wird, wenn das Gespräch auf das Thema Auf­lö­sung kommt: Das Maxi­mum des ersten Beu­gungs­scheib­chens fällt mit dem ersten Mini­mum des zwei­ten Beu­gungs­scheib­chens zusam­men, was all­ge­mein als Rayl­eigh-Kri­te­rium bezeich­net wird. Nach allem, was wir bisher bereits wissen, ist mit dem Rayl­eigh-Kri­te­rium nicht das Ende der mög­li­chen Auf­lö­sung des Objek­tivs erreicht. Diesen Punkt sehen wir erst bei Bild 2c erreicht, wenn es kein Mini­mum zwi­schen den beiden Maxima mehr gibt: die soge­nannte Spar­row-Grenze.

Warum redet dann alle Welt vom Rayl­eigh-Kri­te­rium?

Ganz ein­fach: Ers­tens sind die Beugungsringe sehr leicht zu beobachten, und damit aus­zu­mes­sen: Ein Lineal reicht. Zwei­tens liegt im prak­ti­schen Leben zwi­schen Rayl­eigh-Kri­te­rium und abso­lu­ter Auf­lö­sungs­grenze (Spar­row-Grenze) kein sehr großer Unter­schied mehr. Als Auf­lö­sungs­grenze ist das Rayl­eigh-Kri­te­rium voll­kom­men will­kür­lich gewählt, nur der Ein­fach­heit der Berech­nung geschul­det und als Abschät­zung der Auf­lö­sungs­grenze nicht voll­kom­men falsch – beson­ders, wenn man, drit­tens, berück­sich­tigt, dass u.a. die Lin­sen­feh­ler ja auch die Auf­lö­sung begren­zen (können). Oder, um es mit Lord Rayl­eighs eige­nen Worten zu sagen:
 

„This rule is con­ve­ni­ent on account of its sim­pli­city and it is suf­fi­ci­ently accu­rate in view of the necessary uncer­tainty as to what exactly is meant by reso­lu­tion.“

(Diese Faust­for­mel ist dank ihrer Ein­fach­heit bequem, und sie ist hin­rei­chend genau, ange­sichts der zwangs­läu­fi­gen Unsi­cher­heit, was mit Auf­lö­sung tat­säch­lich gemeint ist.)

 
Die Auf­lö­sungs­grenze hat also nur indi­rekt mit dem Beu­gungs­scheib­chen zu tun. Rich­tig gele­sen: nur indi­rekt. Die Beu­gung sorgt zwar für eine Ver­brei­te­rung des Punk­tes – die Auf­lö­sung ist aber letzt­end­lich dadurch begrenzt, wie gut wir das Mini­mum (sofern es noch vor­han­den ist) noch auf­lö­sen können, also es von den Maxima unter­schei­den können. Also, wie gut wir die „Delle“ zwi­schen den Punkt­bil­dern erken­nen können: Wir können die Auf­lö­sung des Objek­tivs also nicht los­ge­löst von unse­ren Beob­ach­tungs­mög­lich­kei­ten sehen.

Das ist nun der Punkt, wo unser Film oder Sensor ins Spiel kommt. Denn der hat einen ent­schei­den­den Ein­fluss darauf, ob, und wenn ja, wie gut wir die „Delle“ zwi­schen den beiden Punkt­bil­dern auf­zeich­nen können. Wir können die Auf­lö­sungs­grenze des Objek­tivs also nicht los­ge­löst von der Auf­lö­sungs­grenze unse­rer Bild­auf­zeich­nung betrach­ten.

Daher ist die Frage „Wie viele Mega­pi­xel ver­kraf­tet eine Kamera?“ unge­fähr so sinn­voll wie die Frage „Wie viele Liter Benzin ver­kraf­tet ein Auto?“ Was dem Objek­tiv sein Sensor ist, ist dem Auto sein Benzin. Das eine ist nötig, um mit dem ande­ren etwas anfan­gen zu können. Ohne Benzin fährt kein Auto und ohne (wie auch immer gear­te­ten) Sensor gibt es kein ver­teil­ba­res und dis­ku­tier­ba­res vom Objek­tiv erzeug­tes Bild.

Schauen wir uns also nun den Ein­fluss des Sen­sors auf die Auf­lö­sung des Gesamt­sys­tems Objek­tiv-Sensor an:

Der Ein­fluss des Sen­sors auf die Gesamt­auf­lö­sung

Die Kon­trast­auf­lö­sung

Der erste Ein­fluss des Sen­sors ist die Inten­si­täts- oder Kon­trast­auf­lö­sung: Die Detek­tie­rung von Licht basiert auf dem Pho­to­ef­fekt, für dessen Erklä­rung übri­gens Albert Ein­stein 1921 seinen Nobel­preis bekom­men hat: Wenn ein Licht­teil­chen („Photon“) auf ein Elek­tron trifft kann es – genü­gend hohe Ener­gie, d.h. Fre­quenz oder kurze Wel­len­länge, vor­aus­ge­setzt – das Elek­tron aus seiner Bin­dung an den Atom­kern her­aus­schla­gen.

Film

Beim Film geht dabei die licht­emp­find­li­che che­mi­sche Ver­bin­dung im Wort­sinn in die Brüche. Stark ver­ein­facht aus­ge­drückt, werden die so ent­stan­de­nen Bruch­stü­cke im Ent­wick­lungs­pro­zess ein­ge­färbt und die ver­blie­be­nen ganzen Ver­bin­dun­gen vom Fixie­rer her­aus­ge­wa­schen.

Je größer nun diese Ver­bin­dun­gen sind, desto wahr­schein­li­cher ist es, dass ein Photon eine Ver­bin­dung trifft und zer­stört. Es rei­chen also bereits wenige Pho­to­nen aus, „um Scha­den anzu­rich­ten“, sprich, der Film wird umso grob­kör­ni­ger, je emp­find­li­cher er ist. (Was aller­dings nicht heißt, dass jeder grob­kör­nige Film auch hoch­emp­find­lich ist…) Dage­gen sind hoch­auf­lö­sende Filme, also solche mit sehr klei­nem Korn, gleich­zei­tig auch unemp­find­lich.

Wei­ter­hin ist es beim Film so, dass mit jeder zer­stör­ten Ver­bin­dung eine Ver­bin­dung weni­ger bleibt, die licht­emp­find­lich ist. Das heißt, je stär­ker der Film bereits lokal belich­tet ist, desto unemp­find­li­cher wird er an dieser Stelle und die Schwär­zung geht in Sät­ti­gung. Über­be­lich­tete Spitz­lich­ter werden also nicht radi­kal abge­schnit­ten, son­dern laufen sanft aus.

Für die Auf­lö­sungs­grenze bedeu­tet das, dass die Kon­trast­kurve zwi­schen den Punkt­bil­dern flach wird, also dem Erken­nen der „Delle“ zwi­schen den Punkt­bil­dern ent­ge­gen wirkt. D.h. wie gut der Film die beiden Punkt­bil­der aus­ein­an­der­hal­ten kann, hängt also auch davon ab, wie der Film belich­tet wird: Wird der Film unter- oder über­be­lich­tet, mag der Unter­schied in der Anzahl der belich­te­ten Ver­bin­dun­gen nicht groß genug sein, um die „Delle“ noch erken­nen zu können.

Sensor

Anders stellt sich die Situa­tion beim Sensor dar: Hier geht keine Ver­bin­dung kaputt. D.h. das ein­zelne Bild­ele­ment (Pixel) bleibt wäh­rend der ganzen Zeit der Belich­tung gleich­mä­ßig emp­find­lich. Die Elek­tro­nen werden von ihrer Bin­dung an den Atom­kern gelöst („Äuße­rer Pho­to­ef­fekt“) und in einem Kon­den­sa­tor gespei­chert. Das so dem Atom feh­lende Elek­tron wird sofort über den Schalt­kreis nach­ge­lie­fert. Eine andere Mög­lich­keit besteht z.B. darin, eine Pho­to­di­ode unter dem Ein­fluss des Lich­tes leit­fä­hig zu machen („Inne­rer Pho­to­ef­fekt“) und so einen Kon­den­sa­tor zu (ent)laden.

In beiden Fällen ist dann aber irgend­wann plötz­lich Schluss: Der Kon­den­sa­tor ist voll­stän­dig ge- bzw. ent­la­den, was dazu führt, dass (über­be­lich­tete) Spitz­lich­ter schlicht abge­schnit­ten werden. Da Elek­tro­nen unteil­bar sind, also eine diskrete Anzahl Elek­tro­nen gespei­chert ist, werden beim Aus­le­sen des Sen­sors die gespei­cher­ten Elek­tro­nen aus­ge­zählt. D.h. das im Sensor gespei­cherte Signal ist bereits von Natur aus digi­tal. Folg­lich ist es (abge­se­hen von Mar­ke­ting­grün­den) sinn­los, die Bit­tiefe des soge­nann­ten Analog-Digi­tal-Wand­lers (ADC) zu ver­grö­ßern, wie immer wieder in den Foren gefor­dert wird. Der ADC kann keine grö­ßere Anzahl ver­schie­de­ner Werte ablie­fern, als im Sensor Elek­tro­nen „pro­du­ziert“ und gespei­chert werden können.

Wie man leicht sieht, zählt dabei das Ver­hält­nis vom gewoll­ten Signal zum soge­nannte Hel­lig­keits­rau­schen, also der Belich­tung des Pixels unter ande­rem durch Wärme (der Sensor ist nicht nur für sicht­ba­res Licht emp­find­lich!), der sta­tis­ti­schen Streu­ung der ein­fal­len­den Pho­to­nen und damit der erzeug­ten Elek­tro­nen (bei iden­ti­scher Belich­tung!), sowie von der Belich­tungs­zeit unab­hän­gige Stö­run­gen, die durch das Aus­le­sen ent­ste­hen.

Um mal Butter bei die Fische zu geben, ein kon­kre­tes Bei­spiel: Der Kodak KAF-40000 Full­frame-CCD-Sensor, dessen Spe­zi­fi­ka­tio­nen sich sehr gut mit denen der Pentax 645D decken, hat laut Datenblatt (PDF-Datei) eine Kapa­zi­tät von 42.000 Elek­tro­nen pro Pixel. Der Rausch­un­ter­grund besteht dage­gen aus 13 Elek­tro­nen Aus­le­serau­schen, was ein Signal-Rausch-Ver­hält­nis von 42.000:13 oder 3231:1 ergibt. Hinzu kommt (bei 60°  C Sen­sor­tem­pe­ra­tur) die wär­me­be­dingte „Belich­tung“ von 42 pA/cm2, d.h. 262 Mil­lio­nen Elek­tro­nen pro Sekunde und Qua­drat­zen­ti­me­ter bzw., bei einer Pixel­größe von 6x6 µm2, 94 Elek­tro­nen pro Sekunde und Pixel. Dieser Wert ver­dop­pelt sich alle 5,5°  C: Bei 65,5°  C sind es also schon 188 Elektronen/Sekunde, bei 71°C 376 Elek­tro­nen, usw. Bei einer ange­nom­me­nen „Belich­tungs­zeit“ von einer 1/50 Sekunde (also der Zeit zwi­schen letz­ten Löschen und Aus­le­sen) ergäbe sich so bei 60°C Betriebs­tem­pe­ra­tur ein Wär­me­an­teil von unge­fähr 2 Elektronen/Pixel. Zusam­men­ge­nom­men bedeu­tet das ein Signal-Rausch-Ver­hält­nis von 42.000:(13+2) oder 2800:1. Damit hätten wir einen Dyna­mik­um­fang von 2800:1 oder 11,5 Blen­den­stu­fen, wie Kodak und Pentax ihn in den Technischen Daten kom­mu­ni­zie­ren.

Bei län­ge­ren Belich­tungs­zei­ten steigt der Wär­me­an­teil ent­spre­chend. Hier­bei hilft man sich damit, dass man den Wär­me­an­teil mit schwarz mas­kier­ten Pixeln an Bild­rand misst und ihn dann nach der Belich­tung vom eigent­li­chen Bild abzieht. Bei län­ge­ren Belich­tungs­zei­ten wird man nach der Auf­nahme noch ein Bild mit der selben Belich­tungs­zeit bei geschlos­se­nem Ver­schluss auf­neh­men und dieses Dun­kel­bild vom eigent­li­chen Bild abzie­hen. Besser ist natür­lich, durch Küh­lung dafür zu sorgen, dass der Wär­me­bei­trag mög­lichst klein bleibt, was aber bei Foto­ap­pa­ra­ten weder prak­ti­ka­bel noch finan­zi­ell dar­stell­bar ist.

Wenn wir die gene­rier­ten Pho­to­elek­tro­nen jetzt „digi­ta­li­sie­ren“, dann brau­chen wir zunächst z.B. einen 16-Bit-ADC, um die maxi­mal 42.000 Elek­tro­nen aus dem Pixel voll dar­stel­len zu können. Von den 16 Bit brau­chen wir aber genau genom­men nur 15,4 Bit. Davon sind die unte­ren 3,9 Bit mit den 15 Elek­tro­nen Aus­lese- und Wär­me­rau­schen gefüllt, die wir sofort weg­wer­fen können, da sie kei­ner­lei Infor­ma­tion ent­hal­ten und uns somit auch nichts nützen. Übrig blei­ben also wie­derum nur – Über­ra­schung!!! – 15,4–3,9=11,5 Bit echtes Signal, die wir platz­spa­rend und ver­lust­frei in 12 Bit Daten­breite spei­chern können. Eine höhere Bit­tiefe bzw. Daten­breite wäre damit nur Ver­schwen­dung von Spei­cher­platz und erhöht die Spei­cher und Trans­fer­zei­ten (Seri­en­bil­der!)) – – wobei es natür­lich ande­rer­seits nichts scha­den kann, die Daten­breite etwas größer aus­zu­le­gen, um den sta­tis­ti­schen Schwan­kun­gen im Rau­schen Rech­nung zu tragen: Die 13 Elek­tro­nen Aus­le­serau­schen sind schließ­lich nur der Mit­tel­wert.

Blei­ben wir also für die fol­gende Betrach­tung bei den 11,5 Blen­den­stu­fen bzw. Bit:

Für unsere Auf­lö­sungs­grenze bedeu­tet dies, dass bei per­fek­ter Belich­tung im Fall des Rayl­eigh-Kri­te­ri­ums, dass wir in den Maxima einen digi­ta­li­sier­ten Wert von 2800 haben und in der „Delle“ zwi­schen den beiden Punkt­bil­dern einen Wert von ca. 2050. D.h. es liegen ca. 750 Zäh­ler­werte zwi­schen den Maxima und dem Mini­mum. Wir können die beiden Punkt­bil­der also sehr gut von­ein­an­der unter­schei­den.

Und auch wenn das Bild unter­be­lich­tet sein sollte, bzw. wenn wir in die Schat­ten­par­tien des Bildes gucken, wo z.B. nur ein Zehn­tel des Maxi­mums belich­tet sein könnte, haben wir immer noch einen Zäh­ler­stand von 280 in den Maxima und von 205 im Mini­mum. Zwi­schen Maxi­mum und Mini­mum liegen also immer noch ca. 75 Zäh­ler­werte Abstand, die in der Wei­ter­ver­ar­bei­tung gestreckt werden können.

Ganz anders sieht die Welt aus, wenn wir das Bild z.B. in einer 8-Bit-JPEG-Datei spei­chern, die auf­grund der 8 Bit nur 256 ver­schie­dene Werte pro Farb­ka­nal anneh­men kann: Hier würden in den Schat­ten­par­tien die Maxima einen Zäh­ler­stand von 25 errei­chen und das Mini­mum würde bei 18 liegen., also grade mal 7 Zähler Unter­schied. Der Wert läge also knapp über dem Rau­schen, würde wohl wei­ter­hin von JPEG-Arte­fak­ten über­la­gert, und sich ver­mut­lich auch bei einer Kon­tras­ter­hö­hung in der Bild­be­ar­bei­tung nicht mehr sauber her­aus­ar­bei­ten lassen. Hinzu kommt, dass z.B. im sRGB-Farb­raum die Schat­ten mit einem soge­nann­ten gamma-Wert von 2,2 auf­ge­hellt werden, damit sie dem natür­li­chen Seh­ein­druck näher kommen. Diese Auf­hel­lung erfolgte auch bei den hier gezeig­ten Beu­gungs­bil­dern, um die Ringe um das Maxi­mum im Zen­trum erkenn­bar zu machen (vgl. Abb. 1). Abbil­dung 6 zeigt den Ver­gleich zwi­schen der linea­ren Hel­lig­keits­wie­der­gabe (gamma=1,0) und dem mit gamma=2,2 auf­ge­hell­ten Bild.
 

Illustration: Randolf Butzbach

Abbil­dung 6: Der Ein­fluss der Gam­ma­funk­tion auf die Unter­scheid­bar­keit von zwei Punk­ten: Links mit gamma=1,0, rechts mit gamma=2,2 wie im sRGB-Farb­raum üblich.

 
Von Mega­pi­xeln: Viel hilft viel

Kommen wir nun zu dem meist­dis­ku­tier­ten Aspekt der Auf­lö­sung: Der Orts­auf­lö­sung des Sen­sors, oder, salopp gesagt, den Mega­pi­xeln.

Schauen wir uns zunächst den klas­si­schen Fall an, in dem der Abstand der Bild­punkte größer ist als die Größe der Pixel und der Beu­gungs­scheib­chen. Im Bei­spiel in Abb. 7 befin­den sich die Punkte wie in Abb. 2a in einem Abstand von 10 µm. Bei Ver­wen­dung eines 50-mm-Objek­tivs und bei einem Auf­nah­me­ab­stand von drei Metern ent­spricht dies einem Objekt­ab­stand von 0,6  mm, den wir hier abge­bil­det sehen. Das Bild ist mit einer Pixel­größe von 4 µm geras­tert, was zum Bei­spiel 24 Mega­pi­xel auf APS-C ent­spricht. Wir können die beiden Punkte hier noch sauber unter­schei­den.
 

Illustration: Randolf Butzbach

Abbil­dung 7: Die Beu­gungs­bil­der (550 nm, Blende 8) von zwei Punk­ten im Abstand von 10 µm bei einem Pixel­ras­ter von 4 µm: Die beiden Punkte können noch als zwei ver­schie­dene Punkte erkannt werden.

 
Was pas­siert nun, wenn wir die Punkte auf das Rayl­eigh-Limit, also hier 5,4 µm bei Blende 8 und 550 nm Wel­len­länge, zusam­men­schie­ben wie in Abb. 2b gezeigt? Abbil­dung 8 zeigt also das­selbe Bild wie Abb. 2b, jedoch mit 4 µm Sen­sor­auf­lö­sung geras­tert. Wie wir sehen, können wir jetzt die beiden Punkte nicht mehr unter­schei­den. Sie ver­schmel­zen zu einem ein­zel­nen Punkt. Das ist der Fall, der in den Foren dis­ku­tiert wird: Er zeigt aber auch, dass uns das Rayl­eigh-Kri­te­rium hier nicht wei­ter­hilft als allei­nige Defi­ni­tion der Auf­lö­sungs­grenze.
 

Illustration: Randolf Butzbach

Abbil­dung 8: Die Beu­gungs­bil­der (550 nm, Blende 8) von zwei Punk­ten im Abstand von 5,4 µm (Rayl­eigh-Kri­te­rium) bei einem Pixel­ras­ter von 4 µm: Die beiden Punkte ver­schmel­zen zu einem Punkt und können nicht mehr als zwei ver­schie­dene Punkte erkannt werden.

 
Was pas­siert aber nun, wenn wir uns nicht an das Rayl­eigh-Kri­te­rium halten, und die Auf­lö­sung des Pixel­ras­ters ein­fach weiter erhö­hen, auf, sagen wir 1 µm, was laut gän­gi­ger Foren­weis­heit voll­kom­men sinn­los sein soll? Das Ergeb­nis sehen wir in Abb. 9:
 

Illustration: Randolf Butzbach

Abbil­dung 9: Die­selbe Situa­tion (erfüll­tes Rayl­eigh-Kri­te­rium) wie in Abb. 8, jedoch bei einem Pixel­ras­ter von 1 µm. Dank der hohen Auf­lö­sung können die beiden Punkte wieder als zwei ver­schie­dene Punkte erkannt werden.

 
Wir können jetzt die „Delle“ zwi­schen den beiden Beu­gungs­scheib­chen wieder auf­lö­sen, und erken­nen, dass es sich um zwei Punkte han­delt statt einen, wie im Fall von Abb. 8 gezeigt.

Wenn wir das Raster nun noch weiter erhö­hen (würden), auf sagen wir 0,1 µm, so erhal­ten wir Bild 2b: Denn nichts ande­res stellt Bild 2b dar. Die für die Illus­tra­tion dieses Arti­kels mit 0,1 µm geras­terte Summe der „ana­lo­gen“ Airy-Funk­tio­nen.

Je höher die Pixelauf­lö­sung des Sen­sors ist, desto genauer kann also das Bild auf­ge­zeich­net werden und desto fei­nere Infor­ma­tio­nen können her­aus­ge­ar­bei­tet werden.

Die Beschrän­kung der Dis­kus­sion auf Rayl­eigh-Kri­te­rium und Pixel­größe, die angeb­lich größer sein muss als jenes, ist somit nur sehr grob, ähn­lich wie ein Schnitz­werk mit der Axt.

Schluss­fol­ge­rung für den Sensor

Gilt also das Fazit: „Je mehr Mega­pi­xel pro Fläche, desto besser“?

Ja und nein. Ja, weil dann die Orts­auf­lö­sung des Sen­sors steigt. Nein, weil je mehr Pixel pro Qua­drat­mil­li­me­ter unter­ge­bracht sind, desto klei­ner wird die Pixelober­flä­che und desto unwahr­schein­li­cher wird es, dass (wie beim Film­korn) ein Photon in ein Pixel trifft – bei teil­weise gleich­blei­ben­den Stör­ein­flüs­sen, also Bei­trä­gen zum Rau­schen. Das Pixel wird also unemp­find­li­cher, wäh­rend manche Stör­ein­flüsse gleich blei­ben und somit das Signal-Rausch­ver­hält­nis sinkt, was unse­rer Inten­si­täts-Auf­lö­sung ent­ge­gen­wirkt.

Gilt also doch: Je größer die Pixel desto größer das Signal-Rausch­ver­hält­nis?

Auch hier haben wir wieder ein Ja-Aber: Denn je größer die Pixel werden, desto emp­find­li­cher wird zwar das ein­zelne Pixel für das Licht (wie gewollt), aber gleich­zei­tig wird es auch (unge­wollt) emp­find­li­cher für Stör­ein­flüsse wie z.B. Wärme. Das Signal-Rausch­ver­hält­nis ver­bes­sert sich also irgend­wann nicht mehr. Das Ein­zige, was hilft, ist durch ein intel­li­gen­tes Schal­tungs­de­sign das Aus­le­serau­schen mög­lichst gering zu halten und den Wär­me­an­teil auf­wen­dig durch Küh­lung zu redu­zie­ren – wobei letz­te­res in einer Kamera selten prak­ti­ka­bel ist.

Die Hohe Kunst des Sen­sor­baus besteht also jetzt darin, die sich wider­stre­ben­den Eigen­schaf­ten Orts­auf­lö­sung (Mega­pi­xel) einer­seits und Inten­si­täts­auf­lö­sung (Dyna­mik­um­fang) ande­rer­seits durch kon­struk­tive Tricks zu „ver­söh­nen“ und für die jewei­lige Anwen­dung den besten Kom­pro­miss aus beiden zu finden.

Jen­seits des mono­chro­ma­ti­schen Beu­gungs­scheib­chens

Bisher haben wir andere wesent­li­che Ein­flüsse aus­ge­blen­det. Allen voran sei hier erwähnt, dass unsere bis­he­ri­gen Betrach­tun­gen sich auf mono­chro­ma­ti­sches Licht einer mitt­le­ren Wel­len­länge bezo­gen. In der Praxis hat man nor­ma­ler­weise statt einer ein­zel­nen scharf defi­nier­ten Wel­len­länge weißes Licht bzw. ein grö­ße­res Wel­len­län­gen­in­ter­vall wie in Abb. 10 skiz­ziert:
 

Illustration: Randolf Butzbach

Abbil­dung 10: Über­la­ge­rung der Beu­gungs­scheib­chen von ver­schie­de­nen Wel­len­län­gen bei Blende 8. Bei dem Punkt­ab­stand ist das Rayl­eigh-Kri­te­rium für grünes Licht (grüne Linie) erfüllt, wäh­rend rotes Licht (rote Linie) nicht mehr auf­ge­löst werden kann und die blauen Beu­gungs­scheib­chen (blaue Linie) noch sehr klar von ein­an­der unter­scheid­bar sind. Die prak­ti­sch beob­acht­bare Auf­lö­sung für weißes Licht ist also ein Mischung aus allen Wel­len­län­gen. Aus Grün­den der Klar­heit wurden die ein­zel­nen Beu­gungs­bil­der weg­ge­las­sen und nur die Summe gezeigt.

 
In Abb. 10 ist – wie bisher dis­ku­tiert – das Rayl­eigh-Kri­te­rium für grünes Licht erfüllt. Für blaues Licht dage­gen ist bei glei­chem Punkt­ab­stand das Rayl­eigh-Kri­te­rium in weiter Ferne, wäh­rend die beiden Punkte bei rotem Licht nicht mehr unter­schie­den werden können und zu einem Punkt ver­schmel­zen.

Dabei bezieht sich Abb. 10 aus­schließ­lich auf das Beu­gungs­scheib­chen. Im Fall von Glas­op­ti­ken (Objek­ti­ven) muss man in der Praxis wei­ter­hin z.B. die Disper­si­ons­ei­gen­schaf­ten des Glases berück­sich­ti­gen, also wie stark sich der Brech­nungs­in­dex des Glases in Abhän­gig­keit von der Wel­len­länge ändert – und damit wie unter­schied­lich stark die ein­zel­nen Farben des Licht­strahls abge­lenkt werden. Dabei kann es z.B. pas­sie­ren, dass der Auf­lö­sungs­vor­teil des Beu­gungs­scheib­chens am blauen Ende durch die Disper­si­ons­ei­gen­schaf­ten des Glases wieder zunichte gemacht wird.

Auch hier ist also der Über­gang von klar auf­ge­löst zu nicht auf­ge­löst flie­ßend. Man wird aber immer alle Beu­gungs­bil­der der ein­zel­nen Wel­len­län­gen / Farben gleich­zei­tig sehen, bzw. auf dem Sensor auf­zeich­nen.

Und das bringt uns nun zu der Far­b­emp­find­lich­keit des Sen­sors. Der Bayer-Sensor „sieht“ bekannt­lich nur jedes zweite Pixel in der selben Farbe, wobei der ein­zelne Farb­ka­nal sauber defi­niert ist. Beim Foveon-Sensor wird dage­gen jeder Farb­ka­nal mit jeder Farbe belich­tet – nur unter­schied­lich stark gewich­tet und die nach­fol­gende Mathe­ma­tik muss daraus die Farb­in­for­ma­tio­nen extra­hie­ren. Die Beur­tei­lung, wel­ches Ver­fah­ren die bes­se­ren Ergeb­nisse lie­fert, liegt weit jen­seits dieses Bei­trags.

Auch haben wir andere reale Ein­flüsse wie z.B. Abbil­dungs­feh­ler oder den Anti­alias-Filter (sofern vor­han­den) aus­ge­blen­det. Als wei­tere Schritte müss­ten wir beim Sensor die Gra­da­ti­ons­kurve bzw. die Stel­lung der Kon­trast­reg­ler im Bild­be­ar­bei­tungs­pro­gramm sowie die Wie­der­ga­be­funk­tion des Dru­ckers und Papiers berück­sich­ti­gen. Im Fall des Films beein­flus­sen das Ver­grö­ße­rungs- bzw. Pro­jek­ti­ons­ob­jek­tiv sowie die Gra­da­ti­ons­kurve des Foto­pa­piers die Auf­lö­sungs­grenze. Und schließ­lich und end­lich hat auch unser Auge eine Wie­der­ga­be­funk­tion mit nach­ge­schal­te­ter extrem leis­tungs­fä­hi­ger „Bild­ver­ar­bei­tung“.

Es gibt aber keine Rayl­eigh-Grenze (wie hier unterstellt), ab der von jetzt auf sofort nichts mehr auf­ge­löst wird. Statt­des­sen nimmt der Kon­trast der (immer grö­be­ren) Details immer mehr ab, bis bei der Spar­row-Grenze der Kon­trast bei 0 % ange­langt ist und somit keine Details mehr unter­scheid­bar sind. Es gibt also keinen schar­fen Über­gang zwi­schen „auf­ge­löst“ und „nicht auf­ge­löst“.

In der Praxis erweist sich damit die gän­gige Faust­re­gel „Maxi­male Blende gleich zwei­mal Pixel­größe in Mikro­me­tern“ als um min­des­tens 1–2 Blen­den­stu­fen zu pes­si­mis­ti­sch.

Das Thema ist also weit­aus kom­ple­xer, als es hier dar­stell­bar ist. Wenn der Text jedoch ein biss­chen zum Ver­ständ­nis der Gren­zen der Auf­lö­sung bei­ge­tra­gen hat und zeigen konnte, das diese Gren­zen weiter gesteckt sind, als gemein­hin ange­nom­men, so ist das Ziel erreicht.

Zu guter Letzt …

… bleibt noch anzu­mer­ken, dass sich unsere Betrach­tun­gen darauf bezo­gen, dass wir ein per­fek­tes Objek­tiv haben, das kei­ner­lei Abbil­dungs­feh­ler auf­weist, das es in der Praxis so eigent­lich nicht gibt. Wie gesagt: „eigent­lich“. Die moder­nen Optik­schmie­den sind heute jedoch durch­aus in der Lage, Opti­ken (und dabei denke ich jetzt auch an Spie­gel­op­ti­ken) zu bauen, bei denen die Abbil­dungs­feh­ler der „Linse“ gegen­über der Beu­gungs­grenze ver­nach­läs­sig­bar sind. Die Auf­lö­sung der Optik kann also gege­be­nen­falls nicht durch irgend­wel­che Fehler in den Abbil­dungs­ei­gen­schaf­ten der Optik begrenzt sein, son­dern erst durch die Beu­gung, wie hier dar­ge­stellt. Oder, anders aus­ge­drückt: Per­fekte Opti­ken, nur begrenzt durch die Beu­gung, exis­tie­ren tat­säch­lich.

(Ran­dolf Butz­bach)
 
 
R.B. ist pro­mo­vier­ter Phy­si­ker und hat sich u.a. mit den Gren­zen der Auf­lö­sung von Opti­ken für Rönt­gen­strah­len beschäf­tigt. Privat foto­gra­fiert er seit seinem 10. Lebens­jahr.

Mit Dank an Hubert H. Nasse, Carl Zeiss AG, für die Durch­sicht und wert­volle Anre­gun­gen.
 
 
Zum Wei­ter­le­sen:
Wie liest man MTF-Kurven? (PDF-Datei)
Wie liest man MTF-Kurven? – Teil II (PDF-Datei)