Dieser Beitrag unternimmt den Versuch, ein Verständnis von Licht und Farbe zu vermitteln, das sich von rein technischen Zugängen frei macht, und der dabei zeigen möchte, dass unserem Gesichtssinn ein durchaus logisches, auch für den Laien gut verständliches Prinzip der Wahrnehmung zu Grunde liegt. Womit dann auch der Geist frei werden möge, diese Einsichten in der Anwendung auf technisches Gerät – hier vorzugsweise die digitale Aufnahmetechnik – umzusetzen und anzuwenden:
Seit wir digital fotografieren, hat auch das Thema Farbe in die Köpfe der Fotografen intensiver Einzug gehalten, als dies zu Analogzeiten je ein Thema sein konnte. Die direkte Umwandlung von Licht mit seinem Farbspektrum in elektrische Signale – der digitale Aufnahmeprozess – hat uns in die Lage versetzt, auch weitgehenden Einfluss auf die Wiedergabe rezipierter Licht- und Farbwerte zu nehmen. Eng damit verbunden ist die Festlegung konkreter „Farbräume“, und die Ausgestaltung verschiedener mathematischer Modelle, zur Umsetzung von Lichtimpulsen in mehr oder weniger exakt definierte Farb- und Helligkeits-Ausgabewerte.
Wer sich unvoreingenommen mit diesen Zugängen auseinandersetzt, wird wohl nicht umhin kommen, festzustellen, dass es eine relativ breite Lücke zwischen den Farben der Natur und jenen Farbwerten gibt, die technisch überhaupt dargestellt werden können. Über weite Bereiche scheint es unmöglich zu sein, Farben in ihrer maximalen Intensität wiederzugeben, worunter dann auch die Farbsättigung, die Farbdifferenzierung, die Darstellung von Farbnuancen spürbar leiden.
Interpolationen
Wir haben zur Kenntnis genommen, dass unsere Sensoren mitnichten in der Lage sind, die vorhandene Farben in ihrem vollen Spektrum aufzuzeichnen. Besonders sichtbar sind diese Defizite dort, wo man sie, in Kenntnis aktueller Sensortechnik, gerade nicht erwarten würde: Vor allem im und rund um das Grün-Spektrum – obwohl besonders die Grün-Rezeption bevorzugt wird. Andererseits behelfen wir uns seit den Anfängen der Digitalfotografie mit – mehr recht als billigen – Interpolationsmethoden über offensichtliche Mankos hinweg. Ausnahmen, wie 3-Chip-Videokameras, mit voll- wie gleichwertiger Farbrezeption, bestätigen die verbreitete Regel.
Dass unter dieser Vorgehensweise nicht nur die Farbdarstellung, sondern auch das nominelle Auflösungsvermögen der Sensoren zwingend leidet, ist ein inzwischen oft gleichgültig zur Kenntnis genommener „Kollateralschaden“, dem aktuell gerade mal ein anderes Sensorenkonzept entgegenzuwirken trachtet. Allerdings auch nur unter der Einschränkung, dass sich hier die Interpolationsprozesse von der Fläche in die Tiefe des, die Auflösung wahrenden, Sensoraufbaus verlagern. Nun könnte man einwenden, dass trotz der bekannten Beschränkungen, denen die Digitalfotografie bzgl. ihres Lichtsammel- und Farbdifferenzierungsvermögens unterliegt, inzwischen ein hohes Maß an Bild- und auch Farbqualität die Ergebnisse des digitalen Aufnahmeprozesses prägt. Mithin sich ein tieferer, diese Beschränkungen hinterfragender Zugang zum Thema eigentlich auch erübrigen könnte – und wir in vorauseilender Dankbarkeit der kleinen, vielleicht auch größeren, Verbesserungen harren sollten, die uns im Fortschritt der Technologie mit Sicherheit noch ereilen werden …
Das dahinter stehende Problem ist allerdings ein tieferes – eines, das sich mit herkömmlichen, rein technisch-mathematischen Zugängen auch zukünftig nur bedingt in den Griff bekommen lassen wird. Weswegen es sinnvoll erscheint, technische Umsetzungen in Resonanz zu unseren Sinneswahrnehmungen zu bringen – ein aus der Natur abgeleitetes Verständnis von Licht und Farbe zu formulieren, um damit nachhaltig(er)e Technik zu entwickeln und anzuwenden.
Thesen
In Form einiger bewusst redundanter Thesen, die ich hier zur Diskussion stellen möchte, sind zwei Zugänge direkt miteinander verknüpft – bedingen einander auf’s Engste (* siehe Danksagung weiter unten). Wie schon bei der Erörterung der Dynamischen Belichtungssteuerung wäre auch hier die Zonenskala als Promille-Skala bzw. als 10-Bit-Einteilung darstellbarer Helligkeitswerte definiert. Dem Primat des Themas Farbe gehorchend, schien es mir aber geboten, die Zonen- bzw. Tonwertskalen dahingehend zu modifizieren, dass ich sie verdreifacht habe – um sie als Summenwerte der einzelnen Farb-Zonenwerte darstell- und lesbar zu machen. So gesehen könnte man sie auch, abweichend von der zu Grunde liegenden Zonenskala, als Farbzonenskala bezeichnen. Übrigens ergibt sich aus der markant logarithmischen Abstufung „zufällig“ eine Analogie zu Dezibel- bzw. Dichtewerten – deren Umfang, wohl auch „zufällig“, die physiologischen Grenzen des Gesichtssinns markieren …
Wie ich schon in meinem Beitrag zur Dynamischen Belichtungssteuerung versucht habe zu zeigen, eignet sich das Zonensystem nicht nur dafür, das Sehen, die Wahrnehmung an sich, korrekt zu beschreiben, sondern ließe sich auch – unter veränderten technischen Rahmenbedingungen – hervorragend einem erweiterten und verbesserten Zugang zum Thema Belichtungssteuerung voranstellen. Da Licht aus genau definierten Frequenzen des elektromagnetischen Spektrums besteht, die wir gemeinhin als Farben wahrnehmen, liegt der Schluss nahe, dass nicht nur Licht in Summe, sondern auch sein Farbspektrum den Regeln des Zonensystems gehorcht – und dadurch eine wesentliche Vereinfachung und Präzisierung im Licht- und Farb-Reproduktionsprozess befördert werden könnte.
Licht und Farbe
Licht und Farbe sind keine voneinander unabhängigen „Phänomene“, die man dadurch in den Griff bekommt, dass man sie zergliedert, und ihre einzeln formulierten Attribute über technisch aufwändige Rechen- bzw. Interpolationsprozesse zu stimmigen Ausgabewerten zusammenführt. Farbe ist letztlich eine differenzierende Darstellung von Helligkeitswerten. Keine Farbe ist unabhängig von der Helligkeit eines Motivs vorstell- oder darstellbar. Jeder beliebige Farbwert ist eindeutig einem Helligkeitswert zwischen den Extremen Schwarz und Weiß zugeordnet – und kann mit diesem über einen Zonenwert (einen umgekehrt proportionalen Tonwert) verknüpft werden.
In diesem Sinne betrachte ich die Farbwerte (Potenzialwerte) als Teilmengen von Helligkeitswerten – hingegen Helligkeitswerte als Summenwerte von Farbwerten. Sowohl Helligkeits- wie Farbwerte sind einem gegebenen Kontrastumfang unterstellt, woraus sich deren Zonenwerte ableiten. Dort, wo Lichtwerte über EINEN Zonenwert verortet sind, benötigt man zur Farbverortung DREI Potenzialwerte, die als Summenwert den Zonenwert jenes Lichtwertes spiegeln, den sie repräsentieren. Ein einfaches Beispiel: Zone 1500 besteht aus den Farbpotenzialwerten R500 G500 B500 – oder aus jedem anderen Farbwert, der als Summenwert 1500 ergibt …
Subjektive Farbwahrnehmung ist davon abhängig, dass das Mischungsverhältnis der Grundfarben möglichst genau ermittelt und dargestellt wird, dass die Farbwerte über Helligkeit und Kontrast einem entsprechenden Zonenwert zugeordnet sind – als eigentliche Herausforderung für eine technische Umsetzung. Dieser Zugang erübrigt es, dem Thema mit aufwändiger Farbmetrik und differenzierenden Attributen, wie „Sättigung“, „Helligkeit“ oder „Farbigkeit“, beizukommen. Mit der Verknüpfung von Licht- und Farbwerten über die Zonenskala wird das gesamte Spektrum der Farben nicht nur eindeutig definiert, sondern auch – unter der Prämisse einer darauf abgestimmten Mess- und Ausgabetechnik – weitgehend uneingeschränkt darstellbar.
Eine Über- oder Unterbetonung einzelner Farben – im Bemühen, diese an subjektives Empfinden anzugleichen – weicht der Einsicht, dass gerade dieser Zugang verhindert, dass sich das volle Farbspektrum korrekt darstellen läßt. Weil die Wahrnehmung, die Wertigkeit einzelner Farben, physiologisch – also subjektiv – bedingt ist, befördert eine technisch anbiedernde Aufbereitung keineswegs die Korrektheit der Farbrezeption. Vielmehr ist es nötig, das Farbspektrum gleichwertig zu erfassen und proportional zueinander zu bewerten, um auf dieser Basis eine direkte, natürliche, nicht interpretierende Darstellung zu ermöglichen. So prägt die objektive Darstellung von Helligkeit und Kontrast „automatisch“ den natürlichen Grad der Wahrnehmung von Farben – und umgekehrt. Erst das Auge wandelt die objektive Darstellung in subjektives Empfinden – womit erst solcherart generierte Bilder auf unterschiedliche Betrachter, auch bei unterschiedlichem Sehvermögen, gleichermaßen korrekt wirken können. Aus diesem Zugang ergeben sich definitive Aussagen, die sich zur Farbwahrnehmung treffen lassen:
- Reines Schwarz und Weiß in der Ausgabe ergibt sich nur aus einer völligen Abwesenheit von Information am Sensor (Zone 0), oder die völlige Überbelegtheit des Sensorvolumens (Zone 3000).
- Alle erfassbaren Sensorwerte sind in jedem Fall an einen Farb- oder Grauwert gebunden – wobei neutrale Grauwerte natürlich aus völlig übereinstimmenden Grundfarbwerten definiert sind.
- Die primären Grundfarben Rot, Grün und Blau, als auch die (komplementären) Sekundärfarben Cyan, Magenta und Yellow, sind über das Zonensystem genau lokalisiert – erstere an den Zonenwert 1000, letztere an den Zonenwert 2000 gebunden.
- Eine Farbe ist nicht durch einen absoluten Lichtwert – eine bestimmte Motivhelligkeit – definiert, sondern allein durch ihre adäquate Quantifizierung. Die Korrektheit der Farbwiedergabe wird durch die genaue Erfassung des Motivkontrastes, und der daraus abgeleiteten, symmetrischen Verteilung von hellen und dunklen Farbwerten auf der Zonenskala definiert.
- Als Grenzwerte für den darzustellenden Kontrastumfanges gelten jene Farbwerte, deren Grundfarbanteile zusammen oder einzeln die Grenzen der Sensorrezeption tangieren.
Die Belichtungssteuerung orientiert sich allein am Lichtwertumfang, also dem Kontrastumfang eines Motivs. Über den Sensor findet die Messung auf Pixelebene statt – ermöglicht dadurch eine Motivanalyse bis in den Mikrokontrast hinein. Erst die exakte Ermittlung der Lichtwerte – paralell zur Analyse der zugehörigen Farbwerte – legt über den Kontrastumfang deren Lage auf der Zonenskala fest. Die spektrale Bewertung des Lichts befördert die korrekte Darstellung von Motiven – besonders solchen, die keine expliziten Schwarz- und Weißanteile aufweisen.
Voraussetzung dafür ist, dass die Belichtungsmessung der Kamera nicht auf einen mittleren Grauwert geeicht ist, sondern dass sich ein „mittleres Grau“, aus dem konkreten Kontrastumfang, somit den Helligkeits- gleich Farbwerten eines Motivs, und deren symmetrischer Anordnung, individuell ableitet.
Sensoren
Aus diesen Überlegungen heraus läßt sich auch die Anforderung an eine Sensortechnik – eigentlich eine „Antennentechnik“, weil einen Teilaspekt des elektromagnetischen Spektrums „empfangend“ wird – definieren, mit einem grundlegend andersartigen Aufbau, dafür einem sehr direkten Zugang zur Erfassung von Licht in seinem sichtbaren Spektrum. Ein solcher Sensor besitzt, je Pixel, einen dreidimensionalen, pyramidenförmigen Aufbau – in vier übereinander liegenden Ebenen angeordnete, lichtempfindliche Elemente, die, von oben nach unten, für die drei Grundfrequenzen und die Gesamtfrequenz des sichbaren Lichts empfindlich sind. Die Flächen der einzelnen Ebenen vergrößern sich dabei, ausgehend von der kleinsten, oberen, um die Faktoren 2, 3 und 4 für die darunter liegenden.
Wichtig dabei ist, dass den exakt zu ermittelnden Frequenzen auch unterschiedlich dimensionierte Rezeptionsflächen zur Verfügung stehen – deren Flächenanteile an der Gesamtfläche aber, mit jeweils 25%, gleich groß ausfallen. Damit wird drei Grundanforderungen Genüge getan:
- werden die Farbanteile des Lichtspektrums in einem „Punkt“ vereint aufgezeichnet.
- stehen den drei Grundfarben (Grundfrequenzen) jeweils angemessene, ihre individuelle Streuung berücksichtigende, Rezeptionsflächen zur Verfügung; die dann
- in jeweils gleicher Wertigkeit erfasst und zur Interpretation herangezogen werden.
Dem neutralen Flächenanteil fällt dabei die Aufgabe zu, die Lichtwertverteilung – also den Kontrastumfang – zu ermitteln, um auf dieser Basis eine genaue Zuordnung erfasster Farbwerte zu ermöglichen. Die Farbflächen hingegen weisen dem jeweiligen Bildpunkt, abhängig vom Kontrastumfang, einen passenden Zonenwert zu. Dadurch entfällt die, sowohl beim Bayer- als auch beim Foveon-Sensor nötige, Interpolation der Farbwerte – sie stehen als direkte Messergebnisse zur Verfügung. Das Auflösungsvermögen entspricht der nominellen Pixelzahl des Sensors.
(Christian Herzenberger)
Danksagung:
An dieser Stelle möchte ich jenen beiden Personen Referenz erweisen, denen sich dieser Zugang in Summe verdankt, ohne dass ich hier detailiert auf deren Wirken eingehen möchte (das kann und sollte umfassend nachgelesen werden).
Ansel Adams verdankt sich die grundlegende Formulierung des Zonensystems, auf dessen Basis ich schon in einem Beitrag nachdrücklich für eine Dynamische Belichtungssteuerung plädiert habe. Ich betone dies deswegen, weil dieser Zugang nicht nur ein in meinen Augen genialer ist, sondern weil hier – auf die Farbwahrnehmung angewandt – das Potenzial des Zonensystems nochmals nachhaltig erweitert, seine Bedeutung vertieft wird.
Harald Küppers verdanke ich mein grundlegendes Verständnis von Farbe und deren Wahrnehmung. Sein Zugang zum Thema Farbe – wiewohl der Drucktechnik zugewandt – ist ähnlich zonenbasierend, wie es Adams für die Darstellung unterschiedlicher Helligkeitswerte in Grauwerte angedacht und praktiziert hat. So, wie Adams’ Zonensystem Pate stand für eine freie Interpretation und erweiterte Anwendung auf das Thema digitale Belichtung, dient mir Küppers hier als Ausgangspunkt für freie Überlegungen und Interpretationen zum Thema digitale Farbe.
Wenn ich den Artikel so lese,
dann höre ich schon an den Formulierungen, aus welcher Ecke das Ganze kommt…
http://de.wikipedia.org/wiki/Lookup-Tabelle
das ist die operative Basis, nachdem das “Zauberwerk” Farbe und Helligkeit gerechnet wird.
Das ist praktisch in der gesamten Software, egal was es ist, enthalten. Das ist keine Sache, die man von Adam und Eva neu entwickeln muss.
Farbe, Farbsehfähigkeit und -wahrnehmung der Menschen ist im Prinzip hinlänglich bekannt und deshalb auch technisch inzwischen sowohl von der Aufnahme als auch von der Ausgabe sehr genau beschrieben und in vielfach redundante Anwendungen eingeflossen.
Farben werden vor allem gewichtet. Eine simple Tabelle nützt dabei gar nichts. Vielmehr ist es notwendig, die ausgelesenen Daten so zu interpretieren, dass sie für den Menschen eine von der Physiologie her bestimmte, stimmige Ansicht ergibt. Das ist etwas völlig anderes.
Allein schon die unterschiedlichen Farbrezeptoren beim Prozessor, deren Gewichtung bei der Berechnung, bedeuten eigentlich nicht in erster Linie ein Mangel, sondern vor allem eine erst mal undifferenzierte Datenbasis, die durch die nachgelagerte Berechnung im Prozessor und diversen DSPs zu einem mehr oder minder gelungenen Bildergebnis führen. Das ist vor allem auch das Ergebnis der Labormustererprobung und sicher eines der am meisten gehüteten Geheimnisse bei den Kamera- und Sensorherstellern.
Wobei man schon feststellen kann, dass die Datenbasis bei einem Bayer-Sensor inzwischen so gut ist, dass es nicht mehr so leicht ist, das so ohne Weiters zu toppen. In der Zeit, in der die Menschheit noch aus Magersensoren mit extrem dünner Datenbasis Bilder heraus quetschen musste, war das ein großes Thema, heute ist das eher eine beiläufige Sache.
Das oben ausgegebene Farbschema ist ja recht schön, nur sehe ich persönlich nicht, wie das in ein technisch machbares Baumuster einmündet. Wo werden die Helligkeitswerte in Bezug auf den Farbrezeptor ausgelesen? Wie sieht die Baustruktur im Silizium (Nanotubes oder was auch immer) aus?
Noch etwas zum Thema “Dilettant”: http://de.wikipedia.org/wiki/Dilettant
Interessanter ist es auf Dauer, Sensoren zu bekommen, die eine deutlich höhere Datenbasis anliefern, als das derzeit der Fall ist. Darüber hinaus wäre es ratsam, die Eigenschaften der Sensoren wieder dem des Films anzunähern, also beispielsweise der Zwang, telezentrische Objektive bauen zu müssen, wegfällt. Auch der Bau von Silizium-Sensoren, die für Lichtrezeption bestenfalls bedingt geeignet sind, durch bessere und gleichzeitig billiger herzustellende Sensoren zu ersetzen.
Derzeit ist der Verkauf von Digitalkameras eher rückläufig, um nicht zu sagen im Sinkflug begriffen. Das ist immer eine gute Voraussetzung, mit Innovationen dem Verkauf ein wenig auf die Sprünge zu helfen. Solange sich Baumuster hervorragend verkaufen, wird nichts ausgewechselt (altes kaufmännisches Prinzip).
Fröhliche Ostern!
Sorry
aber die einzige Basis sind die genannten Personen und meine eigene, praktische Erfahrung. Die Tabelle ist ein (sehr) einfaches Hilfsmittel, Zusammenhänge darzustellen.
Besonders Küppers zu kennen – oder wenigstens nachzulesen – würde ich für empfehlenswerter halten, als sich an irgendwelchen Wikis schadlos zu halten.
Und beim Sensor selbst geht’s mir mehr um ein in meinen Augen sinnvolle(er)es Prinzip der Rezeption, als um eine konkrete technische Umsetzung. Dafür gibt’s sicher berufenere Geister, als “Dilettanten” wie mich … 😉
Auch Fröhliche Ostern!
Sorry
aber die einzige “Ecke” für meinen Zugang sind die genannten Personen – und meine eigene, praktische Erfahrung. Die Tabelle ist ein (sehr) einfaches Hilfsmittel, Zusammenhänge darzustellen.
Besonders Küppers zu kennen – oder wenigstens nachzulesen – würde ich dringender empfehlen, als sich an irgendwelchen Wikis schadlos zu halten.
Und beim Sensor selbst geht’s mir mehr um ein in meinen Augen sinnvolle(er)es Prinzip der Rezeption, als um eine konkrete technische Umsetzung. Dafür gibt’s sicher berufenere Geister, als “Dilettanten” wie mich … 😉
Auch Fröhliche Ostern!
Esoterik
ist der Begriff für verborgenes Wissen. So gesehen hat mein Beitrag absolut nichts Verborgenes, allenfalls wenig Erschlossenes. Ansonsten ist es im Wesentlichen die Zusammenführung des Zugangs zweier unterschiedlicher Praktiker zum Thema Licht und Farbe in einer eigenständigen Hypothese. CIE-Farbräume z.B. sind dagegen etwas höchst Esoterisches, allein einer kleinen Eingeweihtenschar Vorbehaltenes. Und auf dieser Basis träumen nicht nur Sie noch lang von (echten) Fortschritten; weil auf einer solchen Basis macht(e) man immer schon Geschäfte. 😉
Auch diese Farbe
setzt sich aus den Wellenlängen von Rot und Blau zusammen – richtiger, wird von uns zu einem “Farberlebnis” Magenta (Copyright Küppers) zusammengesetzt.
Im Übrigen habe und hatte ich nicht die Absicht, Physik und Physiologie gegeneinander auszuspielen. Ganz im Gegenteil. Nur, Farbräume aus der statistischen Verteilung subjektiver Farbempfindung abzuleiten, halte ich für genau so verfehlt, wie das Thema allein einer Physik zu überantworten, die Licht im Kern auch nur sehr rudimentär versteht.
Was mir, nebst subjektiven Eindrücken, halt aufgefallen ist, gibt es einen recht schlüssigen Zusammenklang der von mir genannten Protagonisten – was (mir) zumindest hilft, Licht und Farbe nachvollziehbar(er) zu verstehen, als mich allein an technisch-mathematischen “Lösungen” zu orientieren, deren Ergebnisse in etlichen Bereichen schlicht falsch bzw. gar nicht machbar sind.
Ja, aber warum? 🙂
[quote=chris h]nachzumessen. Sie brauchen sich nur die Deckungsungleichheit der in sich schon sehr unterschiedlichen Farbräume mit dem tatsächlichen Farbspektrum anzuschauen.
Dass man nur das darstellen kann, was sich mit gegebenen Mitteln darstellen läßt – und dass man sich damit auch zufrieden geben muss – ist kein Argument dagegen, den Zugang dazu zu vereinfachen, und damit vielleicht das Darstellungsvermögen zu erweitern, zu verbessern.
Auch Frohe Ostern![/quote]
Sie konstruieren mit dieser Äußerung meiner Ansicht nach hier doch erst ein Problem, das niemand lösen muss.
Welches “Darstellungsvermögen” meinen Sie denn? Wo haben wir hier in der Praxs ein Problem?
Ich bin gespannt…
Gut Licht!
2000:1
entspricht 11 Bit – und auch das läßt sich mit 8 Bit Jpegs nicht korrekt darstellen.
Der Ausgabekontrast von Bildschirmen liegt etwa auf dem Niveau des Aufzeichnungsvermögens der Kameras. Andere Ausgabemedien sind und waren immer verlustbehaftet – profitieren aber auch von einer korrekten Bildaufzeichnung.
Mit “Farbspektrum” ist tatsächlich das Spektrum der Farben gemeint, nicht Abberationen von Objektiven.
Korrekturen von augenfälligen Abweichungen sind (mir) auch kein Problem. Nur zieht das Verschiebungen im gesamten Farbverarbeitungsprozess nach sich, die dann wieder über Interpolationen abgefangen werden müssen.
Richtig, ganz kalt. Mein Ansatz lautet: Bitte nochmal nachlesen …
Sehr schön ausgedrückt:
[quote]Idealerweise hat man die drei Töpfe zur selben Zeit an der selben stelle. Aber auch das scheitert daran, dass sich zwei Körper nicht zur selben Zeit an derselbe Stelle befinden können.[/quote]
Einfach ausgedrückt und anschaulich.
Och nööö…
[quote=chris h]
Auch wenn ich mit einem gewissen Widerstand bezüglich nicht der Norm folgenden Überlegungen absolut fix gerechnet habe, möchte ich doch berücksichtigt wissen wollen, dass auch ich hier nur Gast bin, und über allfällige Veröffentlichungen keineswegs entscheide …[/quote]
Und jetzt auch noch feige den Thomas Maschke vorschieben…. Also, so wie ich thoMas kennengelernt habe, winkt der alles durch, was zur allgemeinen Erheiterung beiträgt. Siehe auch Impressum http://photoscala.de/Impressum:
[quote]
Unter www.photoscala.de finden sich werktäglich aktuelle Meldungen rund um das gesamte Spektrum der Fotografie. Meldungen und Meinungen, Berichte und Gerüchte, Kommentare und Kurioses. […]
Für den Inhalt sind die Autoren / Kommentatoren selbst verantwortlich.
[/quote]
Nenenene…
[/quote]Das mit den Darstellungschwächen stammt nicht von mir[/quote]
Jetzt nicht rausreden!
Hat das
[quote=Gast][quote:]Das mit den Darstellungschwächen stammt nicht von mir.
Jetzt nicht rausreden![/quote]
jemand behauptet?
Das gehört mehr zum Allgemeinwissen – und ist ganz allgemein nachzulesen. Dieses oder andere Foren würde ich eher nicht als Referenz heranziehen …
Sehr schön erkannt
Genau aus dieser Grundproblematik heraus resultiert der aus vier Ebenen aufgebaute “Pyramiden”-Sensor …
Wobei ich da, ganz laienhaft, an eine Auslesung der Ebenen über die Unterseite denke – was natürlich bedingt, dass man sich die unteren drei Ebenen eher als “Ringe” vorstellen muss …
Ähm, das mit dem Hifi-Forum
war anders gemeint: HiFi-Fans leben den Placebo-Effekt voll aus: Die legen sich Mylar-Quadrate für 50 Euros das Stück unter jeden Fuß des CD-Spielers und sind dann voll überzeugt, dass er jetzt besser klingt. Und dann streiten sie sich, ob die schwarzen oder weißen sog. “Suchtplättchen” besser klingen.
Davon sind wir bei Photoscala doch wohl weit entfernt. Normalerweise, versteht sich. Denn dieser Beitrag hier unterbietet selbst die verschwurbelten Tests des Herrn Nyman noch und rückt Photoscala tatsächlich in die Nähe von HiFi-Foren….
Mylar ist übrigens ein Handelssname für schnödes Polyester. Jede Wasserflasche ist aus dem Zeugs gemacht.
Das Eine
schließt das andere nicht aus. Ich würd ja eher meinen, dass die Hersteller auch in 4 – 5 Jahren noch keine Sensoren auf die Reihe bringen, egal aus welchem Material, die uns das Farbspektrum im vollen Umfang erschließen. Die heutige Technik ist eine aus der Vergangenheit. Es steht zu vermuten, dass die Hersteller vor 4 – 5 Jahren beschlossen haben, es dabei zu belassen, und einfach den Gewinn zu maximieren. Aber dieses “Erfolgsmodell” stößt ja inzwischen an seine Grenzen, wie wir wissen. Gut so.
In Ihrer grenzenlosen Naivität
haben Sie wohl noch gar nicht bemerkt, dass “Herumgerechne” den Lebensinhalt der Sensorentwickler ausmacht. Und wenn ich die Technik von vor 5 Jahren mit der heutigen vergleiche, dann wär’ das eigentlich ein Grund zum Heulen: Gerade mal Detailverbesserungen an einem grundlegend verkorksten Sensoraufbau. Und ändert sich da nicht grundlegend etwas, dann wird sich das auch mit anderen Materialien genau so verkorkst darstellen.
In meiner
grenzenlosen Naivität sehe ich eine seit ihren Anfängen weitgehend unveränderte Sensortechnik, natürlich immer weiter verfeinert – mehr Auflösung, mehr Empfindlichkeit, verbesserte Fehlerkorrektur – aber tief verfangen im Interpolationsprozess des Bayer-Rasters (oder auch verloren in den Tiefen des Foveon-Sensors). Und so naiv bleib ich wohl, wenn ich behaupte, dass sich an den damit verbundenen, mehr oder weniger sichtbaren Problemen nichts ändern wird, so lang die grundlegenden Forderungen nach vollfarbtauglichen Sensoren, sowie konsistenteren Farb- und Lichtverabeitungsprozessen, im anspruchslosen Selbstverständnis von Herstellern wie Kunden auf der Strecke bleiben.
Bitte nichts erklären…
…die müssen ihren Osterfrust los werden!
Sudel Eddi.
Gesegnet sind jene Deppen, die viel zu erzählen haben, aber trotzdem den Mund halten.
In der Kürze
liegt der Dummheit Würze … 😎
Es könnte aber auch
einfach an Ihrer Substanz mangeln … nicht für alles ist der Chris verantwortlich. 😎
Ich hab’ auch geschrieben
dass man nichts vermisst, das man offensichtlich gar nicht zu sehen bekommt …
Diese Farbschwäche bezieht sich auf die maximale Sättigung der Farbwerte zwischen Cyan und Gelb – nicht zuletzt in der Darstellung.
Ein “Phänomen”, das in der Fachliteratur hinlänglich beschrieben – in jeder Farbraumdarstellung deutlich zu sehen ist; weswegen ich Sie hiemit einfach Ihrer Häme überlassen möchte.
Diese
Bayer-Interpolationen sind aus guten Gründen nicht Teil meiner Ausführungen – sondern sie sind eine Art der Datenverarbeitung, die mit großem Aufwand einfache Ergebnisse zeitigt.
Mit einem Rattenschwanz an Problemen hinten nach, die dann auch wieder mit ausreichend Rechenaufwand beseitigt werden müssen.
Dass uns diese Methode heute als die einzig gangbare, problemlose verkauft wird, ist hauptsächlich darin begründet, dass man halt lukrativer verkauft, was man wenigstens irgendwie im Griff hat.
Erspart dann wirkungsvoll weitere Denk- und Entwicklungsarbeit – und Geld sowieso.
Es gibt aber
nunmal physikalische Grenzen(in der Detektion von Licht), die kein Ingenieur wegdiskutieren kann. Das können nur Pipi Langstrumpf und Künstler. Aber davon baut sich kein Sensor.
Sie wissen es anscheinend doch besser..
das Thema treffender abzufassen. Stellen Sie doch einfach auch Ihr Wissen online und trauen Sich mal aus der “Deckung” ohne auf das Wissen im Netz hinzuweisen.
leser
Wie sieht denn das Verhältnis von Stäbchen und Zäpfchen auf der Netzhaut aus? Da sind die Farbrezeptoren ziemlich rar verteilt. Bayer ist dagegen schon fast Luxus. Der Rest erledigt das Gehirn. Aber es gibt ja auch Jünger die ihrem Foveon Gott huldigen und beschwören dass nur er ansehnliche Bilder zustande bringt.
Jaja…
[quote]Gerade mal Detailverbesserungen an einem grundlegend verkorksten Sensoraufbau[/qoute]
Sagt wer? Heiner Müller, der stolz ein Smartphone bedienen kann?
Jaja…
Und Ihr Sensor krankt halt nur leider an denselben Problemen wie der Bayer Sensor.
Schlimmes Geschwurbel anstatt Klartext
“Nun könnte man einwenden, dass trotz der bekannten Beschränkungen, denen die Digitalfotografie bzgl. ihres Lichtsammel- und Farbdifferenzierungsvermögens unterliegt, inzwischen ein hohes Maß an Bild- und auch Farbqualität die Ergebnisse des digitalen Aufnahmeprozesses prägt. Mithin sich ein tieferer, diese Beschränkungen hinterfragender Zugang zum Thema eigentlich auch erübrigen könnte – und wir in vorauseilender Dankbarkeit der kleinen, vielleicht auch größeren, Verbesserungen harren sollten, die uns im Fortschritt der Technologie mit Sicherheit noch ereilen werden …”
…
…
😉
Die Flasche ist nicht nur leer, da ist auch noch ein Stopfen drin… 😉
Es lohnt sich da eher
ein Blick auf kommende Technologien:
http://www.gizmodo.de/2013/06/03/kamerasensoren-aus-graphen-1-000mal-lichtempfindlicher.html
Der Graphen-Sensor scheint ein aussichtsreicher Kandidat, aber auch der Organicfilm-Sensor ist mehr als gut im Rennen.
http://www.fujifilm.com/news/n130611.html
http://thenewcamera.com/tag/organic-sensor/ (Übersicht über die Entwicklungen)
Der Organic-Sensor wird von den Herstellern immer noch im CMOS-Prozess gefertigt, lediglich die lichtempfangende Schicht ist Film, mit entsprechend hoher Dispersion ungleich zu Cu/Si. Die Detektion läuft in ähnlicher Form ab, wie das bisher der Fall ist, bzw. ändert nichts im Prinzip.
Der reine Plastiksensor wäre wohl im Prinzip im Verein mit einer diffraktiven Schicht davor die erste Wahl, wird aber nicht so schnell kommen, obwohl die Vorteile sowohl beim Prozess, den Kosten als auch bei den Eigenschaften auf der Hand liegen und das hat wohl auch etwas damit zu tun, dass die Hersteller ihre milliardenteuren Fabs nicht unbedingt sofort einstampfen wollen. CMOS, das darf man wohl sagen, braucht man nicht wirklich.
Der Foveon als einziger Vertreter einer dreischichtigen Detektion hat wohl das Handtuch geworfen, wenn sich nicht ein potenter Investor der Sache annimmt. Die Schwierigkeiten, 3 Wellenlängenspektren aus unterschiedlich angeordneten, gestaffelten Detektionsschichten in einem CMOS-Sensor auszulesen, hat sich wohl nicht in der Breite durchsetzen können und dafür gibt es nachvollziehbare technische Gründe.
Vielleicht ist das von Chris H aufgezeichnete Farbschema eines Tages mit einem OrganicFilm mit unterschiedlichen Schichten realisierbar. Wobei sich die Organisation der lichtaufnehmenden Schichten in wenigen Atomlagen Differenz sehr schwierig darstellen dürfte. Dazwischen muss auch noch die Ladungsabführung statt finden. Wer da skeptisch ist, ist wohl nicht ganz neben der Spur.
Aber rein grundsätzlich gilt schon: der CMOS-Sensor ist nicht das, was sich ein Fotograf als lichtaufnehmendes Instrument wirklich wünscht und das Baumuster ist jetzt schlicht uralt. Die negativen Eigenschaften dieses Sensors in vieler Hinsicht machen eine andere Detektionsform durchaus wünschenswert auch wenn die Hersteller am liebsten bis auf ewig ihre Invests in Sachen CMOS-Prozess durchziehen würden.
Es liegt wie so oft am Kunden: in dem Moment, wo sich die herkömmliche Ware nicht mehr verkaufen lässt, rührt sich etwas an der Anbieterfront – so einfach ist das.
Ja, danke
SW-Fotografie ist ja auch was Schönes.
Darüber hinaus stimmt es sehr bedenklich, wenn sich Leute dazu hinreißen lassen, ein Sensor-Konzept mit bekannt rudimentären (Farb)Informationen als überaus tauglich hinzustellen, hingegen einem hypothetischen Sensor, dem eine Fülle von Information zur Verfügung stünde, dieses Vermögen aus Prinzip abzuprechen. Dafür brauch ich mich dann nur entscheiden, ob solche “Argumentation” schlichter Dummheit oder “nur” berechnender Böswilligkeit entspringt, was auch irgendwie tröstlich ist.
Gedanken
[quote=chris h]was SIE dazu ohnehin NICHT äußern – so pauschal, platt und nichtssagend sind Ihre “Beiträge”.
Ganz im Gegensatz zu jenen substanziellen Postings, die ich hier sehr wohl beantwortet habe.
Nicht dass diese Ihre Masche völlig neu wäre, aber sichtbar öffnen Sie sich damit inzwischen die Magengruben der Dumpfen und Lauen. Gratulation. Oder wäre Ihnen die vage Hoffnung auf Gut Licht genehmer!?
Und was ich mir, oder andere sich, zu völlig abartigem Auschwitz-Gesülze denken – auch wenn’s nur ein aus dem Zusammenhang gerissenes Zitat ist – das wollen Sie erst gar nicht wissen.[/quote]
Ich äussere mich nie, um anderen zu gefallen. Und meine Meinung ist nicht abhängig von einer beifallspendenden Masse. Eben weil das Internet keine Therapiezone – für mich – ist.
Meinung – oder keine Meinung, das ist hier die Frage.
Um mehr geht es mir nicht.
Gut Licht!
Den zitiere nicht ich
Der wurde zitiert – von Fachzeitschriften.
Und ich wollte diese aktuelle Kapriole der heiligsten aller heiligsten Wissenschaften einfach als Exempel für die Relativität des Wissens festgehalten wissen (vor allem im Angesicht aller Alles-eh-schon-immer-Versteher, die in Internetforen zum Massenphänomen mutieren).
Von Weisheit reden wir da aber noch nicht mal im Ansatz.
Darum
bräuchten Sie auch einen schmalbandigen Filter …
Wollten Sie nur das Bayer-Prinzip auf mein Konzept anwenden, dann könnten Sie auch hier nur eine Wahrscheinlichkeitsrechnung aufstellen. Umgekehrt könnte aber auch ein Bayer-Sensor mit Schmalbandfiltern nach meinem Konzept funktionieren (andere Datenverarbeitung vorausgesetzt).
Dietmar Meisel und Harald Küppers passen explizit nicht zusammen
Dietmar Meisel und Harald Küppers passen explizit nicht zusammen.
Meisel hat sich in den vielen Telefonaten, die ich mit ihm geführt habe, und auch auf der Webseite der Firma FOTOWAND-Technic gegen Küppers ausgesprocen und von Küppers abgegrenzt.
Meisel steht in der Tradition von Klee, Kandinsky und Itten als deren direkter Enkelschüler, nämlich Schüler von Hans Thiemann und Max Bill und Almir Mavignier.
Er geht noch viel weiter zurück auf Philipp Otto Runge für Neutralgrau als Mittelwert der Farben und sagt ausdrücklich, ES GIBT KEIN ABSOLUTES GLEICHGEWICHT der Farben, man kann sich diesem Gleichgewicht immer nur annähern. Meisel ist ausgesprochener Dialektiker und betont, das es kein absolutes Gleichgewicht geben kann, der Neutralgrauwert also immer nur eine Näherung ist.
Es ist somit unlauter, ihn als jemand der Küppers anhängen würde, herbeizuzitieren. Ganz im Gegenteil, er hat sich immer ausdrücklich gegen Küppers ausgesprochen.
Er grenzt sich von Küppers Prozenttafeln ab. Meisel spricht nicht von Symmetrie in der Wahrnehmung sondern von paarweisem Auftraten der Gegensätze. Das ist das Gegenteil.
Purkinje-Effekt
Das alles ist schon recht kompliziert, und für die Sensoren-Entwickler bestimmt mit höchster Anstrengung verbunden.
Würde man dann noch den Purkinje-Effekt mit einrechnen wollen, stünde man wohl gerade am Anfang der Weisheit aller Sensorlogarithmik.
Das Ziel muss sein Sensoren zu bauen die besser in allen Belangen sind als ein guter Diafilm.
Oder, back to the roots, und mal wieder einen Film einlegen, für schöne bunte Ostereier!
Naja, das Ziel
Sensoren zu bauen, die besser sind als ein KB-Dia, ist ja zumindest teilweise schon erfüllt, wobei mit einem Scanner der HighEnd-Klasse und einem Großbilddia 6×7 und größer nach wie vor unschlagbare Ergebnisse erzielt werden.
Der Purkinje-Effekt bezieht sich auf das direkt aktuelle Umgebungslicht, das auf das Auge wirkt, das gilt nicht für einen Sensor.
In der Tat: Sensorenentwicklung dürfte nicht so trivial ablaufen, wie sich das so mancher vorstellt. Allein das Design der Sensoren ist ein Gebiet für extreme Spezialisten, das man nicht mit Mitteln aus dem Werkzeugkasten lösen kann (bei analogen Kameras kann man das).
Die rechnerischen Grundlagen dürften sich weit außerhalb der normalmenschlichen Vorstellungen bewegen und sind nur auf der Basis heute verfügbarer Algorithmen kostengünstig lösbar. Diese Grundlagen werden in laufenden Prozessen und einer Unzahl von Labormustern weiter verfeinert und verbessert. Nur so sind überhaupt bezahlbare Produkte möglich.
Natürlich kann man sich auch andere rechnerische Lösungen vorstellen. Das funktioniert allerdings schon deshalb nur mit Haken und Ösen, weil dann der gesamte Workflow von der ersten programmierten Zeile bis zu den endlosen Tabellenwerken, die hinter all den Programmen stehen, die nicht nur die Kameras, sondern auch alle anderen berechnenden und ausgebenden Geräte umgestellt werden müssten. Das wird sich so schnell niemand antun.
Sie sind
der Erste, der zum Thema Farbe etwas 100%ig Korrektes liest … Respekt. 😎
Also ich
[quote=chris h]Dass die heutigen Sensoren keine klare Differenzierung im Spektrum zwischen Cyan und Gelb zu Stande bringen, ist wohl der, auch im Beitrag angesprochenen, Doppelbelegung des Grün-Spektrums geschuldet – die, hält man sich an die von Küppers formulierten Farbmischgesetze, zwangsläugig nur “diffuse” Farbinformationen in diesem Bereich bereit stellen können …[/quote]
kann auf dem Foto unten ganz klar die Gelbfelder von den Cyanfeldern unterscheiden. Du nicht? Vielleicht liegt das ja daran, dass Du farbenblind bist?
Ach ja: Und auf meinen eigenen Fotos sieht der CC genauso aus. Ist also keine Fälschung.
Nochmal:
Jede lichtempfindliche Schicht (egal ob Film oder Sensor) ist physikalisch bedingt farbenblind, kann nur Intensitäten hinreichend genau aufzeichnen.
Zwar sind die lichtempfindlichen Schichten “farbempfindlich” — die Auflösung reicht aber bei weitem nicht aus, um da sinnvoll eine Farbinformation raus extrahieren zu können. So kann man z.B. beim orthochromatischen Schwarzweissfilm problemlos bei Rotlicht arbeiten — ganz einfach, weil die Energie der roten Photonen nicht ausreicht, um die photochemische Bindung zu knacken. Ein Spektrum erhält man aber auf diese Weise nicht. Das geht im Sichtbaren nur über den Umweg der Wandlung der Wellenlänge in eine Ortsinformation — was aber bei einem Bildsensor schon allein aus Platzgründen schon nicht geht.
Braun
ist ja auch nur schmutziges Gelb … und das Gelb des Colocheckers is das imtensivste Geld wo gibt. 😎
Kodachrome
und Fuji Velvia sind auch Geschichte … Friede ihren Emulsionen. 😎
Ja, das stimmt
[quote=Gast][quote=Gast]
Also nutze ich die aktuell verfügbare Technik, gepaart mit meinen Fachwissen und lasse die Fotos so aussehen, wie es mir gefällt.
[/quote]
Aber wenn das dem Chris nicht gefällt, dass Dir die Fotos so gefallen…?
Kodachrome und Fuji Veliva sind/waren auch weit von realen Farben entfernt. Aber gefallen tun sie wie verrückt. Egal, ob’s dem Chris passt oder nicht….[/quote]
Weswegen ich zu Filmzeiten auch Provia und Astia bevorzugt habe.
Aber was noch wichtiger ist: Es geht (mir) nicht um persönliche Vorlieben, sondern um eine konsistente Basis, von der aus Sie Ihren Vorlieben freien Lauf lassen können.
Das können Sie zwar heute auch, aber öfter mal müssen Sie mehr dafür sorgen, dass Ihre Bilder wenigstens annähernd eine konsistente Basis bekommen.
Es bleibt Ihnen aber auch noch die Möglichkeit, die Ergebnisse aus Ihrer Kamera als genau so gewollt darzustellen.
Ganz unabhängig davon, ob mir das dann so gefällt.
Nein…
Wozu?! Es gibt jede Menge Literatur im Netz – lesen und verstehen müssen Sie ohnehin selbst, das nimmt Ihnen keiner ab. Macht ja nix wenn Ihnen das obige Geschreibsel gefällt, es sollte nur einfach nicht unkommentiert als Fakt im Raum stehen. Und fachlich haben Sie ja bisher leider wirklich gar nichts zum Thema beizutragen…
Autsch
Sie sagen es … :-/
Fettnapf
ich hör Dir tapsen … hirnlos macht frei, gell. 😎
Mit Skepsis
kann ich gut leben, auch mit dem was oben zu Recht haben und Recht geben gesagt wurde – alles andere wäre auch zu vermessen.
Und dass sich die Sensortechnologie zukünftig nicht an den heutigen Materialien orientieren wird, betrachte ich ohnehin als common sense – weswegen ich’s auch nicht weiter thematisieren wollte.
Nein
Zumindest wär’s so gedacht. Aber mehr noch betrachte ich’s als Funktionsschema.
Ja, leider…
Denn (siehe ganz unten) Sie wissen ja nicht welches Spektrum Sie mit Ihren 3 Töpfen eingefangen haben, sondern nur grob in welchen Topf es passt. Damit ist, wenn der rote Topf reagiert, die Wahrscheinlichkeit groß, dass das eintreffende Licht rötlich ist – mehr aber auch nicht. Ob hellrot, gelblich rot oder fast schon Infrarot können Sie nicht unterscheiden.
Herzlichen Dank…
Selten so ein pseudowissenschaftliches und selbstverliebtes Geschwurbel völlig ohne Informationsgehalt gelesen. Sind wir hier in einem Hifi-Forum?! Die Tabelle und die daraus gezogenen “Schlüsse” sind an Banalität nicht zu überbieten und der vorgestellte Sensor wird von den Rennwagen-Erfindungen meines Neffen hinsichtlich Realitätsbezug problemlos geschlagen.
Sätze wie diese
[quote]Andererseits behelfen wir uns seit den Anfängen der Digitalfotografie mit – mehr recht als billigen – Interpolationsmethoden über offensichtliche Mankos hinweg[/quote]
[quote]Aus diesen Überlegungen heraus läßt sich auch die Anforderung an eine Sensortechnik – eigentlich eine „Antennentechnik“, weil einen Teilaspekt des elektromagnetischen Spektrums „empfangend“ wird – definieren, mit einem grundlegend andersartigen Aufbau, dafür einem sehr direkten Zugang zur Erfassung von Licht in seinem sichtbaren Spektrum[/quote]
sind der schlichte Hohn in Anbetracht der zugehörigen nicht trivialen Mathematik. Das Problem ist auch weniger die “Interpolation”. Früher gab es bei Kodak da einige gute APPnotes (und das waren zugegebenermassen die Anfänge) – schreiben Sie wieder was, wenn Sie die erste Seite durchhaben. Ein kleiner Tipp: Mr. FT hatte seinzerzeit ein besseres Verständnis des Problems.
Lieber mehr Beiträge zu aktuellen Ausstellungen und Fotografen als diesen esoterischen Schwachsinn.
Die Wahrscheinlichkeit
auch solche Kommentare gewärtigen zu müssen, lag von Anfang an hoch.
So gesehen, auch Ihnen Fröhliche Ostern. Aber, bitte, keine abartigen Vergleiche mehr mit Mr FT, ok !?
Esoterik ist der
richtige Begriff für so etwas.
Ähnlich diversen Verschwörungstheorien wie dem “Da Vinci Code” bewegen sich Esoteriker in einem geschlossenem Univerum, das man durchaus mit Vorstellungen höchster Ansprüche befeuern kann, aber am Ende doch zu nichts führt, außer dass alles im Ungefähren und Vagen ausläuft, ohne brauchbare Ergebnisse. Viel Hirnakrobatik für letztendlich Nichts.
Dieses Sensorschema, das Chris H aufgezeichnet hat, ist technisch/elektronisch zumindest mit den derzeit verfügbaren Mitteln (Si/Cu) nicht lösbar.
Weitaus interessanter ist es, die Entwicklungen im Bereich elektronischer Film weiter zu verfolgen. Da fehlt jeder Nachdruck der Anwender an die Industrie, dieses Thema mit mehr Verve zu verfolgen. Da wird von der Industrie nach wie vor der Silizium-Sensor entwickelt, obwohl es bereits sehr viel mehr versprechendere Ansätze mit Kunststoff gibt.
Ja
[quote=Sudel Eddi]…gibt’s das Bild auch ohne Farbstich?
Sudel Eddi.
Gesegnet sind jene Deppen, die viel zu erzählen haben, aber trotzdem den Mund halten.[/quote]
Kalibrieren und profilieren Sie mal Ihren Monitor.
Gut Licht!
Nein.
Ist mit einer Bayer-Sensor-Knipse gemacht worden. Die hat laut Chris eine Gelb-Cyan-Schwäche weil zu viel Grün auf dem Sensor ist. 😉
Eddi, Dein iPad ist doch nicht kalibriert!
[quote=Sudel Eddi]…gibt’s das Bild auch ohne Farbstich?
Sudel Eddi.
Gesegnet sind jene Deppen, die viel zu erzählen haben, aber trotzdem den Mund halten.[/quote]
Farben sind ein Erlebnis.
Farben sind ein Erlebnis.
Genau
Sie gehorchen aber, so wie alle Physik, den Naturgesetzen. Hingegen nur bedingt menschlichen Normen. 😉
Wobei
der Chris auch noch die Theorie vertritt, dass just diese Doppelbelegung der Grüntöne dafür verantwortlich ist … 😎
Seufz …
Physik und Wahrnehmung unter einen Hut zu bringen ist eigentlich das Thema, das (leider zu erwartende) “Verbalgeprügel” verhilft nicht wirklich zu einem besseren Verständnis dieses äußerst komplexen Gebildes.
Daher an alle “Schlaumeier”: weniger Geplärre bezüglich des Geschriebenen und vielleicht etwas mehr (Lehr)Inhalt in den Beiträgen könnte das Ganze zu einem Schuh für alle Interessierten werden lassen …
unvoreingenommen
Zitat:
“Wer sich unvoreingenommen mit diesen Zugängen auseinandersetzt, wird wohl nicht umhin kommen, festzustellen, dass es eine relativ breite Lücke zwischen den Farben der Natur und jenen Farbwerten gibt, die technisch überhaupt dargestellt werden können.”
Also ich hatte noch nicht die Möglichkeit, das nachzumessen, noch verspürte ich den Drang, dies tun zu müssen.
Auf allen meinen Bildprodukten konnte ich stets darstellen, was ich darstellen wollte. Ich konnte kommunizieren, was ich kommunizieren wollte. Ein technisches Defizit konnte ich absolut nicht feststellen.
“Farben der Natur” kann ich sehen – und als Fotograf kann ich ggf. auch speziell diese Farben als Botschaft meiner visuellen Kommunikation ungehindert und unlimitiert übergeben. Um dies optimiert tun zu können, verhelfen mir fachliche Kenntnisse und Kenntnis der Materie in der Bildausgabe dazu. So what?
Ich halte es nicht für hilfreich und zielführend, rein theoretische Betrachtungen anzustellen, die zu nichts führen als weiteren theoretischen Betrachtungen, denn diese Art der Diskussion ist unter der Begrifflichkeit “Heisse Luft erzeugen” nicht unbekannt. Und da benutze ich lieber einen Fön, denn der hat einen auswertbaren Praxisbezug. 😉
Frohe Ostern! 🙂
Gast schrieb:
…
Gut
[quote=Gast]…[/quote]
Gut Licht!
(Das hatte ich doch beinahe vergessen) 🙂
Sie brauchen nichts
nachzumessen. Sie brauchen sich nur die Deckungsungleichheit der in sich schon sehr unterschiedlichen Farbräume mit dem tatsächlichen Farbspektrum anzuschauen.
Dass man nur das darstellen kann, was sich mit gegebenen Mitteln darstellen läßt – und dass man sich damit auch zufrieden geben muss – ist kein Argument dagegen, den Zugang dazu zu vereinfachen, und damit vielleicht das Darstellungsvermögen zu erweitern, zu verbessern.
Auch Frohe Ostern!
Da könnte ja jeder kommen
und die simple Erkenntnis verkünden, dass sich die Erde um die Sonne dreht … aber das Gute dabei: Man wird nicht mehr durch das Prasseln der Scheiterhaufen, sondern nur noch noch durch das Rauschen im Netz bedroht. 😎
“Licht” und “Farbe”
[quote]
Licht und Farbe sind keine voneinander unabhängigen „Phänomene“, …
[/quote]
Was versteht Du bitte unter “Licht” und was unter “Farbe”?
Für mich ist Licht eine elektromagnetische Schwingung mit einer Frequenz, die wir als Farbe wahrnehmen und einer Amplitude, die wir als Helligkeit wahrnehmen. Farbe ist für mich also eine wahrgenommene Eigenschaft des Lichtes und kein unterschiedliches Phänomen — genauso wie der Durchmesser eine Eigenschaft des Kreises ist. Unter dieser Voraussetzung ergibt kein einziger der Sätze dieser Abhandlung irgendeinen Sinn.
Aber vielleicht ist mein Verständnis von “Licht” und “Farbe” ja falsch…
Äh
Genau das hätt ich unter ‘Licht und Farbe’ auch genau so geschrieben: “Licht und Farbe sind KEINE voneinander unabhängigen Phänomene” …
Werden aber praktisch so behandelt – dort wo Licht allein die Helligkeit zugewiesen wird, Farben hingegen mit diversen Attributen einer differenzierenden Betrachtung unterzogen werden, um dann, über komplexe Rechenprozesse, wieder zusammen geführt zu werden.
Das ist ja die Kernaussage: Wenn ich Farben (richtig) verstehen und zuordnen will, dann darf ich sie keineswegs vom Licht in seiner unterschiedlichen Intensität, also Helligkeit, trennen. Als “Stützkorsett” dafür dient mir das von mir modifizierte Zonensystem, das ich mit Küppers’ – ebenfalls modifiziertem – Farbpotenzialsystem direkt verknüpft habe. Keinesfalls als finite technische Lösung, sondern als Anstoß, technische Lösungen wenigstens dahingehend anzudenken.
Jaja…
[quote]dass es eine relativ breite Lücke zwischen den Farben der Natur und jenen Farbwerten gibt, die technisch überhaupt dargestellt werden können[/quote]
Natürlich…aber wie hilft Ihr Sensor bei dieser Übung? Hat doch auch wieder nur 3 Kanäle…
Wenn das
eine Anspielung darauf ist, dass Küppers, einschließlich Schwarz und Weiß, acht Grundfarben definiert, die für eine korrekte Farbdarstellung nötig sind, dann haben Sie Recht.
Aber er gesteht auch zu, dass allein die Primärfarben RGB (oder sollte ich die Verwirrung dadurch steigern, dass ich VGO schreibe?) in Verbindung mit Weiß, allein schon für eine wesentliche Verbesserung der Farbdarstellung sorgen können, wenn die passenden Frequenzen im richtigen Mischungsverhältnis für die elektronische Bildaufzeichnung herangezogen würden.
Auch ich gebe mich
Auch ich gebe mich gelegentlich dilettantischen Gedankenspielereien hin und komme dabei ebenso zu der Feststellung, daß wir der Perfektion ständig hinterher humpeln. So auch in der Sensortechnik und in der dazugehörigen Datenverarbeitung. So habe ich vor kurzen durch spezielle Testreihen feststellen können, daß es in isoluminanten Farbbereichen zu ausgeprägten Zeichnungsverlusten kommt. Andererseits ist die digitale Augenwischerei inzwischen so perfektioniert, daß meine dilettantische Feststellung zu einem Jammern auf höchstem Niveau verkommt. Aber was soll es – die Flickr-Statistik spricht Bände:
Beliebteste Kameras in der Flickr Community
1. Apple iPhone 5
2. Apple iPhone 5s
3. Apple iPhone 4S
4. Apple iPhone 4
5. Canon EOS REBEL T3i
Für die paar Sensor- und ernsthaften Kamerahersteller wird es demnach keine besonderen Anreize geben, an ihrer Strategie irgendwas zu ändern.
Hin und wieder suche ich Trost in Fachbroschüren aus der guten, alten Zeit. Wie z.B.
“Die Sprache der Farben” herausgegeben von X-Rite (1990). Auf S.13 findet man folgendes Zitat:
“Bedenken Sie stets, daß für die Ablehnung oder Akzeptanz einer Farbe die Zahlenwerte keine Rolle spielen. Entscheidend ist nur wie sie aussieht!”
Also nutze ich die aktuell verfügbare Technik, gepaart mit meinen Fachwissen und lasse die Fotos so aussehen, wie es mir gefällt.
Allen Forenten viele schöne bunte Ostereier!
Es würde allenfalls
viel dafür sprechen, wenn Apple seine Marktmacht dazu nutzen würde, ganz unbefangen die Sensortechnik und die Bildverarbeitung auf ein neues Niveau zu heben – das Pojekt Apple-Kamera soll ja durchaus ein Thema sein – zur Beschämung einer saturierten Kameraindustrie. 😉
genau
[quote=Gast]… … … Zitat:
“Bedenken Sie stets, daß für die Ablehnung oder Akzeptanz einer Farbe die Zahlenwerte keine Rolle spielen. Entscheidend ist nur wie sie aussieht!”
Also nutze ich die aktuell verfügbare Technik, gepaart mit meinen Fachwissen und lasse die Fotos so aussehen, wie es mir gefällt.
… … … [/quote]
Genau was ich oben sagte.
Gut Licht!
Aber
[quote=Gast]
Also nutze ich die aktuell verfügbare Technik, gepaart mit meinen Fachwissen und lasse die Fotos so aussehen, wie es mir gefällt.
[/quote]
Aber wenn das dem Chris nicht gefällt, dass Dir die Fotos so gefallen…?
Kodachrome und Fuji Veliva sind/waren auch weit von realen Farben entfernt. Aber gefallen tun sie wie verrückt. Egal, ob’s dem Chris passt oder nicht….
Gast schrieb:
Also nutze
[quote=Gast]
Also nutze ich die aktuell verfügbare Technik, gepaart mit meinen Fachwissen und lasse die Fotos so aussehen, wie es mir gefällt.
[/quote]
Dass Sie mit der aktuell verfügbaren Technik zufrieden sind, ist für mich sehr gut nachvollziehbar (ich bin es auch), aber kein Argument gegen den Artikel. Denn wir betrachten Bilder wie Bilder und die Wirklichkeit wie die Wirklichkeit (wobei auch Bilder ein Teil der Wirklichkeit sind, was wir aber hier kurz ausblenden sollten). Sie sind vermutlich in technischer Hinsicht dann mit Ihren Bildern zufrieden, wenn diese so gut oder besser aussehen, als die meisten anderen Bilder.
Sollte aber die Sensor-Technologie einen nächsten großen Schritt machen (oder ganz viele ganz kleine), dann könnte sich die Bilder-Rezeption verändern und alte Bilder sähen plötzlich alt aus. Wodurch sie nicht schlechter würden.
Weil es gerade so schön passt:
Sehen verändert unser Wissen. Wissen verändert unser Sehen.
Jean Piaget
Zu den Kommentatoren
Es kommt nicht oft vor, aber selten habe ich so klugscheißerische und besserwisserische Kommentare gelesen wie zu diesem Thema. Nach dem Motto: Was hat Christian da wider für ein Schmarren geschrieben. Nicht wenige “Gäste” wollten es auch besser wissen und den Christian mal so richtig zeigen wer hier kompetenter ist. Schade eigentlich für ein so spannendes Thema, bei der konstruktivere Kritik durchaus angebracht ist, die aber somit auf der Strecke bleibt. Ich vermute da einiges an “Feiertagsfrust” der bei den Kommentatoren mit im Spiel war, der sich hier Bahn gebrochen hat.
Nein
[quote=Gast]Es kommt nicht oft vor, aber selten habe ich so klugscheißerische und besserwisserische Kommentare gelesen wie zu diesem Thema. Nach dem Motto: Was hat Christian da wider für ein Schmarren geschrieben. Nicht wenige “Gäste” wollten es auch besser wissen und den Christian mal so richtig zeigen wer hier kompetenter ist. Schade eigentlich für ein so spannendes Thema, bei der konstruktivere Kritik durchaus angebracht ist, die aber somit auf der Strecke bleibt. Ich vermute da einiges an “Feiertagsfrust” der bei den Kommentatoren mit im Spiel war, der sich hier Bahn gebrochen hat.[/quote]
Zäumen Sie das Pferd bitte nicht vom Schwanz her auf.
Beitragsersteller müssen sich nicht über Kritk wundern, wenn sie Fachtheorien ins Netz stellen – es besteht schliesslich nicht das Vorrecht auf Beifall, weil es die Möglichkeit gibt, alles sagen zu können (Das wäre eine absurde Kombination, oder?).
Eine Idee: Einfach mal NICHT brainstormen – oder ein Thema hernehmen, das sich durch Aktualität und Praxisnähe anbietet.
Und das alles auf einem entsprechenden Niveau. Gern auch nicht-dilettantisch.
Gut Licht!
Ihr Urteil in Ehren…
Klugscheißerisch ist zunächst mal nur der Artikel, weil er außer blumigen Worten und kruden Thesen keine verwertbare Substanz bietet. Und dass Chris H. das Problem am falschen Ende sucht, könnten Sie sich selbst überzeugen. Einfach mal “algorithms for bayer pattern interpolation” googlen und sicher weiterhangel – das geht dann beliebig in die Tiefe – wobei die aktuellen technischen Implementierungen über eine einfache Interpolation weit hinaus gehen dürften. Aus diesem Artikel springt einem der vollkommene Mangel an mathematischen & physikalischen Grundkenntnissen förmlich entgegen. Und bevor man anderen mit solcherart Blödsinn die Köpfe verdreht und sich selbst blamiert, sollte man besser einfach Ruhe geben und ne gute Flasche Wein aufmachen. Blödsinn hält sich im Internet nämlich und wird immer wieder rausgekramt…
Dietmar Meisel von…
…Fotowand hat eine interessante Broschüre online
http://www.fotowand.com/pdfs/brosch.pdf
welche nicht nur den psychologischen aspekt der Farbwahrnehmung sondern auch den heilenden(wenn ich das so beurteilen darf) charakter des fotografierens abhandelt.
Ja, danke
dem Herrn Meisel verdank ich wohl auch einige hilfreiche “Eingebungen”. Und wohl hat auch er seinen Küppers gelesen. Die Betonung der Symmetrie in der Wahrnehmung und Wiedergabe geht recht unmittelbar auf ihn zurück. 😉
Genau gelesen
[quote=Gast]…Fotowand hat eine interessante Broschüre online
http://www.fotowand.com/pdfs/brosch.pdf
welche nicht nur den psychologischen aspekt der Farbwahrnehmung sondern auch den heilenden(wenn ich das so beurteilen darf) charakter des fotografierens abhandelt.[/quote]
Aus dem Script:
“Die Warnung mag in diesem Zusammenhang deplaciert und übertrieben klingen, dennoch: Auschwitz ist die Folge des technischen Denkens und kann sich deshalb wiederholen.”
Autsch.
Gut Licht!
Missverständnis
Das Grundproblem an dem Artikel ist das Missverständnis:
[quote=Chris H]
Auch Pink setzt sich aus den Wellenlängen von Rot und Blau zusammen – richtiger, wird von uns zu einem “Farberlebnis” Magenta (Copyright Küppers) zusammengesetzt.
[/quote]
Das Spektrum ist kontinuierlich: Und wenn Du zwei Wellenlängen addierst kommt NICHT eine dritte Wellenlenänge bei raus sondern es bleibt die Überlagerung von zwei Wellen. Also rot (700 nm) plus blau (400 nm) ergeben NICHT Magenta (1100 nm). Magenta kommt im Spektrum erst gar nicht vor : Oder besser ausgedrückt: Unser Auge erkennt kein Magenta im Spektrum. Stattdessen nehmen wir eine Stimulation des blauen und roten Zäpfchens aber eine fehlende Stimulation des Grün-Zäpfchens als “Magenta” wahr. Von daher ist es vollkommen egal, wie Du die Sensoren anordnest: Du wirst keinen Magenta-Sensor hinstellen können — ganz einfach, weil es kein Magenta gibt.
Das Auge kennt nur die drei sich überlappenden Farbtöpfe rot/grün/blau und malt sich damit die Welt schön:
Aus den Anteilen in dem roten, blauen und grünem Topf (Zäpfchen) kann das Auge abschätzen, wo im Spektrum die Wellenlänge liegt: Also z.B. aus der Graphik abgelesen: Bei 12,5% blau, 25% grün und 0% rot wird’s wahrscheinlich 510 nm gewesen sein. Bei jeweils 50% rot und grün, aber 0% blau wohl eher 580 nm.
Physikalisch betrachtet ist das Spektrum dagegen prinzipiell kontinuierlich (in der Praxis kann das Spektrum nur aus einigen wenigen Wellenängen bestehen (z.B. die Natriumdampflampen der Straßenbeleuchtung, siehe Spektrum unten)). Und wenn Du eine genaue Information über die Farbe haben willst, dann musst Du das Spektrum feiner rastern, als nur in drei Töpfe, wie das Bild unten schön veranschaulicht:
Es geht nicht
um ein Addieren von Wellenlängen, sondern um deren perzentuellen Anteil. Dafür brauche ich – und das möglichst exakt – zumindest die drei Empfindlichkeitsmaxima der drei Grundfarben, aus denen dann, proportional zu ihrem jeweiligen Anteil, das Farbspektrum darstellbar wird – plus jener Farbe, die den Farbkreis schließt: Magenta. In der Tat eine virtuelle Farbe, nichts desto weniger real – sichtbar, darstellbar. Eben weil es sich bei den Farben nur zum Teil um einen physikalischen Prozess, sondern vielmehr um ein physiologisches Erleben handelt – nur halt gebunden an die Materie, damit an die (Licht)Physik.
Leider kann ich nicht behaupten, das dieses Verständnis auf meinem Mist gewachsen wäre, sondern das wurde schon vor Jahrzehnten vom bewußten Harald Küppers – wesentlich komplexer – beschrieben, und läßt sich auch sehr gut verifizieren.
Na siehste Chris….
Es gibt auch andere die es verstanden haben…