Insektenaugen-artige Objektive und dazu Software – mit Computional Photography (computergestützter Fotografie) will Adobe diverse Aufnahmeparameter wie Schärfebereich oder Aufnahmewinkel, die normalerweise bei der Aufnahme festgelegt werden, der nachträglichen Bildbearbeitung erschließen; zumindest im Denkmodell:
Dave Story, Vizepräsident der Arbeitsgruppe Interaktives Design bei Adobe, hat der französischen Presse Anfang Oktober Einblick in die Forschungsaktivitäten seiner Gruppe gegeben. Audioblog.fr hat ein Video davon aufgezeichnet.
Im Grunde geht es darum, eine Mehrfach-Aufnahme zu machen (so etwa wie diverse Varianten von Lomo-Kameras das können; in Adobes Fall mit 19 Objektiven), wobei sich die Einzelbilder dann natürlich leicht unterscheiden bzw. mit unterschiedlicher (Scharf-)Einstellung gemacht werden können. Leichte Änderungen des Aufnahmewinkels oder die Wahl der Schärfe- und Unschärfebereiche sollen so auch nachträglich möglich werden.
Das bedeutet aber auch, dass es für einigermaßen vernünftige 6-Megapixel-Aufnahmen entweder 19 solcher Elemente samt der Bildsensoren braucht – oder die 19 Einzelfotos auf einen Sensor mit 114 Megapixeln verteilt werden müssten. Ganz abgesehen von der Frage, wer eine solche, mit 19 Objektiven notwendigerweise recht voluminöse Kamera, mit sich herumschleppen möchte.
Adobe aber würde das wohl gefallen: Eine Kamera, die mit der Bildbearbeitungssoftware verschmilzt bzw. erst durch sie so richtig funktioniert.
Eine recht gute und ausführliche Zusammenfassung der Fakten findet sich beim Mac-Online-Dienst macnews: Die Zukunft der Fotografie. Wobei schon bezweifelt werden darf, ob das wirklich die Zukunft der Fotografie sein wird.
Wer alles zu diesem Thema wissen möchte, der kann sich auch bei den Fachleuten von Photographie online zunächst einmal begeistern lassen – und soll dann in Ausgabe 12/2007 alles über die Wunderlinse erfahren: Vergessen Sie alles, was Sie über Objektive gelernt haben. Wir bleiben indessen unbeirrt bei allem, was wir über Objektive gelernt haben, denn das behält natürlich nach wie vor seine volle Gültigkeit – sie bilden auch in Zukunft ab wie eh und je; zuverlässig und berechenbar (wenn auch nicht immer in der gewünschten Güte).
Experimentierfreudige kaufen sich unterdessen für wenig Geld zwei, drei Lomo-Kameras, montieren die Kameras leicht versetzt, digitalisieren die Ergebnisse, und spielen damit ein wenig in einem Bildbearbeitungsprogramm.
(thoMas)
Spielen
“Experimentierfreudige kaufen sich unterdessen für wenig Geld zwei, drei Lomo-Kameras, montieren die Kameras leicht versetzt, digitalisieren die Ergebnisse, und spielen damit ein wenig in einem Bildbearbeitungsprogramm.”
Das möchte ich sehen. Dazu bedarf es schon ausgefeilter Algorithmen, die man nicht mal so eben hinschreibt. Mit bestehenden Programmen wird da nichts dabei herauskommen.
Übrigends ist die Idee von Adobe auch insofern nicht neu, dass ich schoneinmal etwas über ein einen Viellinsenchip gelesen habe, der das Bild in allen Schärfeebenen aufnimmt. Im Grunde das was Adobe macht, nur ohne unterschiedliche Blickwinkel. Man konnte halt nachträglich fokusieren und die Schärfentiefe festlegen. Nur benötigte man dazu auch entsprechend mehrfach die einfache Auflösung, was entweder zu 320×240 Bildern oder zu 100 MPixel Sensoren führt.
Und solange sich die Physik noch nicht mit kleinen Sensoren austricksen lässt, bleibe ich bei meiner DX bzw. bald FX Kamera.
Alex
Spielereien
Wer redet denn von Algorithmen? Ich nehm’ die Aufnahmen einfach und spiel damit (Ebenen, Überlagerungen, Masken, Helligkeit, Schärfe, … Ausschnitte). Das muss ja nicht automatisch gehen (dann wirds zugegebenermaßen erstmal schwierig und langwierig).
: : :
“Wenn Sie Ihren Film also mit 4000 ppi scannen, dann scannen Sie Matsch. Sie könnten da ebensogut mit 600 ppi scannen und hochinterpolieren. In beiden Fällen haben SIE aufgeblasene Analogdaten, . . .”
Für meinen einfachen Geist: warum ist das Müll????
Z.B in der Möbel-, Auto-, Foodfotografie wird so seit Jahren gearbeitet und das nennt man dan hybrid. Große Aufnahmeformate analog, anschließend hochwertigste Scans.
Die produzieren also alle Müll?
Aaaahhhh…
…Adobe forscht. Dachte die kaufen nur auf.
So einen Blödsinn…
…braucht die Welt nicht. Einfach ein Schneider 5.6/47mm Super Angulon an eine 6×9 Kamera, einen Provia 100F rein, mit Blende 22 belichten, @ 4.000 ppi scannen und – BINGO – haben wir ein 130 Megapixel Foto erster Güte, aus dem wir beliebige Ausschnitte herausschneiden können. Keine Elektronik, keine Software, keine billigen Pressglas-Flaschenböden als Objektive, und erst recht kein Adobe in der Kamera. Dann wird das auch was.
Alles Andere ist geistiger Dünnschiss in einem absurden Hype, der nur mal wieder Adobe ins (überflüssige) Gespräch bringen soll, da die Umsätze nicht mehr steigen (zu viele Digiknipser sollen ja deren Mist frech aus dem Internet klauen).
Wahrscheinlich soll die ‘Multi-Lens-Cam’ auch alle 2 Minuten nach Hause zu Adobe telefonieren um die Authentizität der Serien-# zu überprüfen oder eine Kontrolle der Motive zu ermöglichen (bloss keine nackten Kinder am Strand – die werden sofort von der Zentrale gelöscht).
Ist schon was dran an dem Spruch: Wer Adobe Produkte klaut hat nicht all zu viel auf dem Kasten. Und wer Adobe Produkte kauft hat es nicht besser verdient.
In diesem Sinne viel Misserfolg für den Schwachsinn dieses Jahrzehnts.
Es gäbe wichtigere Dinge – die, die der Menschheit wirklich dienen würden!
Wie recht Sie doch haben
[quote=Gast]
Es gäbe wichtigere Dinge – die, die der Menschheit wirklich dienen würden!
[/quote]
Ja, eine Funktion um Beiträge in derartiger Qualität automatisch auszublenden wäre z.B. ein großer Schritt nach vorne.
MTF-Kurven von Objektiven, etc.
[quote=Gast]…braucht die Welt nicht. Einfach ein Schneider 5.6/47mm Super Angulon an eine 6×9 Kamera, einen Provia 100F rein, mit Blende 22 belichten, @ 4.000 ppi scannen und – BINGO – haben wir ein 130 Megapixel Foto erster Güte, aus dem wir beliebige Ausschnitte herausschneiden können. Keine Elektronik, keine Software, keine billigen Pressglas-Flaschenböden als Objektive, und erst recht kein Adobe in der Kamera. Dann wird das auch was.
Alles Andere ist geistiger Dünnschiss
[/quote]
4000 ppi, das sind doch 157 pixel pro Millimeter? Ist mir völlig neu, dass der Zerstreuungskreis bei MF/GF Objektiven bei 1/157 mm liegt. Bei Kleinbild ist er normalerweise mit 1/30 mm definiert, bei MF 1/20 mm bei GF 1/10 mm.
Die MTF-Kurven für das von Ihnen erwähnte Objektiv (Schneider-Kreuznach Website) sind auch für 1/5mm, 1/10mm und 1/20 mm angegeben. Und die reale Welt mit nicht plan liegenden Rollfilmen haben wir da noch nicht mal erwähnt (Oder saugen Sie Ihr Filmchen hinten an?).
Wenn Sie Ihren Film also mit 4000 ppi scannen, dann scannen Sie Matsch. Sie könnten da ebensogut mit 600 ppi scannen und hochinterpolieren. In beiden Fällen haben SIE aufgeblasene Analogdaten, die natürlich den ganzen Digitalkram in den Schatten stellen. Soviel zum geistigen Dünnschiss.
OhWeh
PS: [quote]Es gäbe wichtigere Dinge – die, die der Menschheit wirklich dienen würden![/quote]
Da haben Sie recht, aber die werden auf so einer Site wie diese nur bedingt besprochen. Hier geht es eher um Dinge, die die Menschheit nicht braucht, aber das Leben mancher Menschen (Die es sich zum Glück leisten können) schöner machen.
Pisa und Pseudowissen…
…regiert die Welt.
Da werden Werte für KB auf 6×9 cm Filmformat angewendet. Wenn der Zerstreuungskreis bei KB 1/30 beträgt, darf er für das fast 3-fach so breite 6×9 Format gern ‘nur’ 1/10 betragen. In der Summe ist es identisch, nur dass die Auflösung durch das auf 1/3 geschrumpfte Korn höher ist, sollte man eigentlich auch wissen. Eigentlich, aber dazu fehlt den Hirnlosen der Grips.
Das Hirn mag ja schrumpfen …
… aber an Korn ist gar nichts “geschrumpft”: Es wird nur in der Regel durch geringeren Nachvergrößerungsbedarf weniger sichtbar …
Im Prinzip
erinnert mich das an die Großobservatorien mit vielen mehreren Parabolspiegeln, die in die Landschaft eingebettet werden und das Bildergebnis dann zu einem kontrastscharfen Bild zusammengerechnet wird. Astronomische Aufnahmen müssen im Rechner erst entzerrt und korrigiert werden. Da sind umfangreiche Rechenoperationen nötig, bevor das Bild so aussieht, wie wir die Ansichten von fernen Galaxien kennen. Ähnlich wie der Effekt bei Unscharf Maskieren, der auch durch die Astronomie den Weg in die allgemeine Bildverarbeitung (erst analog, dann digital) gemacht hat. Vergleichbar scheint mir auch der Effekt mit den Vielfachlinsen der Insektenaugen, die das Bild ebenfalls aus einer Vielzahl von Einzelbildern zu einer immer scharfen Abbildung über einen Extremweitwinkel zusammensetzen (wer Fliegenklatschen ausweichen muss. . .). Der Vorteil eines durch die Optik nicht vorgeprägten Bildes ist die praktisch universelle Bearbeitbarkeit des Bildes in eine bestimmte Charakteristik. Dem gegenüber steht die durch die spezielle Charakteristik geprägte Optik konventioneller Objektive. Available-Light Fotografen werden das sicher nicht akzeptieren, weil es deren individuelle Bildsprache zerstört. Für viele Einsatzgebiete, in der Werbung, in der Sachfotografie werden solche Möglichkeiten u. U. sehr schnell angenommen, weil man einfach damit deutlich günstiger zu einem Bild kommt, als mit den derzeit üblichen fotografischen Mitteln. Probleme wie Scheimpflug, Parallelverstellung usw. fallen dabei (vermutlich) unter den Tisch.