Die japanische Sony Corporation will rund 371 Mio. € in die Produktion von Bildsensoren für Smartphones und Digitalkameras investieren. Insbesondere die Produktionskapazitäten der „Exmor“- und „Exmor R“-CMOS-Bildsensoren sollen um rund 40 % erhöht werden:
Sony will ab dem zweiten Geschäftshalbjahr rund 40 Mrd. Yen (ca. 371 Mio. €) in die Halbleiter-Produktionsstätte Kumamoto stecken, meldet das japanische Unternehmen. Diese Investition ist vor allem für die Erhöhung der Produktionskapazitäten der „Exmor“- und „Exmor R“-CMOS-Bildsensoren bestimmt und soll ab der zweiten Geschäftsjahreshälfte 2010 bis zum Geschäftsjahr 2011 vollzogen werden.
Die CMOS-Bildsensoren kommen vor allem in Smartphones und Digitalkameras zur Anwendung. Sony erläutert, die Exmor-R-Bildsensoren habe man bislang auf Wafern* mit einem Durchmesser von 200 mm gefertigt, nun wolle man zum Ende des Jahres zur Massenproduktion Wafer-Linien für Wafer mit 300 mm Durchmesser aufbauen. In dem Zuge soll auch die Produktion großformatiger Bildsensoren, wie sie in Systemkameras eingesetzt werden, erhöht werden. Sony gibt die derzeitige Produktion von Bildsensoren mit 16.000 Wafern pro Monat an, die Kapazität soll durch die Investition auf 22.500 Wafer pro Monat steigen.
(agün)
* Wafer = Begriff aus der Mikroelektronik, wörtlich übersetzt „Waffel“. Es handelt sich dabei um eine Halbleiterscheibe oder ein Mikroplättchen, das rund oder quadratisch sein kann und mit elektronischen Bauelementen bestückt oder beschichtet werden kann.
Kleine Korrektur
Ein Wafer ist die Siliziumscheibe, aus der mittels Fotolack, Belichtung, Entwicklung, Ätzung, Beschichtung, Dotierung, etc. viele erst mal ungehäuste, zusammenhängende Chips (nennt man Dies) entstehen. Diese Chips (auch Sensoren sind wie Speicher oder Prozessoren erst mal nur verschiedene Arten von Chips) werden dann vereinzelt (der Wafer zersägt), in Gehäuse verpackt und mit Anschlüssen versehen.
Die Dinger, die mit elektronischen Bauelementen (darunter eben Chips/ICs aber auch Widerstände, Dioden, etc.) bestückt oder beschichtet werden, heißen Leiterplatten.
Das war jetzt auch sehr schnell und sehr ungenau – näheres z.b: in Wikipedia
OhWeh
Naja…
…bei den Herstellungsprozess-Schritten hapert es aber dann doch noch gewaltig sobald aus dem Die ein Bauelement wird. Das sieht mir eher danach aus, dass das „Sehr ungenau“ geraten/vermutet ist.
Das Die wird in einen Gehäuseträger geklebt, dann kommen die Bondings, welche die Anschlüsse auf dem Die mit den Gehäuseanschlüssen verbinden. Dann wird das Gehäuse komplettiert.
Das besondere am Bild-Sensor ist jedoch natürlich sein optisches Fenster und bei CMOS bzw. dem Active Pixel Sensor (kurz APS nicht zu verwechseln mit APS-C) die Regel, dass es sich um ein Systems-on-Silicon-Bauelement handelt, während ein CCD typischerweise nur die Eimerketten-Schaltung und die Elektronen-Schienen sowie die Ladungs/Spannungswandler (1 für jeden Kanal) umfaßt und A/D-Wandler eben als eigenständiges Bauteil oder Bestandteil eines DSP auf dem Mainboard einer Kamera idR. per SMD-Verfahren verlötet ist. Beim APS-Typen sind die A/D-Wandler on-chip und der Bild-Sensor kann wie ein Speicherbaustein Pixelwert für Pixelwert ausgelesen werden nur wir pro Pixelwert eben nicht 0 oder 1 geliefert sondern der Abtastwert des analogen Pixelwertes (quasi x-bit R/G/B-RAW).
Ich kenne keine Leiterplattentechnik die mit Bauelementen beschichtet ist. Eher gibt es beschichtete SMD(Surface-Mounting-Devices)-Bausteine, welche beschichtet sind und per Laser parametrisiert werden.
Es gibt SMD-Bestückung sowie Durchkontaktierungs-Bestückung ua. bedrahteter Bauelemente. Und hier gibt es Leiterplatten bzw. Baugruppen mit Mischbestückung. Typ. ist zB. Mischbestückung an der Oberseite und SMD-Bestückung an der Unterseite bei welcher oben Redox-Flow gelötet wird und dann die bedrahteten Bauteile und die SMDs an der Unterseite per Wellenlöten kontaktiert werden. Einige Bauelementen können nur händisch verlötet werden. Laserlöten, Vapor-Phase-Löten, etc. gibt es auch noch.
Was wollen Sie mit Wikipedia? Jeder mit Internetzugang hat einen PC und mind. 1 Grafik-Karten-Schaden bereits erlebt. Exakt auf einer solchen Grafik-Karte ist alles platziert was man auf Wikipedia definitiv NICHT geeignet präsentiert bekommt.
Wer das was Sie hier schreiben nicht mit dem was auf einer Grafik-Karte verbaut ist verbinden kann der hat bei Ihrem Text sowieso nur die Chance abzuschreiben und es unüberlegt wiederzugeben. Was wohl in den meisten Fällen wie man hier immer wieder erlebt auch im Falle der Digitalen Fototechnik der erreichte oder erreichbare Status ist.
Nochmals…
…ich kenne keine LEITERPLATTEN-Technik (einzige berechtigte Korrektur wäre ggf. Leiterplatten-Technologie anstatt Technik) die mit Bauelementen beschichtet ist.
Es gibt eine klare Trennung zwischen
– Leiterplatten-Technologie
– Dickschicht-Technologie (Dickschicht-Hybride)
– Dünnschicht-Technologie
Das was bei Dickschicht-Hybride auf den Baugruppenträger aufgedruckt wird findet man bei der Leiterplatten-Technik auf keramischen SMD-Bausteinen aufgedruckt (was ich oben auch mit aufgeführt habe). In beiden Fällen kann man diese Bausteine per Laser hinsichtlich Ihrer Parameter abstimmen.
Würde man das bei Leiterplatten machen gäbe es Probleme wg. der Wärmeausdehnung der Leiterplatte, denn die Parameter dieser Bauelemente werden durch die geometrischen Abmaße bestimmt und Expansion und Kontraktion direkt auf Leiterplatten sind auch nicht wirklich für diese Bauelementen-Typ geeignet.
Bei der SMD-bestückten Leiterplatte ist das ein anderes Thema. Ein Thema ohne Probleme, wenn man keine Fehler macht. Während sich die Leiterplatte ausdehnt würde nun der SMD-Baustein sich kaum oder weniger ausdehnen. Das wird aber bei der sog. Leiterplatten-Technologie mit SMD-Bestückung „kompensiert“. Muß auch kompensiert werden können, denn Leiterplatten sind flexibler als die Baugruppenträger bei Dickschicht-Hybriden, welche steif sind wie eben Keramiken dieser Art steif sind. Durch Montage und Vibration verbiegt sich die Leiterplatte und soweit man gegenüber den steifen keramischen SMD-Bausteinen diese Verschiebungen nicht kompensieren könnte, würden die SMDs herausbrechen bzw. sich ablösen. Das passiert auch tatsächlich aufgrund von Konstruktionsfehlern hinsichtlich Gehäuse-/Leiterplatten-Montage und Layoutfehlern der Leiterplatte.
Leiterplatten andere Baustelle wie Dickschicht-Hybrid-Baugruppen.
Diese Dickschickt-Hybride sind auch keine Leiterplatten die man durchaus auf eine Leiterplatte per Durchkontaktierung verlötet. Das sind eben Dickschicht-Hybrid-Baugruppen.
Das was Sie nicht sein möchten aber sind….
…haben Sie eben bereits benannt.
offen sichtlich (ein) Soziopath
bzw.
offensichtlich ein Soziopath
Sie wissen sehr wohl was ich mit meinem Posting über Sie ausformuliert haben hinsichtlich Ihres Postings/“selbstausgestellen“ Outings.
Bitte was hat Silicon Valley vs. Robotron/RFT hier (anderes) zu suchen???!!! Und dann noch nur Halbwissen über Dickschicht-Technologien???!!! Und dann va. Ihre Art und Weise des Auftretens???!!!
Kurz und knackig…
…und eben die heile Welt zeigt diese Darstellung des CDS-Verfahrens.
http://web.canon.jp/imaging/cmos/technology-e/noise_reduction.html
Incl. Bildern geht eben alles einfacher und kürzer/knapper.
Noch mehr
Digitalkameras mit schlechten Sensoren. Der CMOS Sensor in den Kompaktkameras ist wohl so das schlechteste was es am Markt gibt.
Achja, da spricht der Experte was? (total unsachlich)
[quote=Gast]Digitalkameras mit schlechten Sensoren. Der CMOS Sensor in den Kompaktkameras ist wohl so das schlechteste was es am Markt gibt.[/quote]
Achja, da spricht der Experte was? (total unsachlich!) Man müsste es besser wissen, Canon baut CMOS-Sensoren seit Jahren in ihre D-SLR Kameras und Sony auch seit geraumer Zeit, gerade die CCD Technik hat doch das schlechtere Rauschverhalten bei höheren ISO-Empfindlichkeiten gezeigt gegenüber den CMOS-Sensor in der Praxis bei zunehmender Pixelzahl etc.! Zwar hat der CCD-Sensor theoretisch weniger Grundrauschen und das bessere Dynamikverhalten. litt aber häufig an Blooming und Co. Zudem beweist Sonys EXMOR R* Sensor gekonnt, was man aus dem CMOS-Sensor bei kleineren Sensorformaten noch rausholen kann, deutlich weniger Rauschen als die altbackenen CCD-Chips. Sorry, wer heute noch meint, der CCD Chip hätte den besseren Dynamikumfang (das stimmt nur noch bei Fujis Super CCD Technik allerhöchstens noch) und die bessere Bildqualität in allen Lebenslagen, der irrt sich gewaltig, die CMOS-Sensortechnik ist längst mehr als der Billig-CMOS Sensor in Handys. Wer das nicht verstanden hat, der hat in der Welt der Technik was verpasst. Ansonsten Gegenfrage: Welche Sensorentypen benutzen Nikon, Canon, Sony denn mittlerweile fast nur noch für ihre D-SLRs? Und warum ist wohl die Nikon D3(s) ein Rauschwunder? Und die Alpha 900 und EOS 5D Mark II, sowie EOS 1Ds Mark III in vieler Hinsicht einer der besten Kleinbild-Vollformatkameras in Sachen Auflösung und Dynamikumfang.
Dann bauen Sie dann mal…
…daraus eine Version in der sich ein Fachidiot „ehrlich“ gibt.
[quote=Gast]wirres Geschreibsel!!! Und im übrigen gibt oder gab es seit ca 25 Jahren Leiterplatten mit aufgedampften oder aufgedruckten Bauelementen!!! ZB. Widerstände, Kondensatoren, Induktivitäten. Kann ja sein das sich Robotron und RFT Techniken nicht bis nach Silicon Valley rumgesprochen haben!!! Aber können, konnte man das schon!!![/quote]
Eigentlich eine einfache Aufgabe, da sich ein vormals sich bereits als Fachidiot auffälliger hier wiederholt so zeigt. Dh. er ist hier hinsichtlich Technologien von Robotron und RFT fachfremd unterwegs, weil er diese Technologie bestenfalls nur in seinem Job benutzt hat. Somit müssen Sie garnicht – was Ihnen allerdings stehts leicht fiehl – auf Idioten der gerademal wieder selbst sich auf die Hosen tritt machen sondern nur das tun was ein Fachidiot (sog. Spezialist anstatt sog. Allrounder) tut. Dh. sich dessen bewußt ist eigentlich keinen Beitrag liefern zu können der fachlich korrekt ist, weil er hierzu „fachfremd“ ist.
Raw-Konverter
[quote=Gast]Die Kamerahersteller nutzen ähnliche Tests um das Bildmaterial was die Kamera erzeugt, hinsichtlich der Bildbearbeitung IN der Kamera, so „aufzubereiten“, dass möglichst viele Käufer (incl. Profis) damit zufrieden bis begeistert sind.
RAWs die unbearbeitet sind angucken die wie bei CMOS mit CDS-Verfahren bereits gut entrauscht sind „wirkt“ schonmal bzw. „beeindruckt“. Va. wenn man im Vergleich dazu RAWs aus einer Kamera mit einem Sensor der das CDS-Verfahren nicht nutzt anguckt, dann wird derjenige der alles andere als etwas was Ihn interessiert auch mal tiefer inspiziert diese Kameras ohne CDS-Verfahren links liegen lassen und darauf hoffen, dass im digitalen Mittelformat auch hoffentlich bald solche CMOS-Sensoren mit CDS-Verfahren angeboten werden.
CCD va. FFT CCD sind eben eher auf die Anwender ausgelegt, welche mit Mittelformat bzw. digitalem Mittelformat arbeiten und CMOS mit CDS-Verfahren „gefällt“ eben den meisten Käufern die alles andere als die Käufer sind, welche eine Ausrüstung für das digitale Mittelformat nutzen.
Wie das ausgeht, wenn ein Hersteller sich erlaubt diese FFT CCD-Technik im Bereich D-SLRs mit Crop-Format einzusetzen hat man schon bei E-1, E-300 und E-500 erlebt.
Immer mehr Nutzer, welche entweder auf LiveMOS oder andere Systeme mit CMOS umgestiegen sind geht es ähnlich wie Nutzern einer Nikon D200 (IT-CCD), welche ebenfalls auf eine D300/D300s oder eine andere Kamera mit CMOS umgestiegen sind.
Vergleichen Sie mal die DxO-Ergebnisse einer D200 mit der einer D300/D300s. Schon hier erlebt man, dass für solche „Tests“ um als Hersteller oder Testlabor die Kamera hinsichtlich Ihrer „Auslegung“ zu bewerten die D200 passen muß.
Vielen Testlaboren ging es aber ähnlich wie vielen Usern. Man gab dann schon zu, dass die D200 einfach die „schöneren“ Bilder mit den „schöneren“ Farben macht und das NICHT in die Kategorie Geschmacksache gehört sondern CCDs eben Ihre Vorteile gegenüber CMOS mit CDS-Verfahren haben.
Man sollte lieber einmal Sensoren bei hellen grünen und hellen orangen Pastelltönen testen aber bitte nicht mit Farbmuster-Templates sondern am besten mit Glasvasen. Hier trennt sich die Spreu vom Weizen.
Ein anderer Forent hat hier einmal bestimmte grüne Gesteinsformen genannt bei denen er die Farbgüte einer E-1 gegenüber anderen Kameras lobte.
Sicherlich sind CCD-Kameras eher Kameras für Motive bei gutem Licht ABER wer das Prinzip des CCDs und des CMOS verstanden hat erkennt ebenso, dass gerade bei Langzeitaufnahmen in der Nacht der CMOS sein höheres Störladungspotential erstmal aufgrund der langen Belichtungszeiten „verdauen“ muß während der eigentlich eher durch Ladungstransport- und thermisches Rauschen „gestörte“ CCD aufgrund der reichhaltig gesammelten Nutzinformation sich durchaus sichtbar vom CMOS abhebt. Das Elektronenglühen bei ausgeschaltenem Dark-Frame-Verfahren darf einen dann allerdings nicht stören, denn man macht Langzeitaufnahmen eben stets mit aktiviertem Dark-Frame-Verfahren. Nichts anderes ist letztendlich das CDS-Verfahren nur eben hat ein CMOS mit CDS-Verfahren eigentlich 2 Pixel-Arrays und das komplett gegen Licht maskierte tut die ganze Zeit nichts anderes als Störladungen einsammeln um „das Rausch-/Störladungs-Bild“ dann bei der Bildung des Pixelwertes direkt am Pixelort herauszurechnen.
Durch geeignete Motive (helle grüne und orange Pastelltöne im Farbton der bekannten Farbblindheit-Tests wo Farbblinde orange als grün und grün als orange nicht unterscheiden können) kann man die Vorteile von CCD gegenüber CMOS klar herausarbeiten.
Himmelblau dh. Himmel an einem sonnigen Tag mit etwas Wolken. CCDs zeigen hier in der Basis kein spontanes Pixelrauschen, während Active Pixel Sensoren (zB. CMOS), da direkt am Pixel winzige Ladungs-Spannungs-Wandler sitzen (müssen), welche aufgrund von Prozesstoleranzen und Halbleitereigenschaften „nie“ superexakt denselben Verstärkungsfaktor haben, eben ein Rauschpattern liefern was wie spontanes Rauschen aussehen würde. Da dieses Rauschpattern herausgerechnet werden MUSS um es nicht sichtbar werden zu lassen wird ab Basis-ISO bei CMOS „entrauscht“ zusammen mit allen anderen Filterungen incl. den hier erstmal nicht erläutertem deutlich stärkeren Pixel-Cross-Talking als va. gegenüber einem FFT CCD, ergibt sich bei diesem Motiv mit Himmel, dass eine Aufnahme mit einer Leica M9 (18MPx) nicht nur beim Himmel plastischer wirkt sondern auch klarer und Diaähnlich, während der Himmel bei CMOS zwar glatt strahlt aber irgendwie platt und va. die Wolken sehr 2D und weniger 3D wie bei der Leica M9 mit FFT CCD wirken.
Das ist wiederum bedingt durch das was der Sensor ausspuckt und sicherlich auch Leica M-Optiken ermöglichen ABER würde man ein preiswerte Leica M-kompatbile Optik für einen noch faireren Vergleich draufsetzen ergäbe sich grundsätzlich derselbe Eindruck nur eben wären zB. fliegende Vögel im Himmel weniger klar wie bei orig. Leica M aufgelöst.
Am besten vergleichen Sie mal Canon EF L USM II Festbrennweite – USM II meins Erachtens hervorragende Objektive, welche überwiegend digital tauglich bei offener Blende sind bzw. leicht abgeblendet anstat wie nicht gerade wenige USM I erst ab f4, f5,6, f8 wollen – auf einer KB-VF von Canon mit Leica M Festbrennweite auf einer Leica M9.
Es ist auch nicht der fehlende LowPass-Filter der Leica M9, wobei das Weglassenkönnen auch wiederum ein Vorteil von va. FFT CCDs ist, denn bei CMOS kaschiert man die Effekte des Pixel-Cross-Talkings mit dem LowPass-Filter natürlich ebenso und nicht nur Farb-Moire.
Wir sind aktuell beim Sensor und nicht dem Vergleich der Einsatzmöglichkeiten „Rangefinder vs. AF-D-SLR“.
Jede das seine ABER bitte nicht Systeme mit hochwertigen Sensoren plattreden, während immer mehr Speed-AF-D-SLR-User sich eine Leica M9 zulegen um damit jenseits von Sport und Aktion eben das für Sie sichtbar bessere Bildmaterial von einem kompakten, mobilen, unaufälligen System geliefert zu bekommen.
Klaro rauscht die Leica M9 doller als eine 5D Mk II ab einem bestimmten ISO-Wert. ABER S/N ist nicht wirklich das Novum hinsichtlich der Bewertung von Bildqualität in Gänze.[/quote]
Neulich gabs als kostenlose Dreingabe bei Profifoto capture one.
Den habe ich mal auf meine Raws von der E 620 losgelassen. Im Vergleich zum Raw-Konverter von Oly gabs da heftige Unterschiede in den Farbe. Ich werde demnächst mal einen Test machen und schauen, welcher Rawkonverter näher am Original liegt. Bisher wirken die Farben vom Olykonverter um einiges schöner als die von Capture one. Ich war darüber ziemlich überrascht und hätte nicht gedacht, dass die Unterschiede so gross sind. Bisher habe ich die Erfahrung gemacht, dass der Adobe Rawkonverter zwar sichtbar mehr Auflösung produziert als Silkypix (Bei der Pana G1), aber und nun kommt das ABER, die Aufnahmen die mit Silkypix konvertiert wurden,immer mehr wie ein analoges Foto (im Ausdruck auf A 3) aussahen, während die gleichen Raws mit Adobe einen irgendwie digitalen (künstlichen) Eindruck hinterliesen, der mir meist deutlich weniger gefallen hat als die Silkypix Fotos.
Also: Nicht nur der Sensor, sondern auch der benutze Rawkonverter hat einen nicht zu unterschätzenden Einfluss auf die Farbwiedergabe des fertige Fotos.
Was Sie oben erwähnt haben, kann man anhand von zahlreichen Beispielfotos in der Leica Fotografie International Zeitschrift (8/2009) nachlesen, bzw. angucken.
Das Eckige muss ins Runde
Ein Sensorhersteller will möglichst viele rechteckige Sensoren auf einem runden Chip unterbringen. Dabei entsteht in den Randbereichen des runden Wafers in jeder Reihe Ausschuss, der keinen ganzen Sensor mehr ergibt. Wird der Sensor größer, vergrößert sich der Beschnittanteil. Wird der Wafer größer reduziert sich der Verlust.