Share your experience!
Als Einstand in meine Serie möchte ich euch kurz den Bayer-Mosaik-Sensor vorstellen, der in unseren Alpha´s zum Einsatz kommt.
Die meisten Hersteller verwenden diese Technik. Grundsätzlich ist es so, dass, egal ab APS-C Sensor, Vollformatsensor, 12 Megapixel 16 Megapixel oder, oder, der Sensor nur Helligkeitswerte unterscheiden kann.
Also die Lichtmenge die auf das einzelne Pixel auftrifft wird nur in Graustufen ausgegeben. Aber wie kommt nun das Farbbild zu Stande. Es wird einfach nur ausgerechnet. (Interpoliert)
Auf dem Sensor ist ein schachbrettähnlicher Filter aufgesetzt auf dem die 3 Grundfarben Rot, Blau und Grün aufgebracht ist. Grün nimmt dabei 50% ein, weil Grün für die Helligkeits- und Kontrastreglung gebraucht wird
und das menschliche Auge für Grün besonders empfindlich ist. Die anderen Farben sind anteilig jeweils 25%. Eine Zeile ist dann jeweils Grün-Blau-Grün-Blau usw die nächste Zeile dann Rot-Grün-Rot-Grün usw, dann wieder von
Vorn. Jedes einzelne Segment liegt dann genau auf einem Pixel, also wenn wir 6000 x 3000 Pixel haben, haben wir auch 6000 x 3000 einzelne Farbfiltersegmente. Wenn wir dann Fotografieren trifft das Licht erst auf den Filter und dann auf den Sensor
Je nachdem wieviel Licht von einer Farbe auf den Sensor trifft, wird ein ensprechendes S/W Bild auf dem Sensor erzeugt und dann mit Hilfe des hinterlegten Algorythmus das entsprechende Farbbild errechnet.
Schematisch etwa so
Ich hoffe, ich konnte es relativ verständlich mit wenigen Worten erklären.
VGRené
Hi René,
danke für den interessanten Artikel.
Bin schon auf dein nächstes Thema gespannt.
Hier noch was zum Thema PixelShift der neuen A7RM3 - passt irgendwie zum Thema Bayer-Mosaik
Schöne Grüße
Peter
Hi Peter,
danke
Aber Pixelshift ist auch supercool, da wird sogar der Sensor unterm Bayermosaik verschoben, wow. Sowas hätte Mann gern
VG René