|
Zur Einrodnung der Pixelpitch-Werte verweise ich auf: LENS DIFFRACTION & PHOTOGRAPHY und dort auf den "Diffraction Limit Calculator" mit den erweiterten Einstellmöglichkeiten.
Vereinfacht kann man sagen: Der Punkt an dem die stärkere Beugung anfängt Details zu zerstören, beginnt beim Blendenwert, der dem doppelten Pixelpitch entspricht. In der Praxis sind die Unterschiede zu Aufnahmen bei denen um eine weitere ganze Stufe abgeblendet wurde, noch nicht sehr auffällig.
* Bei manchen solcher Sensoren kommt echtes Pixelbinning zum Einsatz. Bei diesem Sensor ein 9-Pixelbinning. Auf dem Sensor liegen Pixelquadrate mit 3x3 Pixeln, die die gleiche Farbe abtasten. Effektiv ist dieser 108 MP-Sensor somit ein 12 MP-Farbsensor mit einem Pixelpitch von 2,4.
Original dazu auf samsung.com:
"The HM3’s pixel layout is especially arranged in three-by-three single color structures suitable for nine-pixel binning. By merging nine neighboring pixels, the 108Mp HM3 mimics a 12Mp image sensor with large 2.4μm-pixels, heightening light sensitivity when taking photographs in low-light environments."
Weiter heißt es allerdings:
"With an improved binning hardware IP, the HM3 supports seamless transitions between 108Mp and 12Mp resolutions."
Das steht leider im Widerspruch zum Absatz zuvor, denn die Millionen einzelner Dioden auf Bildsensoren sind licht- aber nicht farbempfindlich und deshalb mit Farbfiltern versehen, damit immer nur ein Farbbereich gemessen wird. Also die Wellenlängen für rotes, grünes oder blaues Licht.
Deshalb gehe ich vielmehr von einem Digitalzoom aus, weil das Sensorlayout praktisch nur 12 MP an Farbinformationen liefert. Im Grunde hat der Sensor zwar 108 MP zur Verfügung, aber nur als helligkeitsgemustertes SW-Bild aufgrund des Farbfilterarrays. Da kann man noch so sehr rumrechnen, die Farbinformationen lassen sich nur sehr begrenzt ermitteln. Und ganz sicher nicht für 108 MP. Nicht einmal annähernd. Dabei sorgt doch schon die normale Bayer-Interpolation für Farbungenauigkeiten und damit Auflösungsverluste, so daß man schon dabei bis zu 30 Prozent (?) motivabhängig abziehen muss.
Das 12 MP-Bild mit seiner sensorgrößenbedingt bescheidenen Qualität dürfte meiner Vermutung nach, nicht viel Potenzial bieten um daraus mit den zusätzlichen sw-Helligkeitsinformationen ein höher aufgelöstes Bild zu interpolieren, weil die Farbgenauigkeit entsprechend den Bach runter geht und damit die Detailauflösung auf der Pixelebene, so daß fraglich ist, ob das überhaupt erkennbar etwas bringt. Läge ich falsch mit meiner Vermutung, müßten allein schon aufgrund dieser Technik fabelhafte 12 MP-Fotos erzeugt werden können, wenn man da angeblich so gut nachträglich "hineinzoomen" kann. Da das aber nicht der Fall ist, möglicherweise schon allein aufgrund der Limiterung durch die Optiken vor den Sensoren, scheint es um so fragwürdiger.
Bei den Pixelpitch-Angaben in dieser Tabelle wurde dieser Umstand nicht berücksichtigt.