header

   

    

    

   

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

   

    

    

   
trennlinie10 abstand

    
    

   

    

    

   

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

   

    

    

   

    

    

    

    

    

    

    

    

    

    

    

    

   
   

DSLR oder Scanner - ein Technikvergleich
                    
Scanner haben Zeilensensoren, die über das Bild bewegt werden.
Scanner arbeiten sequentiell, das Bild wird über einen gewissen Zeitraum hinweg Zeile für Zeile aufgenommen.
   
Die Sensoren in Kameras und Scannern sind an sich nur lichtempfindlich, nicht farbempfindlich, sie können nur Helligkeitsinformationen aufnehmen. Damit sie farbempfindlich werden, muß man sie mit Farbfiltern versehen.

In Farb-Scannern werden sogenannte trilineare Zeilensensoren verbaut: drei eng nebeneinanderliegende Sensorzeilen, die je mit einem Farbfilter für rot, grün und blau versehen sind. Bewegt man diesen kombinierten Zeilensensor über das Bild (oder das Bild über den Sensor), werden drei Einzelbilder für die drei Farbauszüge Rot, Grün, Blau aufgenommen, die dann übereinander gelegt, also zur Deckung gebracht, werden. Fertig.
Für jeden einzelnen Bildpunkt liegen also exakt gemessene Rot-, Grün- und Blauwerte vor. Aktuelle Scanner arbeiten je Farbkanal mit 16 Bit, also mit 65536 Helligkeitsstufen pro Farbkanal. Übereinandergelegt sind das dann 3 x16 Bit = 48 Bit.  
   
Der Scanner liefert ein Bild, dessen Bildbreite - in Bildpunkten gemessen - der Länge des Zeilensensors in Bildpunkten entspricht.
  
Die Bildlänge ergibt sich aus der Bewegung des Bildes über den Sensor. Das Auslesen des Sensors wird mit der Bewegungsmechanik gekoppelt und so entsteht, bei korrekter Justage, ein unverzertes Bild mit exakten RGB-Werten für jeden einzelnen Bildpunkt.   
  
So arbeiten zum Beispiel die Flextight Scanner von Imacon oder Hasselblad und Großformatscanner von Cruse (festehende trilineare Sensorzeile, feststehendes Oblektiv, bewegtes Original) und fast alle Flachbettscanner (feststehends Original, bewegtes Objektiv, bewegte trilineare Sensorzeile). Auch Scannerkameras (Seitz 6x17 Digital) oder Scannerrückteile (Scanbacks) für klassische Großformat- oder Reprokameras (Anagramm, Betterlight, Rencay) arbeiten nach diesem Prinzip (feststehendes Original, feststehendes Objektiv, bewegte trilineare Scanzeile). Solche Scanbacks erzielen Auflösungen, von denen "normale" Digitalkameras nur träumen können: Ein Rencay 4x5 Scanback kann 2808 MPixel als maximale Auflösung liefern - oder 24000 x 39000 Pixel - benötigt dazu aber auch 5 Minuten Scanzeit.
   
trilinear3x12

         

|          
|

|          
|

|          
|

|          
|

|          
|

|          
|

|          
|

|          
|

|          
|

|          
|



|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|



|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|

|
|

                        
Kameras haben Flächensensoren, auf die das Bild projeziert wird.
Das komplette Bild wird in einem kurzen Moment aufgenommen, eine sogenannte One-Shot-Aufnahme. Es wird in einem Moment gleichzeitig das ganze Bild erfasst, es erfolgt keine zeilenweise Abtastung, sondern eine einmalige Belichtung des gesamten Bildfeldes, der gesamten Sensorfläche. (Daß der Sensor danach zeilenweise ausgelesen wird, tut nichts zur Sache, das Bild entsteht in einer Komplettbelichtung.) Wollte man ein dem Ergebnis der Scanner und Scanbacks vergleichbares Ergebnis erzielen, müßte man bei dieser Technik jeden einzelnen Bildpunkt aus drei Minibildpunkten für Rot, Grün und Blau aufbauen und diese dann als je einen 48 Bit Bildpunkt auslesen. Das geschieht aber nicht, da damit das Auflösungsvermögen den Herstellern zu gering wäre.
In fast allen aktuellen Digitalkameras werden Sensoren mit einer sogenannten Bayer-Matrix als Farbfilter verwendet. Die Sensoren werden mit genau angeordneten Farbfilterflächen für Rot, Grün und Blau beschichtet.
Die Hälfte der Bildpunkte ist dabei grünempfindleich und je ein Viertel ist rot- beziehungsweise blauempfindlich.
Der Grünanteil liefert den größten Teil der Helligkeitsinformation des Bildes.
Die grünempfindlichen Bildpunkte sind als diagonale Treppen angeordnet, was vertikale und horizontale Strukturen gut abbildet.

Für jeden einzelnen Bildpunkt wird dabei aber nur eine der drei Farbinformationen Rot, Grün, Blau aufgenommen. Die beiden fehlenden Werte, müssen geschätzt, interpoliert werden, also der Blau- und der Rotwert für jeden Grünpunkt, der Blau- und der Grünwert für jeden Rotpunkt und der Grün- und der Rotwert für jeden Blaupunkt.

Je besser der Algorithmus ist und je mehr Rechenzeit investiert wird, desto besser wird das Ergebnis. Die Algorithmen ziehen auf Musterbildern beruhende Bildanalysen heran um die Farben der Bildpunkte zu bestimmen. Das Bild wird mit mathematischen Methoden geschätzt, nicht wirklich abgetatstet. In diesen Bildberechnungen ist heute auch die Fehlerkorrektur des Sensors (defekte Bildpunkte), die Bildfehlerkorektur des Objektivs, das Farbmanagement, und grundlegende Bildbearbeitung (Schärfung, Sättigung, ...) enthalten. Problematisch wird all das, wenn feine Bildstrukturen in die Größenordnung des Rasters kommen, wenn die feinen Haupstrukturen diagonal durch das Bild laufen (also entsprechend den Grünsensoren der Bayer-Matrix) und das aufgenommene Bild nicht den Erwartungen aus den Musterbildern entspricht, die dem Algorithmus zu Grunde liegen...
Ergebnis ist immer ein interpoliertes, "geglättetes" Bild.
   
   
bayer9x12




         

         

         

         

         

         

  

         

  

         

  




 

  

  

  

  

  

  

  

         

  

         




  

  

  

  

  

  

  

         

  

         

  




  

  

  

  

  

  

         

  

         

  

         




  

  

  

  

  

  

  

         

  

         

  




  

  

  

  

  

  

  

  

         

  

         




  

  

  

  

  

  

  

         

  

         

  




  

  

  

  

  

  

  

  

         

  

         

                        
Beide Techniken, Flächensensor mit Bayer-Matrix und trilinearer Zeilensensor haben ihre Vor- und Nachteile und daraus resultieren ihre Einsatzgebiete, in denen sie zur Zeit erste Wahl sind.
Ein Bild eines bewegten Objektes ist mit einem Scansystem eigentlich nicht aufzunehmen - es sei denn, man will Kunst produzieren. Aufnahhmen mit der Seitz 6x17 Digital Scankamera vom Rheinfall bei Schaffhausen, einer belebten Fußgängerzone oder auch nur einem langsam fahrenden Schiff sind sehr interessant, aber nur unter künstlerischem Aspekt, nicht als Abbildung der Realität - ähnlich wie Langzeitbelichtungen eben dieser Situationen, wenn auch mit ganz andere Bildeffekten.
Hier ist die schnelle One-Shot-Lösung gefragt.
Für statische Motive, ohne jede Bewegung, wie Kunstreproduktionen, Innenarchitektur oder auch die Digitalisierung von Filmmaterial spielt die Sensorbewegung durch das Bild keine Rolle. Wo sich nichts bewegt, kann man auch zeilenweise nacheinander abtasten. Hier kommt den Bilddateien die exakte Farbtreue (keine Interpolation!) und das hohe Auflösungsvermögen der Scantechnik zu Gute.
   
Mit fortschreitender Entwicklung der Flächensensoren werden sich die Nutzungsbereiche immer weiter zum Flächensensor hin verschieben, aber noch sind wir auf dem Weg...

Ein interesanter Weg ist nzum Beispiel die Entwicklung des Foveon X3 Sensors, der ohne Bayer-Matrix auskommt, indem er drei für Blau, Grün und Rot empfindliche Sensoren (in dieser Reihenfolge) hintereinander legt damit die komplette Farbinformation für jeden Bildpunkt aufzeichnet. Der Sensor führt heute allerdings nur ein Nischendasein.

Durch Pixelshifting werden in einen hochpreisigen Kameras die Sensoren verschoben und direkt nacheinander mehrere Aufnahmen gemacht, die dann übereinandergerechnet werden. Es wird dadurch eine höhere Auflösung für das entsehende Bild erzielt, als den Sensor eigentlich Bildpunkte hat. Durch diese höhere Auflösung werden dann auch, wenn man die Bilder wieder verkleinert, die Farbinformationen für die einzelnen Bildpunkte besser. Mir ist jedoch kein System bekannt, das Pixelshifting exakt an die Bayer-Matrix anpasst und so für jeden Bildpunkt kurz nacheinander wirklich die drei Grundfarbinformationen auslesen würde. Meines Wissens wird in der hohen Auflösung immer noch interpoiliert. Zukünftig könnte aber auch das möglich sein...
   
trennlinie01 abstand

       
       

   

    

    

   

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

    

   

    

    

   

       
       
copyright

  
   
   
   

   

    

    

   

    

    

    

    

    

    

    

    

    

    

    

    

    

    
© pepd.de  -  peter emmerich photographische dokumentation & photographische dienstleistungen  - kontakt  -  all photographs designs and texts shown on this website are copyright © 2021 by peter emmerich