CCD und CMOS Sensor Info
Sensortechnik - Licht und Schatten
Spektrale Wahrnehmung von Sonnenlicht und Glühlampen
Die Großzahl der digitalen Kameras mit
Halbleiterbildsensor (im Englischen solid state cameras, im
Gegensatz zu auf Röhren oder Film basierten Systemen) sind
Ein-Chip-Kameras. Daraus erklärt sich die geringere
Lichtempfindlichkeit der Farbkameras. Denn gegenüber der jeweiligen
nackten Schwarz/Weiß (besser: monochrom) Version ist die Oberfläche
des entsprechenden Farbsensors mit einer Rot-Grün-Blau (kurz: RGB)
Farbbeschichtung versehen. Und die schluckt etwa 50% der
Lichtintensität.
Oft geht sogar noch viel mehr verloren, da zur Farbtrennung und
für einen genügend großen Aussteuerungsbereich (Dynamik) der
Nah-Infrarotanteil (engl.: NIR, near IR) des Spektrums durch einen
zusätzlichen IR-Sperrfilter (engl.: IR-cut, IR-stop) bis ca. 1,1
Mikrometer Wellenlänge unterdrückt werden muss. Die Farbmaskierung
ist nämlich für langwelliges Licht durchlässig und gerade in diesem
Spektralbereich sind die Sensoren ziemlich wirkungsvoll. Filterlose
Schwarz/Weiß CCD Kameras könnte man praktisch als behelfsmäßige
Nachtsichtgeräte einsetzen.
Im Museum oder einer Ausstellung fand ich vor einiger Zeit wohl
einmal diese knackige Gegenüberstellung der unterschiedlichen
Anzahl von Helligkeitsabstufungen (Dynamik) verschiedener
Aufnahmesysteme:
Digitalkamera 1 Tsd., Standard Dia-Farbfilm aus den 1980ern 1 Mio., menschliches Auge 1 Mrd.
Pixel und Farben
Auflösung - Schwarz/Weiß kontra Farbkameras
RGB Streifenfilter
Bayer Mosaikfilter
Da die Farb-Befilterung eines Sensors im Streifen- oder Mosaikmuster aufgebracht ist, ergibt sich dadurch noch ein weiterer Nachteil: Bei einem Schwarz/Weiß Sensor kann jede lichtempfindliche Zelle direkt zur Auflösung beitragen. Jeder einzelne der Zellen kann einen Farbton mit seinem Grauwert zwischen schwarz und weiß abdecken, also jede Zelle ist ein Pixel (= picture element; dt.: Bildelement). Ein Farbsensor mit der gleichen Zellenzahl benötigt jeweils eine rot, eine grün und eine blau maskierte Zelle zur Darstellung der Farbtöne. Jedes Pixel setzt sich also aus einem RGB-Subpixeltripel aus drei Zellen zusammen. Rein rechnerisch ist die Auflösung bezogen auf die Zellenzahl dann nur noch ein Drittel. Dieser Sachverhalt wird bei der Angabe der Auflösung gerne unterschlagen und die Zellenzahl mit der Pixelzahl gleichgesetzt. Mittels aufwändiger Algorithmen kann aber der Auflösungsverlust durch die Farbmaskierung schon in Echtzeit aufgefangen werden. Jedoch erreicht man kaum mehr als 2/3 der Auflösung des entsprechenden Schwarz/Weiß Sensors.
Die Bilder links zeigen Ausschnitte aus Farbfiltern. Jede Zelle
entspricht einem (Sub-) Pixel. Die doppelt so häufigen grünen
Zellen dienen zur Erzielung einer höheren Auflösung entsprechend
dem menschlichem Wahrnehmungsvermögen (Mitte des Spektrums;
Empfindlichkeit). Die Elektronik für die Ansteuerung und
Adressierung wird meist in den schwarzen, hier nur dünn
dargestellten Pixel-Rahmen positioniert. Je nach Typ des Sensors
kann so ein blinder optisch passiver Bereich dann größenmäßig der
Fläche des jeweiligen echten optisch aktiven Pixels entsprechen
oder diese sogar noch übertreffen. Nebenbei: dieses Verhältnis aktive zu
passiver Sensorfläche wird als Füllfaktor bezeichnet.
Mosaikfilter bieten generell eine höhere Auflösung als
Streifenfilter, die Farbinterpolation ist jedoch komplizierter.
Die Pixelanzahl ist also nicht alles - viele Pixel machen noch
keine Qualität (soviel zur allgemeinen Pixelschlacht). Sie
ist allenfalls so aussagekräftig wie der Prozessortakt als
alleiniges Kriterium für die Leistungsfähigkeit eines
Rechners. Es kommt auch auf Kontrast, Empfindlichkeit, Dynamik,
Farbseparation und vieles andere mehr an. Und das Objektiv hat auch
ein Wörtchen mitzureden. Ein Megapixel Monster mit flauen
Bildern bläht nur den Speicherbedarf mit einer Unmenge, im
Endeffekt nutzloser, Daten auf.
Abgesehen davon bedeuten mehr Pixel pro Fläche auch kleinere
Zellen, und damit reduzierte Lichtempfindlichkeit bei höherer
Rauschneigung. (Farbpixel und selbst Farbsäume und Pixel
erscheinen in ansonsten schwarz/weißen Bildbereichen.)
In diesem Zusammenhang kann man auch einmal schauen was die
Kamera- bzw. Sensorhersteller ihren Kunden an Fehlpixel zumuten.
Normalerweise sieht man sie nicht, da sie einfach »übertüncht«
(mappen, vom engl. Fachbegriff map, mapped) werden, indem man den
interpolierten Wert von benachbarten Pixel heranzieht. Bei
wahren Qualitätsherstellern muss man sie regelrecht suchen,
während andere einem Sensoren mit haufenweise Fehlern aufs
Auge drücken.
Es gibt unterschiedlichste Farbfiltermuster und -anordnungen,
nicht nur Streifen- und Bayer-Muster.
In der Regel werden sie fotolithografisch aufgebracht. Auch kann
man andere Farbaufteilungen als RGB, z.B. Magenta statt Rot und
Gelb statt Blau oder zwei verschiedene Grüntöne finden. Auch
zusätzliche unbefilterte Pixel können in den Verbund integriert
sein, usw.
In der Tat gewinnt jede elektronische Farbkamera ihre Bilder durch
Interpolation, denn es gibt keinen bunten Strom. (Nicht einmal von
Yello ;-). Da der Farbalgorithmus die entsprechende Filterfarbe
über der jeweiligen Grauwert-Zelle kennt, kann er die Farbe an
dieser Stelle errechnen. Üblicherweise werden mehrere benachbarte
Zellen zur Berechnung herangezogen.
Nebenbei: Teure Drei-Chip-Kameras (auch ursprünglich 3 CCD genannt), die
hauptsächlich in Standard-Videoanwendungen verwendet werden, weisen
dagegen für jeden Farbkanal jeweils einen einheitlich rot, grün und
blau maskierten Sensor auf. Die Strahlaufteilung erfolgt durch eine
Prismengruppe.
Mittlerweile gibt es für Fotoapparate auch Sensoren (von Foveon)
mit vertikalem statt lateralem Aufbau, d.h. zur Farbseparation
nutzt man die wellenlängenabhängige Eindringtiefe des Lichts.
Ist die Anwendung nicht zeitkritisch, kann man auch Farbfilter oder
Farbräder, wie man sie ähnlich von professionellen Scheinwerfern
her kennt, verwenden. Manche Studio-Fotokameras machen so drei
Aufnahmen unmittelbar nacheinander mit jeweils einem anderen
Farbfilter vor dem Sensor oder Objektiv.
Filtereffekte - Moiré, aliasing und fix pattern noise
Die Streifen- oder Mosaikfilter sind auch für
Farbartefakte an Kanten oder Gittern verantwortlich. Entspricht das
Abbild einer Struktur auf dem Sensor etwa der Gittergröße seines
Filters bzw. seiner Zellenstruktur kann es zu Moiré und Aliasing
Effekten kommen. Das kann man schön an den Fehlfarben bei Aufnahmen
von Jalousien oder Lüftergittern sehen. Einfach einmal mit der
Kamera auf die Suche gehen. Auch vom Scannen von gerasterten
Zeitungsbildern her ist der Effekt wohl bekannt. Es entstehen
Farbsäume, selbst bei Schwarz/Weiß Originalen.
Hier steckt im Prinzip das Abtasttheorem dahinter. Man kann sich
den Effekt der Unterabtastung leicht vor Augen führen, wenn
man sich z.B. vorstellt einen weißen (oder grauen)
Gartenzaun aufzunehmen. Denn dabei muss das Bild einer Latte mindestens
eine Reihe roter, grüner und blauer Pixel abdecken, sonst kann der
weiße Farbton nicht gemischt werden. Er entsteht nur bei
gleichmäßiger Aussteuerung der Farbkanäle.
Selbst bei Monocolor-Kameras kann es wegen der festen
Pixelanordnung zu vergleichbaren Fehlern kommen. Aufgrund der
unterschiedlichen Teilüberdeckung/-abschattung der Pixel entstehen
Schwebungen, Schattenbilder, sprich Strukturen, wo eigentlich keine
sind - »aliasing« eben. (Auf den Effekt stößt man auch gerne
beim Scannen von Zeitungs- und Zeitschriftenbildern. Auflösungs-
und vergrößerungsabhängig zeigen
sich plötzlich drastische Muster wegen des Rasterdrucks
(d.h. Gitter) der Vorlage.)
Moiré entsteht, wenn zwei Gitter im Strahlengang gegeneinander
verschoben, speziell, zueinander verdreht, sind. Dann kommt es zu
breiten, großflächigen Schlieren, deren Anzahl und Richtung vom
Verdrehwinkel der Gitter zueinander abhängt. Dagegen ist auch das
menschliche Auge nicht gefeit: Legen sie doch einmal zwei
feinmaschige Fliegengitter übereinander und verdrehen Sie sie
langsam gegeneinander.
Da jeder Pixel einen anderen Dunkelstrom (d.h. im unbelichteten
Zustand nicht unbedingt »0«) liefert, lässt man unterhalb eines
bestimmten Schwellwerts alle betroffenen Pixel von der Kameraelektronik
zwanghaft auf schwarz setzen. Ansonsten würde man verteilte bunte
Pixel in einer dunklen Fläche finden. Das beschränkt die Dynamik
und führt zum als »Absaufen im Schwarzen« bezeichneten Effekt -
dunkle Flächen und Schattenpartien werden nicht durchgezeichnet,
Unregelmäßigkeiten werden weg gebügelt. Anfangs litt ein Großteil
der digitalen Fotoapparate an diesem typischen Manko. Aktuell sind
besonders (billige) CMOS Kameras und speziell solche mit kleinen
Pixelabmessungen davon betroffen.
Man hat bereits versucht Sensoren mit unregelmäßig bzw. zufällig
verteilten Farbpixel, also keinem festen Schema bei der Anordnung
der einzelnen RGB-Farfilter, einzusetzen.
Bei der eindringtiefenabhängigen Farbseparation wiederum wirken
der winkelabhängige Weg und stochastische Effekte verfälschend.
Selbst Drei-Chip-Kameras können bei nicht richtig justierten oder
getrennten Flächen der Strahlteilerprismen oder bei intensivster
Beleuchtung farbige Linien, Flecken oder Keile zeigen. Bei
rotierenden Farbrädern kann es zu schwankender Helligkeit und
Falschfarben kommen, wenn die Transmission nicht einheitlich
ausfällt oder die Synchronizität nicht perfekt ist.
Spektrale Empfindlichkeit (oder Farbensehen)
Spektrale Empfindlichkeit, Vergleich
menschliches Auge, CCD und CMOS Sensoren
Farbseparation der Kanäle eines CMOS Sensors;
Notwendigkeit eines IR Dämpfungsfilters
Das für das menschliche Auge sichtbare Farbspektrum (VIS) reicht allenfalls von 380 Nanometer (violett) bis 780 Nanometer (dunkelrot). Mit der größten Empfindlichkeit im Grün-Gelben bei ca. 550 Nanometer. CCD und CMOS Sensoren besitzen ein breiteres Spektrum. Speziell sehen sie noch im nahen Infrarot jenseits von 780 Nanometer bis zur sogenannten Bandlücke des Grundmaterials Silizium bei etwa 1 100 Nanometer, mit der höchsten Empfindlichkeit zwischen 600 und 900 Nanometer. Ihr Empfindlichkeitsmaximum ist verglichen mit dem menschlichen Auge mehr zum Roten verschoben. (Übrigens: Für Wellenlängen jenseits der Bandlücke ist Silizium »durchsichtig«.)
Im Bild rechts oben ist die spektrale
Sensitivitätskurve des menschlichen Auges im hell adaptierten
Zustand im Vergleich zu der von unbeschichtetem, einkristallinem
Silizium, dem Ausgangsmaterial von CCD und CMOS Sensoren, für den
Bereich des sichtbaren Spektrums und des nahen Infrarots
dargestellt. (Die Kurven sind auf ihren jeweiligen Spitzenwert
normiert.)
Die Charakteristik von CCD Sensoren wird durch die
Kurve
für blankes Silizium recht gut wiedergegeben. CMOS
Sensoren zeigen eine Verschiebung und Verbreiterung des Maximums
hin zu kürzeren Wellenlängen, verursacht durch ihre
flachere Struktur, die der geringeren Eindringtiefe kurzwelligen
Lichts entgegen kommt.
Im Bild darunter ist die jeweilige spektrale Empfindlichkeit der
drei RGB Farbkanäle eines entsprechend maskierten (= beschichtet
mit Rot-Grün-Blau Filtern) CMOS Farbsensors dargestellt. Man sieht
deutlich die
Transparenz der Polymere im Roten und speziell im IR Bereich
und damit verbunden die Notwendigkeit diesen Spektralbereich zu
dämpfen bzw. zu blocken, um damit ein Übergewicht von Rot
zu vermeiden, und um Rauschen, Fehlaussteuerung oder
Übersteuerung zu reduzieren.
Im gewissen Umfang lässt sich die Rotempfindlichkeit bei
Farbsensoren durch die Wahl der Transmissionscharakteristik der
Farb-Befilterung und der rechnerischen Gewichtung der Farbkanäle
manipulieren. Farbkonversionsfilter (Reduzierung der
Rotempfindlichkeit; häufig bei Farb-Videokameras aus
bläulichem
Glas) helfen hier ebenfalls.
Im kurzwelligen Bereich des Spektrums (UV, blau) sind die Sensoren
dagegen vergleichsweise unempfindlich. Hier wirken außerdem
zusätzlich die Gläser transmissionsbegrenzend.
Die spektrale Empfindlichkeit einer Kameras ist allerdings nicht
nur durch den Sensor oder den Film und die Filter limitiert,
sondern auch durch die optische Abbildung, speziell die Objektive
und die oben erwähnten IR-Sperrfilter. Denn die Ausnutzung eines zu
großen spektralen Empfindlichkeitsbereichs kann zu matten oder
unscharfen Bildern führen. Da die Brennweite wellenlängenabhängig
ist, entstehen die einzelnen Farbbilder in unterschiedlicher
Entfernung vom Objektiv und damit vom Film bzw. Sensor
(chromatische Aberration). Achromate (Linsensysteme mit
Schichtaufbau) helfen diesen Effekt zu vermeiden.
Oft sind Filter (und Objektive) zur Reflexionsverminderung im
sichtbaren Spektrum noch vergütet. Der Reflexionsverlust beträgt
pro Luft/Glas Grenzfläche ca. 4% bis 5%:
ΔR = (1 - n)² / (1 + n)²
mit dem Brechungsindex n des Linsenmaterials in Luft
(nLuft ☰ 1).
Also ca. 8% bis 10% pro Durchgang durch eine Glasplatte. Mit der
Vergütung ist eine Reduktion auf 1% bis 2% möglich. Manchmal kann
man das an den im schrägem Auflicht bunt schillernden Oberflächen
erkennen, da ΔR leicht vom Einfallswinkel abhängt.
Höherwertige Objektive besitzen manchmal auch einen IR-Umschalter
für die Arbeit speziell mit Wellenlängen im nahen Infrarot bei 780
Nanometer und mehr. Dann stimmt auch die Abstandskala auf dem
Fokusring wieder. (Das IR Bild entsteht wegen der geringeren
Brechung größerer Wellenlängen tiefer in der Kamera.)
Nebenbei: Die Transmission von normalem Objektivglas fällt bei
Wellenlängen um die 320 Nanometer und darunter stark ab. Im
langwelligen Bereich liegt der Abfall weit außerhalb von dem, was
ein Sensor auf Siliziumbasis noch sieht. Übrigens besteht auch die
Deckschicht eines Sensors aus Quarzglas (Siliziumdioxid). Darüber
liegt noch eine dünne Schicht Siliziumnitrid.
Will man Aufnahmen in einem anderen Spektralbereich machen, muss
man andere Sensor- und sogar Linsenmaterialien einsetzen.
Beispielsweise finden in IR-Kameras und speziell in
Wärmebildkameras, die im Wellenlängenbereich um und über 3
Mikrometer arbeiten, u.a. Sensoren aus Indium-Gallium-Arsenid
(InGaAs) Verwendung.
CCD kontra CMOS Sensoren
Funktionsprinzipien
Die beiden gängigen Festkörper-Sensortechnologien, CCD (Charge Coupled Device; dt.: Ladungsgekoppelte Schaltung) und CMOS (complementary metal oxide semiconductor; dt.: Komplementärer Metall-Oxid-Halbleiter), basieren auf Silizium als Ausgangsmaterial. Beide haben ihre Vor- und Nachteile, die in ihrer Funktionsweise begründet sind. Sie nutzen den inneren fotoelektrischen Effekt - im Prinzip arbeiten die Pixel wie eine Anordnung von Solarzellenpanelen auf dem Hausdach oder einer Wiese: ein Pixel = eine Solarzelle, mehr Licht = mehr Ladung bzw. Strom.
CCD und CMOS Schaltungsprinzipien
Das Bild links zeigt die Grundfunktion von CCD und
CMOS Zelle im Vergleich.
Die durch Lichteinfall erzeugte Ladung in der CCD Zelle wird
direkt von jeder Zelle ausgelesen. Diese Ladungen werden
schrittweise aus dem fotoaktiven Gebiet transportiert, das sog.
CCD Eimerkettenprinzip. Außerhalb werden sie analog/digital
gewandelt bzw. verstärkt.
In jeder CMOS Zelle generiert das einfallende Licht einen zu
seiner Intensität proportionalen Fotostrom und reduziert den
Sperrwiderstand der Fotodiode. Diese Sperrströme durch die
Fotodioden (d.h. die generierten Ladungen) werden
weiterverarbeitet.
Die Zellen eines CCD Sensors funktionieren wie
Belichtungsmesser, die Ladungen sammeln und in bestimmten Abständen
ausgelesen werden. Die schnellen CCD Sensoren gibt es in drei
Ausführungen: FT ((Full) Frame Transfer), ILT (Interline Transfer)
und FIT (Frame Interline Transfer). Für Standbildaufnahmen genügt
das Full Frame Prinzip: Die Ladungen bleiben bis zum Auslesen im
aktiven Bereich gespeichert, zentral abgeschattet durch einen
mechanischen Verschluss.
Bei FTs wird das komplette Bild durch die aktiven Zellen in einen
separaten lichtgeschützten Bereich außerhalb des fotosensitiven
Gebiets verschoben und dort verarbeitet. Wegen der
unterschiedlichen Struktur kann man die beiden Bereiche oft schon
mit bloßen Auge erkennen. Bei ILTs alternieren fotosensitive und
Auslesezeilen im vom Objektiv ausgeleuchteten Bereich. Die Ladung
jeder Fotozelle wird direkt in die zugehörige lichtgeschützte
benachbarte Zelle geschoben und diese Zeile dann ausgelesen. FITs
sind eine Kombination der beiden Designs.
FTs erreichen einen Füllfaktor von nahezu 100%, sind aber anfällig
gegen Zweitbelichtung im Auslesezeitraum (engl.: smear). ILTs und
FITs weisen einen reduzierten Füllfaktor auf, sind aber in der
Auslesephase nicht so empfindlich.
Als Füllfaktor bezeichnet man das Verhältnis von optisch
sensitiver Fläche zur Fläche für die Ansteuerelektronik einer
Zelle. Dadurch wird er auch ein Maß für die Lichtempfindlichkeit,
vorausgesetzt die Basistechnologie ist vergleichbar.
CMOS Sensoren messen kontinuierlich den vom Licht induzierten
Fotostrom. Man nutzt die Proportionalität von induzierter Ladung
bzw. Sperrstrom und Beleuchtungsstärke an einer Fotodiode. (Korrekt
ausgedrückt, misst man den Strom zur Umladung der
Sperrschichtkapazität am pn-Übergang der Fotodiode. Man kann sich
einen Kondensator parallel geschaltet zur Diode vorstellen, der
durch Lichteinfall entladen wird. Es gibt verschiedene
Realisierungsmöglichkeiten für entsprechende Schaltungen.)
Die Zellenstruktur und Beschaltung ähneln sehr stark dem Aufbau
eines DRAMs, und so sind auch schon mit aufgeschabten
(d.h. entferntem Vergussgehäuse) Speicherbausteinen
experimentelle Aufnahmen gemacht worden.
Ein PPS (Passive Pixel Sensor) funktioniert ähnlich einem CCD ILT.
Die durch Beleuchtung in einer fotosensitiven Zelle, meist eine
Fotodiode, generierten Ladungen werden Zelle für Zelle direkt
ausgelesen und außerhalb des fotoaktiven Bereichs verstärkt und
analog/digital gewandelt.
CMOS APS mit globalem Shutter
Heutzutage geht der Trend zum APS Prinzip. (Active Pixel Sensor.
Das Akronym hat nichts mit dem APS-C Format zu tun.) Hier arbeiten
die fotosensitiven Zellen praktisch nach dem indirekten Prinzip
eines CCD Sensors: Die Belichtung einer Fotodiode steuert über
einen CMOS Transistor (Verstärker) die Verbindung zur
Versorgungsspannung Vcc. Jede Zelle enthält gleich ihre eigene
Verstärkerschaltung.
Da Lichteinfall die Fotozelle entlädt, könnte man das mit dem
Negativverfahren beim Fotografieren mit Film vergleichen.
Das Bild links zeigt die Struktur einer CMOS APS Zelle. Ablaufbeschreibung: Über den Schalter reset wird eine Vorladung eingebracht. Danach öffnet sich der Schalter wieder und über die Fotodiode D fließt belichtungsabhängig Ladung ab. Damit ändert sich die Ansteuerspannung am Verstärker T und damit die Spannung V. Durch den optionalen Schalter t shutter (falls vorhanden) kann man den Entladevorgang unterbrechen, der Kondensator C steuert den Verstärker T dann ganz alleine.
Die Vorspannung (hier über den Schalter reset eingebracht), die
jedes Mal bei der Belichtung über die Fotodiode abgebaut wird, ist
der Grund für die Sättigungsunempfindlichkeit von CMOS APS im
Gegensatz zu CCD Sensoren. Mehr als völlig entladen geht
nicht.
Die einfachste Zelle besteht aus drei Transistoren, nämlich dem
Schalter für die Initialisierung zu Bild-/Belichtungsbeginn
(reset), dem Schalter für das Auslesen (read) und dem eigentlichen
Verstärker (T). Diese Schaltung erlaubt nur einen rollierenden
Verschluss. Fügt man in die Ansteuerung des Verstärkers eine Art
Abtast-Halteglied ein (t shutter und Kondensator C), erhält
man einen globalen Shutter. Das ist ein elektronischen Verschluss,
der auf den ganzen Sensor zum selben Zeitpunkt wirkt und nicht nur
zeilenweise wie der rollierende Verschluss, der einem fallenden
Vorhang ähnelt.
Mit weiteren Transistoren erhält man zusätzliche Möglichkeiten
der Ansteuerung und Verbesserungen der Signalqualität. So kann man mit
einer 5- oder 6-Transistor-Zelle Aufnahme und Auslesen voneinander
entkoppeln, also bereits wieder einlesen bzw. belichten, während
der Ausleseprozess noch läuft.
CCD Sensoren
EG&G Reticon Frame-Transfer CCD Sensor
HS0512JAQ; 512x512 Pixel auf 8,19x8,19 mm²;
Keramik DIP-Gehäuse; >1 000 fps, monochrom
-
sind seit einigen Jahrzehnten in der Produktion und im Einsatz
-
liefern von Natur aus gute Bilder, andernfalls würde man den entsprechenden Sensor aussondern und erst gar nicht verwenden
-
können (als FT) einen Füllfaktor von nahezu 100% erreichen
-
sind auch im nahen Infrarot empfindlich (deshalb haben vor allem viele Farb-Kameras IR-Sperrfilter eingebaut)
-
brauchen oft mehrere Versorgungsspannungen und haben eine hohe Leistungsaufnahme
-
sind um ein mehrfaches lichtempfindlicher - im positiven wie im negativen Sinn. Man kann zwar bei geringerer Ausleuchtung aufnehmen, aber die Sensoren sind überstrahlungsempfindlich. So zeigen sich bei sehr hellen Partien fackelartige Auslöschungen (engl.: blooming) in benachbarten Bereichen, die sich mitunter über den ganzen Bildausschnitt erstrecken können; hohe Einstrahlung während der Auslesephase kann zu einer Art Doppelbelichtung (engl.: smear) führen.
-
werden nur von sehr spezialisierten Halbleiterherstellern beherrscht. Mit steigender Pixelzahl sinkt die Ausbeute dramatisch, da prinzipbedingt, vor allem bei FT Sensoren, die optisch aktiven Bereiche in der Auslesephase als Drahtleitung verwendet werden. Eine defekte Zelle kann eine ganze Zeile bzw. Spalte lahm legen. Der Sensor ist dann unbrauchbar.
CMOS Sensoren
6-Zoll Wafer mit 45 CMOS Sensoren auf blue tape
-
rauschen wegen ihrer inhomogenen Struktur stärker und zeigen ähnliche Probleme wie Flachbildschirme. Ein paar Fehlstellen können schon vorkommen, die dann eben weg gerechnet werden. Man muss sich mehr um die Bildaufbereitung kümmern (unter anderem Defektkorrektur ausgefallener Pixel, sogenanntes mapping). Jedes Pixel wird individuell abgeglichen (Gain/Offset Einstellung).
-
erreichen möglicherweise nur einen Füllfaktor von um die 50% und sind deshalb üblicherweise weniger lichtempfindlich
-
sind als APS (Active Pixel Sensor) prinzipbedingt nahezu unempfindlich gegen Überstrahlung. PPS (Passive Pixel Sensor) sind jedoch etwas kritischer
-
zeigen in etwa die gleiche spektrale Empfindlichkeit (d.h. Farbwahrnehmung) wie das menschliche Auge
-
brauchen oft nur eine Versorgungsspannung und haben eine geringe Leistungsaufnahme
-
entstammen der wesentlich gängigeren Technologie. Entsprechende Stückzahlen vorausgesetzt, sind sie deutlich preiswerter. Das Auslesen geschieht außerdem mit separaten Leitungen, so dass ein defekter Pixel durch die Nachbarpixel interpoliert werden kann und nicht den ganzen Sensor ruiniert.
-
bieten die Möglichkeit weitere Schaltungen oder eine Signalvorverarbeitung auf dem selben Chip zu integrieren, um so die Kamera kleiner und flexibler zu machen; der mehr oder weniger wahlfreie Zugriff auf die einzelnen Zellen ermöglicht z.B. die Vorauswahl eines Fensters, genannt Unterabtastung (engl.: partial scan), Windowing, ROI (region of interest) oder AOI (area of interest). Auch Bildverarbeitung für Triggerereignisse (Im-Bild-Trigger) oder eine erneute Zweitbelichtung pro Bild sind vergleichsweise einfach möglich.
Offener CMOS Sensor (die) für die COB Montage
1536x1024 Pixel auf 16,9x11,3 mm²; >1 000 fps,
color
Farbfilter in Schräganordnung (Vergrößerung 1 000 x)
Stand der Technik
Doch viele digitale Fotoapparate und Überwachungskameras
nutzen offensichtlich noch CCD Sensoren, während bei aktuellen
Foto- und Videokameras die CMOS Sensoren nicht wegzudenken sind. In
Smartphones mit Kamerafunktion gelangen praktisch ausschließlich
CMOS Sensoren zum Einsatz. Generell geht der Trend hin zur CMOS
Technik, zur Kamera auf einem Chip.
Bei hochwertigen Spezialkameras tendierte man zwischenzeitlich
manchmal noch dazu die Integration in Grenzen zu halten, um die
einzelnen Bereiche wie Analog-, Digitalelektronik, Ansteuerung,
Versorgung ... individuell optimieren zu können.
Im normalen Einsatz schenken sich die beiden Techniken kaum noch
etwas. Allerdings liegen bei rauschempfindlichen Spezialanwendungen
die CCD Sensoren vorn. Gegebenenfalls gekühlt. Bei
Gegenlichtaufnahmen und möglichen Überstrahlungseffekten
(spiegelnde Oberflächen ...) sind wohl CMOS Sensoren die bessere
Wahl.
Übrigens: Die oft aufgestellte Behauptung CCD Sensoren seien
prinzipiell langsamer als CMOS Sensoren, ist so nicht richtig,
schließlich gibt es auch CCD-Hochgeschwindigkeitskamera Sensoren,
siehe z.B. die Sensoren von Dalsa oder EG&G Reticon.
In den Bildern links oben: Ungehäustes Silizium Plättchen
(engl.: die), ca. 20 mm x 15 mm x 0,5 mm in 0,5
Mikrometer-Technik. Der grünliche Bereich ist der Mosaikfilter. Im
umlaufenden dunklen Rand erkennt man 137 kleine Quadrate, engl.:
bond lands oder pads, für die spätere elektrische Kontaktierung
durch Bonddrähte.
Dieser die wird direkt, also ungehäust, auf die Leiterplatte
geklebt und dann gebondet (chip on board; COB). Anschließend wird
zum Schutz ein Deckel mit Glasboden übergestülpt und mit der
Leiterplatte verklebt. (Natürlich sind auch traditionell gehäuste
Sensoren verfügbar.)
Im Bild links unten: 1 000-fache Detailvergrößerung aus der Filtermatrix des CMOS Sensors. Die lichtempfindliche Fläche der Fotozelle, im Bild gelb markiert, weist mit 11 Mikrometer die halbe Weite der Zellgröße von 22 Mikrometer auf. Die um 45° gekippte Schachbrettmuster-Anordnung aus Bienenwaben-Zellen, wie sie auch Fuji und Sony erfolgreich in ihrer »Super-CCD« bzw. »ClearVid« Anordnung nutzen, ermöglicht gegenüber dem weit verbreiteten Bayermuster eine höhere Auflösung speziell senkrechter und waagrechter Strukturen.
Auch bei Hochgeschwindigkeitskameras machte sich der Wandel
bemerkbar. Während typische Systeme aus den 1990ern noch
größtenteils gegebenenfalls modifizierte CCD Sensoren nutzten,
verfügen Systeme ab Ende der 1990er überwiegend über CMOS Sensoren.
Nichtsdestotrotz gibt es weiterhin Systeme mit CCD Sensoren.
Bekannte High-Speed Kamera Sensorschmieden sind Dalsa/Teledyne
(Kanada), EG&G Reticon (USA), Fillfactory/Cypress (Belgien),
Photobit/Micron/Aptina (USA) oder CSEM (Schweiz).
Verbesserungsmöglichkeiten
Mikrolinsen
Das Letzte herausholen. Durch einen Füllfaktor, d.h.
dem Verhältnis fotoaktiver zur Steuerelektronikfläche, kleiner eins
geht Fläche und damit Empfindlichkeit verloren.
Bei der Struktur von CMOS Sensoren bietet sich der Versuch an mit
Mikrolinsen zumindest teilweise für eine Kompensierung zu sorgen.
Die Linsen sollen Licht, das auf die blinden Stege fällt, zum
lichtempfindlichen Teil der Zelle leiten. Speziell bei sehr kleinen
Zellgrößen und Füllfaktoren (zehn Quadratmikrometer und 30%
Füllfaktor und kleiner) werden sie gerne eingesetzt. Die
Mikrolinsen werden fotolithografisch direkt auf der
Sensoroberfläche aufgebracht. Wegen der Kleinheit der Linsen,
Durchmesser wenige hundertstel Millimeter, und ihrer großen Anzahl
- pro Zelle (= Pixel) eine Linse - ist das aber ein gewisses
Unterfangen und die optischen Eigenschaften sowie die
Gleichförmigkeit werden dadurch nicht unbedingt besser. Das führt
dazu, dass man eine unterproportionale Steigerung der
Lichtempfindlichkeit erreicht. Erkauft wird das durch einen
deutlich höheren Aufwand und eventuell sogar durch eine reduzierte
Bildqualität aufgrund optischer Fehler und parasitärer Effekte.
Rückseitenbeleuchtete CMOS (BSI, engl.: back-side illuminated)
Die Augen und speziell CMOS Sensoren zeigen einen
ähnlichen Aufbau. Bei beiden muss das Licht abschattende
Versorgungsschichten passieren - Blutgefäße bzw. elektronische
Schaltkreise - bevor es auf die lichtempfindliche Schicht trifft.
Füllfaktor und Bildqualität werden dadurch reduziert. Mehr noch,
mit weiter geschrumpften Strukturen im Halbleiterdesign muss man
zwischen Anforderungen der Elektronik und der Optik abwägen.
Weitere Miniaturisierung und kürzere Schaltzeiten sowie
Stromsparmaßnahmen führen zu kleinen, rauschenden Fotozellen.
Beispielsweise klafft zwischen den Standard Designregeln
(Strukturgröße, Leiterbahnbreite, Gateweite) der aktuellen DRAM-
und CPU-Technologien und den CMOS Sensor Anforderungen eine Lücke
von Faktor 50 oder mehr. (Aktuell liegt die Serien-Strukturbreite
lediglich um die 10 nm.) Zudem sind die Transistoren in der
Schaltungslogik auf Schnelligkeit getrimmt und schalten hart
digital (Bang-Bang oder Ein-/Aus Schalter), während die
fotoelektrischen Elemente analog auszulesen sind und eine
Übersättigung möglichst vermieden werden soll.
Deswegen die Idee den Sensor von unten her abzutragen, zu »dünnen«
(engl.: grinding), und dann zu stürzen. Die Versorgungselektronik
liegt dann unten, die Fotozellen in der Mitte und obenauf kommen
die Farbmaskierung und etwaige Mikrolinsen.
Die Lücke zwischen immer kleiner werdenden CMOS Standarddesigns
und Sensoranforderungen lässt sich dadurch verringern, was die
Sensoren auch durch die Integration von weiterer Elektronik
preiswerter macht und Defizite, wie z.B. die inzwischen für die
Eindringtiefe der Lichtstrahlen nicht mehr tief genug liegende
p/n-Übergangsschicht, kaschiert.
Herstellungstechnisch nicht gerade ganz ohne (u.a. muss der Wafer
sehr dünn geschliffen werden), aber ähnliches gab es schon mit
ausgewählten CCD Sensoren.
Bei ausgewählten Fotokameras sind auch gestapelten Chips, der
Sensor-IC liegt auf dem Speicher-IC, im Einsatz.
Oft werden die Sensoren jedoch noch in Technologiefamilien mit
größerer Strukturbreite als aktuelle DRAMs oder Prozessoren
gefertigt. Das gilt vor allem bei hochwertigen Kameras.
Scientific CMOS (sCMOS)
Das beste aus beiden Welten verbinden, der Brückenschlag
zwischen CMOS und CCD. Im Gegensatz zu Kameras für den Massenmarkt
zählt bei Kameras für technische und wissenschaftliche Anwendungen
die Pixelanzahl nicht allein. Vielmehr versucht man für diese
Einsatzbereiche (z.B. Mikroskopie) eine optimale Kombination aus
Auflösung, Dynamik, Geschwindigkeit ... zu definieren. Speziell
trachtet man danach mit möglichst großen Fotozellen und mit eigens
aufwändig gestalteten Analog-/Digitalkonvertern auf Pixel- und
Zeilen- oder Spaltenebene die Empfindlichkeit und die
Rauschunterdrückung des CMOS Schaltungsdesigns zu verbessern. Das
benötigt natürlich Platz, so dass zumindest frühe Sensordesigns
lediglich über einen rollierenden Shutter verfügten. Der für
Video-Hochgeschwindigkeitsaufnahmen so essentielle globale Shutter
kann also durchaus einmal nicht verfügbar sein.
Inzwischen sind auch schnelle BSI sCMOS Sensoren erhältlich.
Objektive und Optiken
Objektivanschluss, Auflagemaß, Brennweite und Crop Faktor
Das wichtigste Kriterium bei der Wahl des Objektives ist zunächst welcher Objektivanschluss (engl.: mount) vom Kameragehäuse vorgegeben wird. Der Mount oder Adapter bestimmt das Auflagemaß (engl.: flange-back, back focus). Es wird zwischen dem letzten zylindrischen Absatz des Objektivgehäuses vor dem Gewinde und der Film- bzw. Sensorebene gemessen. Somit ist also der Abstand zwischen Optik und Bildebene Mount spezifisch. Bei einem Objektiv aus einer anderen Mount-Familie stimmt möglicherweise die Brennweitenaufschrift des Objektives nicht mehr, soweit es sich überhaupt scharfstellen und befestigen lässt. Bei C-Mount beträgt das Auflagemaß z.B. 17,526 mm und bei CS-Mount 12,5 mm. Sieht man auf einmal die Irisblende mehr oder weniger scharf abgebildet und sonst nichts, hat man ein CS-Mount Objektiv auf eine C-Mount Kamera geschraubt. (Mit einem 5 mm Zwischenring passt aber ein C-Mount Objektiv auf eine CS-Mount Kamera.)
Bildkreis, Format und Crop Faktor
Innerhalb einer Mount-Familie gibt es diese Probleme nicht. Alle zugehörigen Objektive besitzen das gleiche Auflagemaß, das jeweilige Bild entsteht somit am selben Ort. Der Unterschied besteht lediglich in den verschiedenen Größen der kreisförmigen Bilder, welche die Objektive in der Bildebene liefern. Angegeben wird das Format des Sensors, der vom Objektiv noch ausreichend und ohne zu große optische Verzeichnungen ausgeleuchtet wird. Liegt der Sensor also komplett innerhalb dieses Bildkreises ist alles in Ordnung. Ist er größer, sind die aufgenommenen Bilder weitestgehend scharf, die Ecken neigen jedoch zur Unterbelichtung (Schlüssellocheffekt, Vignettierung). So können insbesondere die C-Mount Objektive der großen Formate für eine C-Mount Kamera mit kleinerem Format meist ohne Probleme verwendet werden, z.B. ein 1 Zoll-Objektiv auf einer 2/3 Zoll-Kamera. Umgekehrt eben nur eingeschränkt, siehe Sensor C im Bild links.
Die Abbildung links illustriert den Crop Faktor,
auch Brennweitenverlängerung genannt. Das ist eigentlich ein
Pseudoeffekt, denn die Brennweite ist eine unveränderliche
Eigenschaft des jeweiligen Objektives. Woher sollte das Objektiv
auch wissen, welchen Sensor es bedient? Der unterschiedliche
Bildeindruck, speziell der Bildwinkel (auch Öffnungswinkel,
Blickfeld), entsteht lediglich dadurch, dass bei der Darstellung
auf einem Monitor oder Ausdruck das Bild eines kleineren Sensors
(B) stärker vergrößert wiedergegeben wird. Seine
Pixel liegen enger beieinander als die beim großen Sensor (A)
und werden sozusagen gespreizt dargestellt, freilich ohne dass
dadurch die Qualität leidet. Entsprechende Auflösung
(Pixelanzahl) vorausgesetzt.
Der Sensor muss zumindest innerhalb des Bildkreises des Objektives,
bezeichnet als »Format«, liegen, sonst tritt Vignettierung auf
(C).
Vergleicht man zwei formatfüllende Aufnahmen eines Objekts, z.B.
eine von einer C-Mount Kamera mit 1/3 Zoll Sensor und eine von
einer mit 2/3 Zoll Sensor, sieht man eigentlich keinen Unterschied.
Am Monitor sind sie beide gleich groß.
Da die Bilder aber auf unterschiedlich großen Sensorflächen
entstehen, muss die Vergrößerung beim kleineren Sensor (hier B)
kleiner sein, damit das Bild noch auf ihn passt. Das selbe »XY
Millimeter«-Objektiv vor einem größeren Sensor (hier A) wirkt
deshalb beim Einsatz an einer Kamera mit kleinerem Sensor, als
hätte es eine längere Brennweite und umgekehrt. Das gilt
aber nur und ausschließlich, wenn man die Aufnahmen auf Basis
der Öffnungswinkel vergleicht (= was beim selben Objektiv auf
den jeweiligen Sensor passt). In soweit gehören Brennweite und
Bildformat zusammen und bestimmen den Abbildungsmaßstab. Der
Bildkreis ist jedoch allein abhängig vom Objektiv. Und die
Brennweite ebenfalls. (Die Sensorgröße allein ist
dafür verantwortlich. Nur steht sie leider nicht auf der
Kamera.)
Allenfalls könnte man den Begriff »effektive Brennweite«
für die Änderung des Bildausschnitts einführen, aber
worauf beziehen? Nun, oft wird im allgemeinen Sprachgebrauch dieser
Pseudoeffekt der Brennweitenverlängerung als (digitaler) Crop
Faktor bezeichnet:
Crop Faktor = 43,3 mm / Sensordiagonale [mm]
Der Wert (ca. 1,5 bis 2 beim Vergleich typischer digitaler
SLR-Kameras gegenüber 35 mm Kleinbildkameras mit 24 mm x 36 mm
und damit 43,3 mm Diagonale; daher dann manchmal auch der
Ausdruck »XY mm Kleinbildäquivalent«) gibt an,
um wie viel sich die Brennweite anscheinend verlängert, weil die
Sensordiagonale letztlich um diesen Faktor kleiner ist. Die
englische Bezeichnung (crop = zurechtschneiden) wird dem Vorgang
also eher gerecht, als der deutschsprachige Begriff. Beim kleineren
Sensor geht eben viel Bild daneben. Man sieht nur das Zentrum und
interpretiert das als Tele/Zoom Effekt, wenn der Monitor den Sensor
Bildschirm füllend darstellt, siehe obiges Bild.
Bei hohen Ansprüchen sollte man allerdings berücksichtigen, dass
der Bereich mit optimal korrigierten Abbildungsfehlern kleiner ist
als der maximal ausgeleuchtete und dass kleinere Formate wegen der
höheren Pixeldichte qualitativ bessere Objektive benötigen.
Abgesehen davon sollte man die Bildqualität einer guten Kamera
nicht durch einen besseren Flaschenboden als Objektiv ruinieren.
Dann bleibt das Bild bis in die Ecken scharf.
In der professionellen Fotografie macht man mit Wechselobjektiven
im großen Umfang Gebrauch von den damit verbundenen
Möglichkeiten.
Ist die Brennweite eines Objektives etwa so groß wie die
Formatdiagonale spricht man gern vom »Normalobjektiv« für
dieses Format. Bei Kleinbildkameras wären das ca.
50 mm ±5 mm, siehe auch den nächsten Abschnitt und
[SloMo Tipps].
Dann entspricht der Öffnungswinkel etwa dem (scharfen) Gesichtsfeld
des Menschen.
Formate
Doch eine wichtige Angabe: Bei CCTV-Videokameras wird gern das Format oder Bildfenster, d.h. die Größe des optisch aktiven Bereichs auf dem CCD oder CMOS Sensor, in Zoll angegeben. Die etwas willkürlichen Maßangaben stammen noch aus der Vidicon Röhrenära. Auf deren (Stecksockel-!) Abmessungen gehen die Werte zurück. Als Basis dient der zöllige Sensor mit einer Diagonalen von ca. 16 mm:
Zölliges Format ≈ Sensor Diagonale [mm] /
16 mm
oder bei zölligen Angaben:
zölliges Format ≈ Sensor Diagonale [Zoll] / 1,5875
obwohl ein Zoll eigentlich 25,4 mm misst. Mit kleinerem Sensor wird die Kamera kleiner und die nominelle Sensorausbeute pro Wafer bei der Herstellung natürlich größer.
Format [Zoll] | Breite [mm] | Höhe [mm] | Diagonale [mm] | Bemerkung |
---|---|---|---|---|
1/10 | ~ 1,44 | ~ 1,08 | ~ 1,8 | autarke CCD Kamera für den medizinischen in corpore Einsatz (zum Runterschlucken) |
1/8 | ~ 1,626 | ~ 1,219 | ~ 2,032 | CMOS Kameras für Sonderzwecke |
1/7 | ~ 2,055 | ~ 1,624 | ~ 2,619 | CMOS Kameras für Pads, Smart- und Mobiltelefone ... |
[128² pixel] | 2,048 | 2,048 | 2,896 | Dalsa CA-D1-0128A CCD, 736 fps (optimiert 2 020 fps) |
1/6 | 2,4 | 1,8 | 3,0 | Einplatinenkameras für Sonderzwecke |
1/5 | 2,88 | 2,16 | 3,6 | Einplatinen- oder Einfach-Kameras, Webcams ... |
1/4 | 3,6 | 2,7 | 4,5 | Kameras für Überwachungsaufgaben (typisch mit Nadelöhrobjektiv) |
[256² pixel] | 4,096 | 4,096 | 5,793 | Dalsa CA-D1-0256A CCD, 203 fps (optimiert 531 fps) |
1/3 | 4,8 | 3,6 | 6,0 | Kameras in der Automatisierung (»Machine Vision«) |
1/2 | 6,4 | 4,8 | 8,0 | v.a. tragbare TV-Video-Kameras, oft 3-Chip Version |
1/1,8 | 7,2 | 5,4 | 9,0 | Standard- (CCD/CMOS) Fotokameras |
2/3 | 8,8 | 6,6 | 10,991 | Standard im Bildverarbeitungsbereich |
[512² pixel] | 8,19 | 8,19 | 11,582 | EG&G Reticon HS0512JAQ CCD, 1 000 fps (optimiert 1 094 fps) |
16 mm Film | 10,3 | 7,5 | 12,7 | 16 mm Film Kameras (Stalex, HYCAM), 3 000 fps, 10 000 fps |
1 | 12,7 | 9,525 | 15,875 | professionelle (Studio) TV-Video-Kameras |
[1280x1024 pixel] | 15,36 | 12,29 | 19,67 | Photobit MV-13 CMOS (Aptina MT9M413C36ST C/M), 500 fps |
[1536x1024 pixel] | 16,896 | 11,264 | 20,306 | FhG/CSEM Cam 2000 Visario CMOS, 1 106 fps |
1¼ (30 mm) | 17,1 | 12,8 | 21,4 | professionelle (Studio) TV-Video-Kameras |
4/3 (»Four Thirds«) | ~ 18,0 (nicht def.) | ~ 13,5 (nicht def.) | 22,5 | semi-professionelle digitale SLR Fotoapparate |
35 mm Film | 22,05 | 16,03 | 27,85 | professionelle 35 mm Filmkameras |
APS-C | (24,0) 25,1 bis 25,5 | (16,0) 16,7 bis 17,0 | ~ 30,15 | APS-C Film- und Sensorfotoapparate |
Kleinbild | 36,0 | 24,0 | 43,3 | Kleinbild-Fotoapparate und »Vollformat« Digitalkameras |
Sensorgrößen und Formate. Legende: fps =
frames per second, dt.: Bilder pro Sekunde. (In Grün: einige
Hochgeschwindigkeitskamera Matrix Sensoren.)
Blende
Die Belichtung - mit der Blende (engl.: f-stop) wird
die Lichtmenge, die auf den Sensor oder den Film fällt, eingestellt. Die
Blendenzahl ist definiert als k = Brennweite / effektiver
Öffnungsdurchmesser. Auf dem Blendenring sind die Blendenzahlen als
Wurzel-2-Fache aufgedruckt (1,4 - 2 - 2,8 - 4 - 5,6 - 8 - 11 - 16 -
22 - 32 - ...). Mit zunehmender Blendenzahl reduziert sich die
durchgelassene Lichtmenge so, dass man pro Stufe nur die Hälfte der
Intensität erhält.
Der Kehrwert der kleinsten Blendenzahl wird gerne »Lichtstärke«
genannte. Will man jedoch zwei Objektive, die die identische
Bildhelligkeit liefern, braucht man identische T-Blenden (engl.:
t-stop), definiert als t-stop = 10 x f-stop / √ Transmission
[in %], so wie sie bei Objektiven von Spielfilmkameras
üblicherweise angegeben werden.
Bei gleich großem Sensor vergrößert eine kleiner
Blendendurchmesser (= große Blendenzahl) den Tiefenschärfenbereich, siehe [SloMo Tipps].
Zoom Objektive, digitale Objektive und Auflösung
Die Bezeichnung Zoom steht für Objektive, die durch meist
stufenlose Brennweitenvergrößerung innerhalb eines vorgegebenen
Brennweitenbereiches Objekte heranholen können. Gewöhnlich sind sie
groß, schwer, teuer und lichtschwach. Nach Möglichkeit sollte man
lieber Wechselobjektive verschiedener, aber fester Brennweiten
verwenden. Es gibt echte Zoom Objektive, bei denen das Bild während
der Zoomfahrt scharf bleibt, und Vario Fokus Objektive, bei denen man
auch die Brennweite verändern kann, man aber zugleich auch
nachfokussieren muss.
Mit »Digitaler Zoom« oder »Elektronischer Zoom« bezeichnet man die
Vergrößerung eines Bildausschnittes mit Mitteln eines (einfachen)
Bildverarbeitungsprogrammes. Große Zoomstufen führen zu pixeligen
Bildern. Normalerweise ist elektronischer Zoom kein würdiger Ersatz
für ein entsprechendes Zoom Objektiv, auch wenn er gerne so
vermarktet wird.
Übrigens, ähnliches Thema: »5x Zoom« sagt nichts über die
Vergrößerung eines Objektives, sondern nur, dass seine kleinste
einstellbare Brennweite 5 mal kleiner ist als seine größte.
In der Zwischenzeit werden auch »digitale« Objektive, oder
manchmal auch telezentrische Objektive genannt, angeboten. Sie sind
so konstruiert, dass bildseitig ein möglichst senkrechter
Strahleneinfall auf den Sensor erreicht wird. Damit wird der
schachtartigen Pixelstruktur Rechnung getragen, die sich speziell
bei kleinen Sensoren mit hoher Pixeldichte durch Störungen wie
Beugung, Abschattung, Fehlfarben, Dämpfung ... nachteilig
bemerkbar macht. (Gerade die kleinen, preiswerten Sensoren
benötigen aufwändige und teure Objektive.)
Solche Objektive als telezentrisch zu bezeichnen ist aber unglücklich.
Dieser Typ von Spezialobjektiven bildet ein Objekte nämlich unabhängig von
seiner Entfernung gleich groß ab. Man nutzt diese Optiken speziell
in der Bildverarbeitung zu Messaufgaben. Wenn man damit z.B. in ein
Rohr blickt, verjüngt es sich nicht mit zunehmender Entfernung,
sondern es sieht wie eine Unterlegscheibe aus und man kann
problemlos den Innendurchmesser und die Wandstärke bestimmen. Bei
einer üblichen Landschaftsaufnahme ergäbe sich der skurrile Effekt,
dass z.B. Straßen, die zum Horizont laufen, sich nicht
verjüngen.
Befasst man sich mit dem Begriff Auflösung, ist es sehr
empfehlenswert sich mit der Modulationsübertragungsfunktion MTF
vertraut zu machen, exzellent erklärt z.B. unter
Qualitätsmerkmale von Objektiven von
Schneider-Kreuznach.
Bildebenenversatz
Der trifft einen eher selten - bei nicht senkrechtem Strahldurchgang durch eine planparallele Platte gibt es einen seitlichen Bildversatz. Bringt man einen dünnen Filter vor dem Objektiv an, hat das wegen des meist großen Objektabstands auf die Bildlage des optischen Systems praktisch keine Auswirkungen. Das ändert sich aber drastisch, wenn man hinter dem Objektiv ein Schutzglas, einen Filter oder einen LC-Shutter einbringt. Diese planparallelen Platten führen (zusätzlich) zum sogenannten Glasverzug
Δd = (1 - 1/n) × d
mit dem Brechungsindex n und der Dicke d des Plättchens
(nLuft ☰ 1).
Bei einem Glasplättchen läge das Bild damit ca. 1/3 seiner Dicke
hinter dem Sensor, weil sich das effektive Auflagemaß entsprechend
verlängert. Es muss eine Mechanik vorgesehen werden, die diese
zusätzliche Distanz zwischen Objektiv und Kameragehäuse, genauer
dem Sensor, entsprechend ausgleicht.
Deswegen auch die Gewindestifte bzw. Einstellmechaniken an
Objektivadaptern z.B. von Kameras, die für den wahlweisen Einbau
eines internen LC-Shutters oder eines zusätzlichen internen
(IR-Sperr-) Filters vorbereitet sind, oder die auch IR tauglich sein
sollen.
Die [TOUR] zeigt einige Tipps und Tricks rund um die Aufnahmerealisierung.