Headerbar Werbung für Region "nicht-DACH"
Vom Photon zum Photo
Hier findest du folgende Inhalte
Formeln
Foto- bzw. Videokamera
Mit Hilfe einer Kamera kann man Fotos oder Videos von Motiven anfertigen, um sie später zu betrachten. Eine moderne Kamera besteht aus 2 Teilen, einem Gehäuse und Objektiven, die man einzeln am Gehäuse anbringen kann.
Bildaufzeichnung
Bei der Bildaufzeichnung unterscheidet man zwischen "Bewegtbild-Aufzeichnung, also dem Generieren eines Videos und "Stillbild-Aufzeichnung" also dem Generieren eines Fotos.
Will man den technischen Prozess der Bildaufzeichnung verstehen, dann kann man den Weg den das Licht durchläuft, wie folgt untergliedern:
- Motiv
- Objektiv
- Blende
- Verschluss
- Bild- bzw. Kamerasensor
- JPEG bzw. RAW-Bilddatei
Standbild bzw. Foto-Aufnahme
Das Ziel der Stillbild-Aufzeichnung ist es, eine für die schlussendlich angedachte Verwendung des Bildes optimale Weiterbearbeitung zu ermöglichen. Dazu wird das Bild in der Kamera in eine
- JPEG und / oder
- Camera-RAW-Datei
abgespeichert.
Die JPEG-Datei dient dazu das Foto ohne oder mit geringer manueller Bildbearbeitung zu betrachten, während die Camera-RAW-Datei unbedingt mit einem Bildbearbeitungsprogramm nachbearbeitet werden muss.
Bewegtbild bzw. Video-Aufnahme
Auf Grund des hohen Datenaufkommens und der damit einhergehenden erforderlichen Schreibgeschwindigkeit der Speicherkarte bei Bewegtbild-Aufnahmen ist die Wahl der Aufnahmeparameter von hoher Bedeutung. Nachfolgend einige gängige Werte:
- Aufnahmegröße
- Full-HD mit 1920x1080 in 16:9
- 4k UHD mit 3840x2160 in 16:9
- Bildrate in Anzahl der Frames pro Sekunde
- 50 fps
- 100 fps als hohe Bildrate für Zeitraffer
- Komprimierung
- ALL-I, jedes Frame wird einzeln komprimiert
- Aufnahmeformat
- MP4 für die direkte Videowiedergabe
- H.264 / AVC 8 Bit Farbtiefe
- H.265 / HEVC 10 Bit Farbtiefe
- RAW 12 Bit Farbtiefe für die nachträgliche Videobearbeitung
- MP4 für die direkte Videowiedergabe
Banner Werbung für Region "nicht-DACH"
Beat-the-Clock-Tests
Prüfungsvorbereitung unter simuliertem Zeitdruck
Nach der Prüfung in Ruhe entspannen

Kameraobjektiv
Das Objektiv sammelt das Licht, welches vom Motiv kommt mit Hilfe von einer oder mehreren Linsen, um ein Bild davon auf die Sensorebene abzubilden. Die wichtigsten Kenngrößen von Objektiven sind
- Brennweite in mm gemessen und
- größte Blende.
Weitere wichtige Kriterien bei der Auswahl vom Objektiv sind: Autofokus bzw Möglichkeit der manuelle Fokussierung, Bildstabilisierung und Filtergewinde
Am Objektiv muss die Entfernung zwischen Motiv und Filmebene eingestellt werden und wie weit sich die Blende im Verhältnis zum Durchmesser des Objektivs öffnen soll.
Brennweite:
Unter der Brennweite eines Objektivs versteht man die Entfernung des Brennpunkts der auf die Sensoroberfläche fallen sollte, von der Mitte der Linse. Die Brennweite bestimmt bei gegebener Sensorgröße den Bildwinkel vom Objektiv. Je nach Brennweite unterscheidet man
- Fisheye-Objektive, mit einer Brennweite unter 10mm, erzeugen ein kreisförmiges Bild
- Weitwinkel-Objektive, mit einer Brennweite zwischen 10 und 40mm
- Normalobjektive, mit einer Brennweite zwischen 40 und 55 mm
- Teleobjektive, mit einer Brennweite über 55 mm
Sehwinkel des Auges
Der Sehwinkel ist derjenige Winkel, unter dem ein Objekt in der Ferne von einem Beobachter wahrgenommen wird. Der Bildwinkel beim Sehen mit beiden Augen, samt des Bereichs des unscharfen, peripheren Sehens, beträgt ca. 170° horizontal und 110° vertikal. Das Auge sieht gleich weit entfernte Gegenstände dennoch nicht im ganzen Bildfeld gleichzeitig scharf, sondern nur in einem Bildwinkel von ca. 2°, die jedoch durch kleinste Augenbewegungen im Gehirn zu einem Winkel von 10° bis 35° in der Horizontalen zusammengesetzt werden.
- An einem 36x24 mm Bildsensor entspricht ein f=40…50...55 mm Objektiv den vertrauten Sichtverhältnissen, man spricht daher beim f=50 mm Objektiv auch vom „Normalobjektiv“.
- Ein f=50mm Objektiv an einem 36x24 mm Bildsensor weist einen horizontalen Bildwinkel von 39,6°, einen vertikalen Bildwinkel von 27° und einen diagonalen Bildwinkel von 46,8° auf
Zoom- bzw. Festbrennweiten-Objektive
Entsprechend der Bauform unterscheidet man Objektive mit fester uns solche mit verstellbarer Brennweite, sogenannte Zoom-Objektive. Der wichtigste Vorteil von Zoom-Objektiven ist, dass man den Bildausschnitt verändern kann, ohne den Standort zu ändern und ohne mehrere Objektive mit Festbrennweite mitzutragen. Dem stehen als Nachteile gegenüber, dass mehr Linsen benötigt werden, wodurch Zoom-Objektive konstruktionsbedingt lichtschwächer, schwerer und weniger hoch auflösend sind, als Objektive mit fester Brennweite.
Abbildungsqualität eines Objektivs
Für die Qualität eines Objektivs ist entscheidend, wie weit es die folgenden Abbildungsfehler, auf Grund der Anordnung von mehreren Linsen hintereinander, kompensieren kann.
- Verzeichnung
Verzeichnungen sind Bildfehler deren Ursache unerwünschte Veränderungen des Abbildungsmaßstabs innerhalb der Bildebene sind. Dadurch werden rechte Winkel im Motiv nicht wieder auf rechte Winkel im Bild abgebildet. Man unterscheidet kissen- und tonnenförmige Verzeichnungen. Die Verzeichnung nimmt vom Bildmittelpunkt in Richtung der Bildecken zu und wird sichtbar, sobald die Verzeichnung größer ist als der Abstand zweier Pixel. Dieser Fehler tritt vor allem bei Weitwinkelobjektiven auf und wird durch kostspielige Linsenkonstruktionen möglichst kompensiert. - Aberration
- Bei der sphärischen Aberration treffen parallel einfallende monochromatische Lichtstrahlen, nicht an einen einzigen Brennpunkt zusammen, sondern an mehreren Brennpunkten entlang der optischen Achse, wodurch ein unscharfes Bild entsteht. Dieser Effekt wird kleiner, wenn man die Blende etwas schließt, also abblendet (f/1,4 → f/2,8)
- Bei der chromatischen Aberration treten Farbsäume an Konturen auf, da parallel einfallende farbige Lichtstrahlen, einander abhängig von ihrer Wellenlänge, an mehreren Brennpunkten entlang der optischen Achse schneiden. Die chromatische Aberration kann man in der ‚Foto-Nachbearbeitung, von im RAW-Format aufgenommenen Bildern, korrigieren.
- Vignettierung
Darunter versteht man eine Verdunkelung bzw. einen Lichtabfall, in Richtung der Ecken und Ränder des Bildes. Dieser Effekt wird kleiner, wenn man die Blende etwas schließt, also abblendet (f/1,4 → f/2,8). Je größer der Bildsensor ist, um so aufwendiger ist, es Objektive mit geringem Randlichtabfall herzustellen. - Koma und Astigmatismus
Das sind Abbildungsfehler bei geneigten Linsen. Dabei handelt es sich um Bildfehler, die entstehen, wenn parallele Lichtstrahlen schräg, also nicht parallel zur optischen Achse, auf eine sphärische Linse auftreffen und sich nach dem Durchlaufen der Linse nicht in einem Bildpunkt treffen,- Koma: … sondern abseits der optischen Achse abgebildet werden, wodurch ein Punkt auf einen Beistrich („Koma“) abgebildet wird.
- Astigmatismus: … sondern auf zwei Bildlinien abgebildet werden, weshalb man auch von Punktlosigkeit spricht.
Blende
Das menschliche Auge kann durch eine Veränderung des Pupillendurchmessers, im Bereich von 1,5 bis 8 mm, die Lichtmenge steuern, die auf die Netzhaut fällt.
In einer Kamera steuert die Blende mit Hilfe von beweglichen Lamellen am Ende des Objektivs, wie viel vom Durchmesser des Objektivs für den Lichteinfall tatsächlich geöffnet wird. Die Blende steuert also wie viel Licht auf den Sensor fällt. Die Öffnung der Blende ist jener Wert in mm, der sich ergibt, wenn man die Brennweite des Objektivs durch den gewählten Blendenwert dividiert. Lichtstarke, aber teure Objektive, haben einen kleinsten Blendenwert von f/1,2 oder f/1,4. Ändert man die Blende um eine Blendenstufe, so fällt doppelt oder halb so viel Licht auf den Sensor.
Die Blendenreihe im Abstand von einem Lichtwert lautet: f/1 - f/1,4 – f/2 – f/2,8 – f/4 – f/5,6 – f/8 – f/11- f/16 – f/22 – f/32.
- Verkleinert man die Blende um eine Blendenstufe (z.B.: von f/2,8 auf f/4) so kommt nur mehr halb so viel Licht auf den Sensor.
- Vergrößert man die Blende um eine Blendenstufe (z.B. von f/2 auf f/1,4) so kommt doppelt so viel Licht auf den Sensor.
→ Merksatz: Kleine Blendenzahl (f/2,8), große Blendenöffnung, viel Licht fällt auf den Sensor, bei geringer Schärfentiefe.
Das bedeutet bei einem 50mm Normalobjektiv und f/1,2 dass der offene Durchmesser 42 mm beträgt, also sehr viel Licht durch das Objektiv in Richtung des Sensors gelangt. Mit diesem Objektiv kann man auch dann noch richtige Belichtungen erzielen, wenn es schon dunkel ist.
→ Merksatz: Große Blendenzahl (f/16), kleine Blendenöffnung, wenig Licht fällt auf den Sensor, bei großer Schärfentiefe.
Das bedeutet bei einem 50mm Normalobjektiv und f/8 dass der offene Durchmesser 6,25 mm beträgt, also sehr wenig Licht durch das Objektiv in Richtung des Sensors gelangt. Mit diesem Objektiv kann man nur dann noch richtige Belichtungen erzielen, wenn das Motiv relativ gut beleuchtet ist.
Tiefenschärfe
Mit der Wahl der Blende geht die sogenannte Tiefenschärfe auch Schärfentiefe genannt, einher. Die Tiefenschärfe bezeichnet jenen Bereich vor und hinter dem Fokuspunkt, auf den am Objektiv scharf gestellt wurde, der im Bild noch hinreichend scharf abgebildet wird. Die Tiefenschärfe ist neben der Blendenöffnung auch noch von der Brennweite, der Entfernung zum Motiv und der Sensorgröße wie folgt abhängig:
- Kleine Blendenzahl (f/2,8), große Blendenöffnung → geringe Tiefenschärfe
- Nahe am Motiv → geringe Tiefenschärfe
- Große Brennweite → geringe Tiefenschärfe
- Großer Sensor → geringe Tiefenschärfe
Bokeh
Die Tiefenschärfe ist zwar technisch bedingt, wird aber gerne als fotografisches Gestaltungselement eingesetzt. Dann spricht man von Freistellung, Unschärfe-Look oder Bokeh. Ein Anwendungsfall ist etwa ein Portrait, bei dem der Vorder- und der Hintergrund im Unterschied zur Person absichtlich unscharf abgebildet werden, damit die ganze Aufmerksamkeit auf die Person gerichtet wird.
Scharfe Wahrnehmung
Die Wahrnehmung wird als scharf empfunden, wenn ein Punkt im Motiv als Punkt auf der Netzhaut, am Kamerasensor oder am Bild bzw. Monitor wieder als Punkt und nicht als Zerstreuungskreis abgebildet wird. Physikalisch gesehen ist dies für gegebene optische Parameter nur für eine einzige Gegenstandsweite möglich. Punkte vor und hinter dieser Gegenstandsweite zerstreuen.
- Der Fokus bzw. die Scharfstellung des Auges erfolgt kontinuierlich, wodurch das Auge scheinbar nie unscharf sieht. Bei dieser sogenannten Akkommodation verwendet das Auge folgenden Trick:
- Schaut man auf einen nahen Bildteil, so spannt sich der Ringmuskel, die Wölbung der Linse nimmt zu und auf der Netzhaut entsteht für die nahen Bildteile ein scharfes Bild.
- Schaut man auf einen fernen Bildteil, so entspannt sich der Ringmuskel, die Wölbung der Linse nimmt ab und auf der Netzhaut entsteht für ferne Bildteile ein scharfes Bild.
Durch die dynamische Änderung der Dicke und somit der Brechkraft der Augenlinse, zufolge anspannen oder erschlaffen des Ziliarmuskels, entsteht im Gehirn der Eindruck eines durchgängig scharfen Bildes auch für unterschiedliche Entfernungen.
- Die Fokussierung bzw. die Scharfstellung bei einem Objektiv funktioniert, indem der Entfernungsring am Objektiv gedreht wird, wodurch der Abstand zwischen den Linsen im Objektiv und dem Sensor im Gehäuse verändert wird. Erfolgt diese Drehbewegung durch einen Motor und wird sie elektronisch gesteuert, so spricht man von Autofokus.
- Wird der Abstand zwischen Objektiv und Sensor kürzer, werden ferne Motivteile scharf, wird der Abstand zwischen Objektiv und Sensor länger, werden nahe Motivteile scharf.
- In der Fotografie wird die Schärfe als Gestaltungsmittel eingesetzt, um die Aufmerksamkeit des Betrachters auf ausgewählte Bildteile zu lenken. Unter Bokeh versteht man jene Bildanteile, speziell im Bildhintergrund, die gewollt zunehmend unschärfer werden. Die Form der Zerstreuungskreise hängt dabei von der gewählten Brennweite, der Blendenöffnung und der Anzahl der Lamellen ab, welche die Blende bilden.
Verschluss
Der Verschluss steuert wie lange das Licht, welches von der Blende durch das Objektiv gelassen wurde, auf den Sensor fällt. Man unterscheidet zwischen mechanischem und elektronischem Verschluss.
- Der mechanische Verschluss (Shutter) liegt im Strahlengang durch eine Kamera hinter der Blende und vor dem Sensor. Beim mechanischen Verschluss gibt ein erster Verschlussvorhang einen Spalt frei, durch den Licht auf den Sensor fällt. Ein zweiter Verschlussvorhang, bestimmt, wie schnell sich dieser Spalt wieder schließt und dadurch kein weiteres Licht auf den Sensor fällt, wodurch die Belichtung abgeschlossen wird.
- Ein elektronischer Verschluss steuert das Auslesen des Bildsensors. Da hierbei keine mechanischen Teile bewegt werden müssen, werden so extrem kurze Belichtungszeiten möglich.
Belichtungszeit bzw. Verschlusszeit
Die Belichtungszeit ist jene Zeitspanne, während der das Licht vom Motiv kommend durch das Objektiv auf den Sensor bzw. den Film im Kameragehäuse fällt. Diese Zeitspanne wird in Sekunden bzw. Sekundenbruchteilen gemessen und durch einen Verschluss gesteuert. Übliche Belichtungszeiten liegen zwischen 30 Sekunden und 1/64.000 Sekunde:
Die Belichtungszeitenreihe im Abstand von einem Lichtwert lautet: 30s, 15s, 8s, 4s, 2s, 1s, 1/2s,1/4s, 1/8s, 1/15s, 1/30s, 1/60s, 1/120s, 1/250s, 1/500s, 1/1000s, 1/2000s, 1/4000s, 1/8000s. Halbiert man die Belichtungszeit, so fällt auch nur mehr halb so viel Licht auf den Sensor.
Damit kein verwackeltes Bild entsteht muss die Verschlusszeit an die Brennweite des Objektivs und an die Geschwindigkeit der Bewegung des Motivs angepasst werden.
- Lange Brennweite → kurze Belichtungszeit; Faustformel: Belichtungszeit = 1 / Brennweite
- Schnelle Bewegung des Motivs → kurze Belichtungszeit
Lichtwert (LV) bzw. Exposure Value (EV)
Die korrekte Belichtung setzt sich aus einer Kombination von Blende und Belichtungszeit zusammen, wobei man von einem konstanten ISO = 100 ausgeht. Wenn man mit Hilfe des Belichtungsmessers die korrekte Belichtung aus Blende und Belichtungszeit bestimmt hat, verändert sich die Belichtung nicht,
- wenn man die Blende um eine Stufe verkleinert (f/8 → f/11), wodurch nur mehr halb so viel Licht auf den Sensor fällt,
- und wenn man gegengleich die Verschlusszeit um eine Zeitstufe verlängert (1/250s → 1/125 s), wodurch das Licht doppelt so lange auf den Sensor fällt.
Für eine korrekte Belichtung sind Blende und Verschlusszeit indirekt proportional. Um verschiedene Blenden/Verschlusszeit-Pärchen mit einander hinsichtlich der Belichtung vergleichen zu können, hat man den Lichtwert als Rechenhilfe eingeführt.
- Die Belichtungszeitreihe im Abstand von einem Lichtwert lautet:
30s, 15s, 8s, 4s, 2s, 1s, 1/2s,1/4s, 1/8s, 1/15s, 1/30s, 1/60s, 1/120s, 1/250s, 1/500s, 1/1000s, 1/2000s, 1/4000s, 1/8000s, 1/64000s. - Die Blendenreihe im Abstand von einem Lichtwert lautet:
f/1 - f/1,4 – f/2 – f/2,8 – f/4 – f/5,6 – f/8 – f/11- f/16 – f/22 – f/32.
Um Zeit-Blenden-Kombinationen bezüglich der Belichtung vergleichen zu können hat man den Lichtwert eingeführt. Der Lichtwert LV = 0 bedeutet, dass bei ISO = 100 mit Blende f/1 und mit einer Belichtungszeit von 1 Sekunde belichtet wurde.
Damit kann man folgende Tabelle aufstellen
ISO=100 | 4s | 2s | 1s | 1/2s | 1/4s | 1/8s | 1/15s | 1/30s | 1/60s | 1/125s | 1/250s | 1/500s | 1/1000s |
f/22 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 |
f/16 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 |
f/11 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
f/8 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |
f/5,6 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
f/4 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |
f/2,8 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 |
f/2 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
f/1,4 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |
f/1 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
Ablesebeispiel: Man erhält bei ISO=100 die gleiche Belichtung LV=12, wenn man bei Blende f/8 eine sechzigstel Sekunde belichtet, als wie bei Blende f/2,8 mit einer fünfhundertstel Sekunde.
Legt man statt einem ISO 100 Film einen mit ISO 200 in die analoge Kamera, oder erhöht man elektronisch entsprechend die Bildaufhellung so ergibt sich folgende Tabelle:
ISO=200 | 4s | 2s | 1s | 1/2s | 1/4s | 1/8s | 1/15s | 1/30s | 1/60s | 1/125s | 1/250s | 1/500s | 1/1000s |
f/22 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 |
f/16 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
f/11 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |
f/8 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
f/5,6 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |
f/4 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 |
f/2,8 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
f/2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |
f/1,4 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
f/1 | -3 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Ablesebeispiel: Man erhält bei ISO = 200 die gleiche Belichtung LV=12, wenn man bei Blende f/8 eine hundertfünfundzwansigstel Sekunde belichtet, als wie bei Blende f/2,8 mit einer tausendstel Sekunde. Gegenüber ISO = 100 kann man bei gleicher Blende eine Zeitstufe kürzer, also halb so lang, belichten.
Banner Werbung für Region "nicht-DACH"
Beat-the-Clock-Tests
Prüfungsvorbereitung unter simuliertem Zeitdruck
Nach der Prüfung in Ruhe entspannen

CMOS-Sensoren
Bei Kamerasensoren unterscheidet man nach deren Abmessungen, der Anzahl der Pixel und der Funktionsweise bei der Bilddatenverarbeitung.
Abmessungen des Fotosensors
- Kleinbildfilmformat
Als man noch mit Filmmaterial fotografierte, betrugen die Abmessungen eines Negativs oder Dias 36 x 24 mm, was man als Kleinbildformat bezeichnete. Eine Sensorgröße von 36 x 24 mm wird heute als Vollformat bezeichnet. - Vollformat-Sensoren
Für professionelle Spiegelreflex und spiegellose Kleinbildkameras, ist man bei einer Sensorfläche von 36 x 24 mm bei einem Seitenverhältnis von 3:2 geblieben. - APS-C-Sensoren
Als elektronische Sensoren Anfang der Jahrtausendwende noch schwer herzustellen und teuer waren, hat man kleinere als die Vollformat-Sensoren, die sogenannten APS-C Sensoren, mit 25,1 x 16,7 mm bzw. 22,2 x 14,8 mm hergestellt. Diese Sensortypen haben das klassische Seitenverhältnis von 3:2. - Cropfaktor
Ein Vollformat-Sensor ist somit 63% oder 1,6-mal so groß als ein APS-C Sensor. Der Faktor 1,6 wird als Cropfaktor bezeichnet. Mit diesem Cropfaktor von 1,6 muss man die Brennweite eines Objektivs, welches für Vollformat-Sensoren gebaut wurde, multiplizieren, um auf die effektive Brennweite dieses Objektivs beim Einsatz mit einem APS-C Sensor zu kommen. Diese Brennweitenverlängerung ist bei Wildlife und Action-Fotografie von Vorteil, aber bei Architektur und Innenraum-Fotografie von Nachteil, weil dort der Bildwinkel zu klein wird, um nahe Objekte vollständig fotografieren zu können.
Pixelzahl bzw. Bildauflösung
Je mehr Pixel auf dem Sensor verbaut sind, umso größer kann ein Ausdruck werden, wenn man für einen qualitativ hochwertigen Druck 300 PPI zugrunde legt. Eine höhere Pixelzahl erlaubt auch mehr Freiheiten bei der Wahl des Bildausschnitts in der Nachbearbeitung, ohne Qualitätseinbuße.
Heute werden Bilder zunehmend auf TV-Geräten und PC-Monitoren betrachtet. Mit dem Ersatz von heute veralteten TV-Geräten mit Bildröhre im 4:3 Format, durch elektronische Bildschirme in Full-HD-Auflösung mit 1920x1080 Pixel setzte sich das Breitbildformat 16:9 im Wohnzimmer durch. Diesem folgten das UHD und das 8k-Format. Die nachfolgende Tabelle zeigt, dass selbst für einen High-End-8k-Bildschirm 33M Pixel ausreichend für eine 1:1 Pixelabbildung sind. Mit 24 M Pixel schafft man eine 6k-Auflösung und mit 8,3 M-Pixel eine UHD-Auflösung.
720 x 576 Pixel & Seitenverhältnis 4:3 |
SD-TV-Format, veraltet |
1920 x 1080 Pixel & Seitenverhältnis 16:9 |
Full-HD-TV-Format, 2M-Pixel pro Bild |
3840 x 2160 Pixel & Seitenverhältnis 16:9 |
4k-UHD-Format, 8,3M-Pixel pro Bild |
7680 x 4320 Pixel & Seitenverhältnis 16:9 | 8k-Format, 33 M-Pixel pro Bild |
Entscheidend für die Qualität, die ein Sensor liefert, ist aber nicht nur die Anzahl an Megapixel, sondern auch die Fläche, die pro Pixel am Sensor zur Verfügung steht. So haben etwa 33 Megapixel auf einem Vollformat Sensor mit 36 x 24 mm Abmessung 56-mal mehr Platz, als auf einem Handysensor von 4,5 x 3,4 mm Abmessung und können auch 56-mal mehr Licht aufsammeln. Dadurch muss bei schwacher Beleuchtung das Nutzsignal auch wesentlich weniger stark elektronisch verstärkt werden, wodurch es zu weniger Bildrauschen und einer höheren Bildqualität kommt, die dann deutlich sichtbar wird, wenn man das Handybild und das Kamerabild auf einem großen Bildschirm betrachtet.
Bilddatenerfassung mit analogem Film
Analoge Filme zeichnen das Bild mit Hilfe von Silberhalogenid-Kristallen auf. Abhängig von Größe und chemischer Zusammensetzung dieser Kristalle, resultiert eine Filmempfindlichkeit, die als ISO-Wert angegeben wird. Je höher der ISO-Wert, umso weniger Licht ist erforderlich, um den Film korrekt zu belichten.
Der ISO-Wert ist ein Maß dafür wie stark das Bild aufgehellt werden soll. Erhöht sich der ISO-Wert um eine Stufe, so wird doppelt so stark aufgehellt, bzw es muss nur halb so viel Licht auf den Sensor fallen.
- Einer Verdoppelung der ISO-Zahl entspricht eine Verdoppelung der Lichtempfindlichkeit und somit reicht bei gleicher Blende die halbe Belichtungszeit für eine korrekte Belichtung. Die ISO-Reihe im Abstand von einem Lichtwert lautet: 25, 50, 100, 200, 400, 800, 1.600, 3.200, 6.400, 12.800
Filme haben 12, 24 oder 36 Bilder, man muss den Film ausknipsen, um einen weiteren Film mit einer anderen ISO-Empfindlichkeit einlegen zu können.
- ISO 25 ist ein Film mit sehr feinem Korn, etwa für einen Badetag am Strand.
- ISO 100 einer für bewölkte Tage.
- ISO 400 ist ein grobkörniger Film für bewölkte Tage mit wenig Licht und
- ISO 800 ist ein Film mit sichtbarem Korn für Innenaufnahmen ohne Blitz
- ISO > 800: Bestimmte Filme eignen sich für eine Unterbelichtung während der Aufnahme (Pushen) und erfordern dann eine forcierte Entwicklung im Fotolabor, um die Unterbelichtung wieder auszugleichen. Dadurch kann man mit einer kürzeren Belichtungszeit fotografieren, was vor allem dann Sinn macht, wenn man deshalb ohne Stativ verwacklungsfrei fotografieren kann. Dieser Trick wirkt sich aber sichtbar auf die Bildqualität in Form von starken Kontrasten aus.
Der ISO-Wert des Sensors einer Digitalkamera kann, im Unterschied zum analogen Film- oder Dia-Material, für jedes Bild neu gewählt werden. Moderne Kameras decken dabei den Wertebereich von ISO 50 bis ISO 204.800 ab, wodurch sie praktisch zu Nachtsichtgeräten werden.
Bilddatenerfassung mit digitalem Fotosensor
Kamerasensoren
Kamerasensoren zeichnen ein Abbild vom Motiv mit Hilfe von lichtempfindlichen Halbleiterbauelementen auf. Dabei kommen zwei Kategorien von Sensoren zum Einsatz:
- CCD-Sensoren (Charge Coupled Device)
- CMOS-Technik (Complementary Metal-Oxide Semiconductor)
Kamerasensoren arbeiten grundsätzlich analog, da sie die Photonen des einfallenden Lichts in einen Strom aus Elektronen umwandeln. Erst ein nachgeschalteter Analog-Digital-Wandler erzeugt mittels eines Kondensators aus dem Strom eine Spannung und gibt diesen analogen Eingangswert an seinem Ausgang als einen Digitalwert der Helligkeit aus.
In jedem Pixel des Fotosensors werden durch den Inneren Photoelektrischen Effekt im Idealfall ein Photon in eine elektrische Ladung (Elektron) umgewandelt. Der Innere Photoelektrische Effekt besagt, dass Elektronen in einem Metall aus dem Valenzband in das Leitungsband angehoben werden, wenn die Energie des einstrahlenden Photons hf größer ist als die Bindungsenergie EB des Elektrons. Dabei wird durch den Photonenbeschuß aus stationär in der Atomhülle gebundenen Elektronen ein aus frei fließenden Elektronen bestehender elektrischer Gleichstrom.
Quanteneffizienz
Die Quanteneffizienz QE ist eine Kennzahl für das reale Verhältnis zwischen den eintreffenden Photonen und dem durch den Inneren Photoelektrischen Effekt erzeugten Elektronen. Wenn 6 Photonen zusammen 3 Elektronen erzeugen, dann gilt QE=50%. Ist der QE-Wert hoch, verbessert sich des Signal to Noise Ratio von Sensoren und in dunkeln Bildteilen entsteht eine bessere Detailzeichnung.
Belichtung (Exposure)
Die Belichtung, das ist die Lichtdichte welche auf den Sensor fällt, wird kameraseitig ausschließlich durch die gewählte Blende (Lichtintensität) und die gewählte Belichtungszeit (Dauer der Einwirkung der Photonen auf die Photodiode) bestimmt.
Der Sensor erfasst dieses Licht und führt es einer Signalverarbeitung zu. Die Empfindlichkeit des Sensors ist physikalisch bedingt, und kann nicht durch Kameraeinstellungen beeinflusst werden. In der analogen Fotografie musste man auch den Film wechseln, um eine andere Lichtempfindlichkeit zu erhalten.
Photodiode
Um der Photodiode im Sensor maximal viel Licht zuzuführen, befindet sich unter dem Infrarot Sperrfilter und einem Tiefpass-Filtern und über jedem Pixel eine Mikrolinse zur Bündelung des einfallenden Lichts, die heutzutage lückenlos aneinandergereiht sind (gapless microlenses).
- Front-Side-Illuminated-Sensor: Bei FSI befindet sich unter dem Bayer-Filter auf derselben Fläche zum einen die Verdrahtung, die erforderlich ist, um den Elektronenfluss zum A/D-Wandler zu ermöglichen und zum anderen die zugehörige Photodiode. Beim FSI-Sensor verläuft die Verdrahtung zwischen den Photodioden und nimmt diesen Platz weg, da Verdrahtung und Diode in der selben Ebene liegen.
- Back-Illuminated-Sensor: Beim BSI befindet sich unter dem Bayer-Filter zuerst die Schicht mit den Photodioden, welche die ganze Fläche ausfüllen können und erst darunter in einer weiteren Schicht die Verdrahtung, was die Empfindlichkeit des BSI-Sensors gegenüber dem FSI-Sensor verdoppelt, da die Verdrahtung der Photodiode keinen Platz wegnimmt.
- Stacked-Sensor: Um die Auslesegeschwindigkeit je Photodiode massiv zu vergrößern, wird bei Stacked-Sensoren (das ist ein in die Höhe gestapelter Sensor) nach der Verdrahtung in einer weiteren Ebene ein DRAM-Speicher je Pixel vorgesehen. Zudem liegen die A/D-Wander nicht außerhalb der lichtempfindlichen Fläche am Rand des Sensors, sondern in einer weiteren Schicht direkt unterhalb der Photodioden.
ISO-Wert (Bildaufhellungs-Wert)
Der gewählte ISO-Wert (Bildaufhellungs-Wert) wirkt sich natürlich nicht auf die Quanteneffizienz QE des einzelnen Pixels aus, sondern er dient der nachträglichen Anpassung der Helligkeit zufolge der gewählten Belichtung, an die vom Auge erwartete Helligkeit im endgültig betrachteten Bild (JPEG, HEIF, TIFF). Der ISO-Wert ist daher der Zusammenhang zwischen der Belichtung des Sensors und der Helligkeit des finalen Bildes. Der ISO-Wert entspricht einer Bildaufhellung, egal ob diese durch analoge Verstärkung vor dem A/D-Wandler oder durch die anschließende digitale Verarbeitung erfolgt.
Dynamik
Während der Belichtung muss eine Mindestanzahl an Photonen auf der lichtempfindlichen Sensorschicht auftreffen, damit die Kamera das Nutzsignal vom Störsignal unterscheiden kann. Je weniger Photonen erforderlich sind, damit das Signal to Noise Ration SNR größer als 1 wird, umso lichtempfindlicher ist der Sensor.
Treffen hingegen zu viele Photonen die lichtempfindliche Sensorschicht, so geht diese in Sättigung und es werden keine zusätzlichen elektrischen Ladungen freigesetzt.
Der Bereich zwischen der mindestens erforderlichen und der maximal zulässigen Photonenanzahl bestimmt die Dynamik des Sensors. Sensoren mit einer hohen Dynamik liefern über die Sensorfläche verteilt, sowohl in dunklen als auch in hellen Bildbereichen detaillierte Bildinformationen.
Analog-Digital-Wandler
Der Analog-Digital-Wandler im Kamerasensor wandelt - die der Anzahl der dedektierten Photonen proportionale Spannung - in einen digitalen Helligkeitswert um. Bei einem analogen Signal, welches während der Digitalisierung konstant bleibt, bestimmt allein die Bittiefe die Qualität des A/D-Wandlers. Ändert sich das analoge Signal mit der Zeit, etwa bei den Einzelbildern eines Videos oder einer Serienaufnahme mit x-Fotos pro Sekunde, so bestimmt auch die Abtastrate, also die Häufigkeit, mit der das analoge Signal abgetastet werden kann, die Qualität des A/D-Wandlers bzw. die Anzahl der Raw-Dateien, die pro Sekunde dem Digitalen Signalprozessor zugeführt und folglich abgespeichert werden können.
Vor der Belichtung werden die elektrischen Kreise des Sensors entladen. Während der Belichtung ändert sich die elektrische Ladung für jedes einzelne Pixel im Sensor proportional zur auftreffenden Lichtmenge, bildlich gesprochen, proportional zur Anzahl der auftreffenden Photonen.
Diese Ladung je Pixel wird in einem Gleichstromkreis mittels eines Kondensators in eine – natürlich analoge, was sonst - Spannung umgewandelt, je nach der gewählten ISO-Einstellung mehr oder weniger analog verstärkt, einem Analog-Digital-Wandler zugeführt.
Der A/D-Wandler soll die Digitalisierung mit möglichst hoher Geschwindigkeit durchführen, um eine hohe Serienbildfrequenz und eine hohe Framezahl bei Videoaufnahmen und für das elektronische Sucherbild zu ermöglichen. Ein Sensor mit 24 Megapixel beinhaltet 6.000 Pixel je Reihe, für die es je einen eigenen, also in Summe 6000, A/D Wandler gibt. D.h. alle 6.000 Spalten werden zeitgleich digitalisiert.
Die 4.000 Reihen werden hingegen zeitlich gestaffelt, also nacheinander digitalisiert. Dabei vergehen bis zu 0,05 Sekunden bzw. 1/20 Sekunde, ehe alle Pixel zwischen der ersten und der letzten Zeile des Sensors ausgelesen sind. Das reicht nicht für ein 6k-Video mit 60 Bildern pro Sekunde. Daher muss man unterhalb von jedem Pixel einen DRAM-Speicher vorsehen, was die Bauform eines Stacked-Sensors erfordert. Der A/D-Wandler speichert die Daten nach einer Vorverarbeitung über einen schnellen Schreibzugriff in den DRAM-Speicher, von wo aus sie mit der für den nachgeschalteten Digitalen Signalprozessor idealen Lesegeschwindigkeit weitergereicht werden. Dadurch kann die Auslesezeit für alle Pixel des Sensors auf 1/120 Sekunde reduziert werden. Der nächste technologische Schritt wäre ein A/D-Wandler pro Pixel.
Digitaler Signalprozessor
Letztlich wird für jedes Pixel der digitale 14-Bit-Wert zusammen mit der Zeilen- und Spaltenkennung des jeweiligen Pixels aus dem AD-Wandler in Form eines Zahlenwerts, welcher für die Anzahl der Photonen und damit für den Helligkeitswert – die Luminanz - des jeweiligen Pixels steht, einem DSP Digitalen Signalprozessor zugeführt. Dabei wird die Anzahl der detektierten Photonen linear in einen Zahlenwert umgerechnet. Der DSP speichert diesen Luminanzwert für jedes Pixel einzeln in Form von Bits und Bytes als Camera-RAW-Datei auf eine Speicherkarte. Bei einer 14-Bit Camera-RAW-Datei kann man also pro Pixel 16.385 Grauwerte unterscheiden. In der Camera-RAW-Datei wird auch der gewählte ISO-Wert hinterlegt. Der Digitale Signalprozessor ist neben der oben beschriebenen Bilddatenverrechnung auch noch für Kamerasteuerungsfunktionen wie Belichtungsmessung, Autofokus, automatischer Weißabgleich usw. zuständig.
Sensor-Rauschen
Die analoge Verstärkung der Spannung vor dem AD-Wandler hat den Nachteil, dass ISO-abhängig, auch das im Signal enthaltene, im Sensor erzeugte Rauschen (Upstream Noise, Shot-Rauschen, Photonen-Rauschen) verstärkt wird.
ISO-invarianter Sensor
Bei einem ISO-invarianten Sensor wird nicht die analoge Spannung, samt dem darin enthaltenen Rauschen verstärkt, sondern die Spannung wird unverstärkt dem Analog-Digital-Wandler zugeführt.
Erst nach der Digitalisierung wird der eingestellte ISO-Wert für die Anzeige der JPEG-Fotovorschau samt dem damit verbundenen Histogramm verwendet. Beim ISO-invarianten Sensor gibt es zwei Möglichkeiten der Belichtungsverstärkung:
- Kameraextern: Der ISO-Wert wird in die RAW-Datei geschrieben, und dient kameraextern als Startwert für die Bildbearbeitung.
- Kameraintern: Der ISO-Wert wird kameraintern im DSP berücksichtigt und die angepassten Helligkeitswerte in die RAW-Datei geschrieben. Das hat den Vorteil, dass der Sensorhersteller (z.B.: Canon) die Eigenheiten seines Sensors besser kennt und berücksichtigen kann als der Hersteller eines RAW-Konverters (z.B.: Adobe), der dutzende Sensoren emulieren muss.
Moderne Kameras decken dabei den Wertebereich von ISO 50 bis ISO 204.800 ab, wodurch sie praktisch zu Nachtsichtgeräten werden.
Farbfotografie
So kommt die Farbinformation in die Camera-RAW-Datei
In einem Sensor mit z.B. 24 Megapixel werden Halbleiterbauelemente in einem Raster von 6000 Spalten und 4000 Zeilen angeordnet. Nach der Aufnahme für jedes Pixel die Anzahl der registrierten Pixel in Form von 16.385 Graustufen, die zwischen schwarz und weiß liegen, abgespeichert. Es liegt noch keine Farbinformation vor.
Dreifarbenauszug
Die monochrome Bilderfassung in Form von Grauwerten muss adaptiert werden, um Farbaufnahmen zu ermöglichen. Mit Hilfe eines Bayer-Filters werden Grauwerte abgespeichert, die einer der drei Grundfarben im additiven RGB-System entsprechen.
IR-Sperrfilter
Moderne Fotosensoren decken bezüglich des Inneren Photoelektrischen Effekts einen Spektralbereich von Blau (400 nm) bis Infrarot (2400 nm) ab. Da der Infrarotbereich unerwünscht ist, wird er durch einen IR-Sperrfilter eliminiert.
Tiefpass-Filter
Moire-Artefakte (z.B. Farbsäume auf Kleidung) treten dann auf, wenn sich das Pixelraster des Bildsensors mit feinen Strukturen im Motiv überlagert. Dies kann nur bei hochfrequenten Bildanteilen entstehen. Dies kann man mit einem Tiefpassfilter vor dem Bildsensor verhindern, indem man hochfrequente Bildanteile herausfiltert, wodurch jedoch feinste Details nicht mehr wiedergegeben werden können und Schärfe verloren wird.
Bayer Filter
Bei den gängigen Farbfilter-Array-Kameras wird jedes der z.B. 24 Megapixel mit einem Farbfilter bedeckt, welcher nur Photonen mit jener Wellenlänge, die rotem, grünem oder blauem Licht entspricht, zur lichtempfindlichen Sensorschicht durchlässt. Dabei werden die Farbfilter Schachbrettartig angeordnet, wobei 50% der Pixel der Farbe Grün und je 25% der Pixel für die Farben Rot und Blau zugewiesen werden.
Abbildung: Bayer Filter, gemeinfrei, 27.12.2022
https://de.wikipedia.org/wiki/Bayer-Sensor#/media/Datei:Bayer_matrix.svg
Jedes der 24 Megapixel Pixel des Sensors entspricht nun nicht mehr einem von 16.385 Zahlenwerten (Luminanzwert), welcher einer Grauabstufung entspricht, sondern einem von 16.385 Zahlenwerten, dessen Luminanzwert abhängig von der Position im Bayer-Filter entweder einer roten oder grünen oder blauen Helligkeitswertabstufung entspricht. In der RAW-Datei werden daher nicht nur die 24 Millionen 14-Bit-Helligkeitswerte abgespeichert, sondern auch Metadaten, z.B. über welchem Pixel welcher Farbfilter gelegen hat. Dadurch ist es dem RAW-Konverter möglich, unter Berücksichtigung der Helligkeitswerte von je 4 benachbarten Pixel, von denen eines dem roten, eines dem blauen und zwei dem grünen Luminanzwert entspricht, die fehlenden beiden Farbinformationen für jedes einzelne Pixel zu interpolieren. D.h, je 4 Luminanzwerte, welche den Helligkeiten von 4 Grauwerten entsprechen, werden gemäß der Anordnung im BayerschenFarbfilter über dem jeweiligen Pixel, in 4 Farbwerte umgerechnet.
Wir fassen zusammen: Ein 24 Megapixel-Sensor unter einem Bayer-Filter zeichnet 24 Millionen Grauwerte in einer Abstufung von 16.384 Helligkeitsstufen auf, die je der Farbe Rot, Grün oder Blau entsprechen. Durch Interpolation mit den Nachbarpixeln entstehen wiederum 24 Millionen Farbwerte.
Normalisierter Tonwertumfang
Bei einem A/D Wandler mit 14 Bit pro Farbe liegt der jeweilige Wert pro Farbkanal zwischen 0 und 16.385. Ein A/D-Wandler mit 14 Bit für jeden der 3 Farbkanäle schreibt also die GRB-Farben 3*14=42 Bit in die RAW-Datei (jedoch nur mit 3*8=24 Bit in die JPEG-Datei.)
Damit die digitale Repräsentation je Farbkanal unabhängig von der verfügbaren Bittiefe (10, 12, 14 Bit je Farbkanal) des verwendeten A/D-Wandlers wird, dividiert man den Luminazwert pro Kanal durch die Bittiefe des A/D-Wandlers, also beim 10 Bit A/D Wandler eines Smartphones durch 1.024 und bei 14 Bit A/D-Wandler einer professionellen Kamera durch 16.385. Dadurch normalisiert man die Abstufungen der Luminanz je Farbkanal auf den Bereich zwischen 0 und 1.
Weißabgleich mittels Skalen
Die RGB-Kanäle eines Sensors weisen unterschiedliche relative spektrale Empfindlichkeiten auf. D.h selbst wenn jede Wellenlänge für RGB die gleiche Intensität hat (weißes Licht), dann ergeben sich nach dem A/D-Wandler unterschiedliche digitale Bit-Werte für RGB, was nicht mehr Weiß entspricht. Um diesem Farbstich entgegenzuwirken, kommen Weißabgleichskalen zur Anwendung, welche die unterschiedliche relative spektrale Empfindlichkeit wieder ausgleichen. Nach deren Anwendung sollten die Rot, Grün und Blau Luminanzwerte eines neutralgrauen Objekts wieder gleich sein, in Summe also einen Grauton ergeben.
Bilddatei
Die durch den digitalen Signalprozessor als Rohdaten vorliegenden Bildinformationen müssen gespeichert werden. Einerseits werden die Rohdaten kameraintern durch einen Rohdatenkonverter in JPEG Daten umgewandelt, andererseits als Rohdaten abgelegt. Dafür haben sich folgende Dateiformate etabliert:
Camera-RAW-Datei mit 14 Bit je Farbkanal
Wie wir gesehen haben, spielen bislang Kameraeinstellungen, wie etwa der Weißabglich, keine Rolle für die Helligkeits-Zahlenwertdarstellung jedes Pixels. Diese Einstellungen werden lediglich zusätzlich in den Metadaten abgelegt, damit der RAW-Konverter schon mal einen guten Startwert für die Umrechnung der RAW-Daten in die Daten des visualisierten Farbbildes hat.
Camera-RAW-Dateien sind verlustfrei komprimierte, sensorspezifische Dateiformate mit 14 Bit je Farbkanal, somit (16.385*16.386*16.385=) 4 Billionen Farbtöne. So gibt es bei Canon etwa das .CR2 und das neuere .CR3 Dateiformat. In einer RAW-Datei werden die Daten des Sensors unbearbeitet und unkomprimiert abgelegt. Die RAW-Dateien von unterschiedlichen Kameramodellen eines Herstellers können unterschiedlich aufgebaut sein, auch wenn sie die gleiche Dateiendung, etwa CR2 haben. RAW-Dateien sind ca. 3-Mal größer als JPEG oder HEIF-Dateien in höchster Qualität, bieten aber maximale Bearbeitungsflexibilität.
Viele Kameras, speziell solche in Smartphones, haben einen RAW-Konverter eingebaut und speichern die Fotos zusätzlich oder sogar ausschließlich im verlustbehafteten JPEG-Format ab.
Im Rahmen der Bildbearbeitung am Computer wird die Camera-RAW-Datei von einem sogenannten RAW-Konverter ausgelesen und in ein bearbeitbares Bild umgewandelt. Dafür ist es erforderlich, dass der RAW-Konverter auch genau das erforderliche Kameramodell unterstützt. Nach der manuellen Bildbearbeitung, bei der Fehlbelichtungen von bis zu 2 Blendenstufen korrigiert werden können, wird eine neue Datei mit dem bearbeiteten Bild z.B. im .DNG, .PSD oder .JPG Format zur späteren Ansicht am Monitor oder zum Ausdruck abgespeichert.
HEIF-Datei mit 10 Bit je Farbkanal
Das leicht verlustbehaftete komprimierte High Efficiency Image File Format wurde von der Moving Picture Experts Group entwickelt und zunächst von Apple als Nachfolger des JEPG Formats genutzt und bietet 10 Bit je Farbkanal, somit (1.024*1.024*1.024=) 1,07 Milliarden Farbtöne. Beinhalten also 4-Mal mehr Farbtoninformation als eine JPEG-Datei bei gleicher Dateigröße, da sie eine effizientere „High Efficiency“ Komprimierung bieten. HEIF-Dateien sind Containter in denen ein Eizelbild, eine Fotoserie, aber auch Metadaten gespeichert sind und unterstützt auch Transparenz. Der größte Nachteil von HEIF ist, dass es von Browsern und Druckern nicht unterstützt wird. Auf Windows 10 PCs muss man die kostenpflichtige (1€) HEVC Videoerweiterung aus dem Microsoft Store herunterladen.
JPEG-Datei mit 8 Bit je Farbkanal
Das Joint Photographic Experts Group File Format ist das wohl am weitesten verbreitete Format für Fotos da es jeder Webbrowser darstellen kann und bietet 8 Bit je Farbkanal, somit (256*256*256=) 16,8 Millionen Farbtöne. Die Speicherung der Aufnahmedaten erfolgt komprimiert, verlustbehaftet und beinhaltet alle allfälligen Bildbearbeitungseinstellungen wie zB den Weißabgleich, die nicht mehr rückgängig gemacht werden können. Die Dateigrößen sind klein und lassen sich leicht betrachten aber nur eingeschränkt nachbearbeiten.
Zusammenhang zwischen Sensorgröße sowie Brennweite und Öffnungswinkel vom Objektiv, sowie dem sichtbaren Bildfeld
B | Bildgröße |
b | Bildweite |
G | Gegenstandsgröße (F0V) |
g | Gegenstandsweite als Entfernung des Motivs von der Kamera |
f | Brennweite vom Objektiv |
Linsengleichungen
- Abbildungsgleichung:
Die Abbildungsgleichung beschreibt den Zusammenhang zwischen der Bildg- und der Gegenstandsgröße im Verhältnis zur Bild- und der Gegenstandsweite.
\(\dfrac{B}{G} = \dfrac{b}{g}\)
- Linsengleichung:
Die Linsengleichung beschreibt den Zusammenhang zwischen der Brennweite, der Bildweite und der Gegenstandsweite
\(\dfrac{1}{f} = \dfrac{1}{b} + \dfrac{1}{g}\)
Bildwinkel gängiger Objektive bei Sensor 36x24
Brennweite | horizontaler Bildwinkel | vertikaler Bildwinkel |
11 - 24 mm | 117° - 74° | 95° - 74° |
17 - 40 mm | 93° - 48° | 70° - 33° |
50 mm | 40° | 27° |
28 - 135 mm | 65° - 15° | 46° - 10° |
100 - 300 mm | 20,4° - 6,9° | 13,7° - 4,6° |
500 mm | 4,1° | 2,75° |
Horizontales Bildfeld gängiger Objektive in Meter bei Sensor 36x24 abhängig von der Gegenstandsweite
Gegenstandsweite | ||||
Brennweite | 10m | 25m | 100m | 250m |
11 - 24 mm | 33-15m | 82-38m | 327-150m | 818-375m |
17 - 40 mm | 21-9m | 53-22,5m | 212-90m | 530-225m |
50 mm | 7,2m | 18m | 72m | 180m |
28 - 135 mm | 13-2,6m | 32-7m | 128-27m | 321-214m |
100 - 300 mm | 3,6-1,2m | 9-3m | 36-12m | 90-30m |
500 mm | 0,7m | 1,8m | 7,2m | 18m |
Beispiele aus der Praxis:
- Will man mit einem 11mm Ultraweitwinkelobjektiv einen 150m hohen Kirchturm fotografieren, so muss man 45m entfernt stehen, bei einem 17mm Ultraweitwinkelobjektiv sind es bereits 71m, die man entfernt stehen muss.
- Will man mit einem 300mm Teleobjektiv einen Wellensurfer samt 10m hoher Welle fotografieren, so darf man nicht weiter als 84 m entfernt stehen, bei einem 500mm Super-Teleobjektiv sind es 140m, die der Abstand betragen darf.
Beispiel: Foto vom Mond
Brennweite 500mm (Spiegelteleobjektiv),
Gegenstandsweite: 384.400 km (Erde - Mond)
Durchmesser Mond: 3.475 km
→ horizontales Bildfeld: 27.676 km
→ Der Mond passt 7,9-mal auf die Breite des Bildes
Sensorauflösung 6000 x 4000 Pixel
→ Der Mond wird mit 750 x 750 Pixel, bzw mit 0,5MPixel abgebildet
→ 1 km am Mond entspricht 4,6 Pixel
→ 1 Pixel entspricht 215 m am Mond
Beispiel:
Der Full Frame Kamerasensor hat eine vertikale Höhe von Bv=24mm und eine horizontale Breite von Bh=36mm, die Brennweite des gewählten Objektivs beträgt f=300 mm. Wie hoch ist das Bildfeld Gv bzw. wie breit ist das Bildfeld Gh in einer Entfernung von g=100m?
Wir wählen Meter m als Recheneinheit:
\(\eqalign{ & \dfrac{1}{f} = \dfrac{1}{b} + \dfrac{1}{g}\,\,\,\,\left| { \cdot b} \right. \cr & \dfrac{b}{f} = 1 + \dfrac{1}{g}\,\,\,\,\,\left| { \cdot f} \right. \cr & b = f + \dfrac{f}{g} = 0,3 + \dfrac{{0,3}}{{100}} = 0,303m \cr & \cr & \dfrac{B}{G} = \dfrac{b}{g} \cr & {G_v} = \dfrac{{{B_v} \cdot g}}{b} = \dfrac{{0,024 \cdot 100}}{{0,303}} = 7,9m \cr & {G_h} = \dfrac{{{B_h} \cdot g}}{b} = \dfrac{{0,036 \cdot 100}}{{0,303}} = 11,9m \cr} \)
→ Bei einem Full-Frame Kamerasensor und einer Brennweite des Objektivs von 300mm beträgt bei einer Entfernung von 100m das sichtbare Bildfeld ca. 8 x 12 Meter.
Beispiel:
Wechselt man das Gehäuse auf eines mit dem kleineren APS-C Sensor mit Bv=15,6mm bzw. Bh=23,6mm so verkleinert sich das Bildfeld bei demselben Objektiv und derselben Entfernung wie folgt:
\(\eqalign{ & {G_v} = \dfrac{{{B_v} \cdot g}}{b} = \dfrac{{0,0156 \cdot 100}}{{0,303}} = 5,1m \cr & {G_h} = \dfrac{{{B_h} \cdot g}}{b} = \dfrac{{0,0236 \cdot 100}}{{0,303}} = 7,8m \cr} \)
→ Das Bildfeld in 100 m Entfernung beträgt bei einem APS-C Kamerasensor und einer Brennweite des Objektivs von 300mm ca. 5x8 m. Das entspricht einer scheinbaren Verlängerung der Brennweite um das 1,6-fache. Dh dasselbe Objektiv hat auf einer APS-C Kamera „scheinbar“ eine größere Brennweite.
Beispiel:
Bei einem Full-Frame Kamerasensor und einer Brennweite des Objektivs von 300mm beträgt bei einer Entfernung von 100m das sichtbare horizontale Bildfeld 12 Meter.
Wie groß ist der Öffnungswinkel des Objektivs?
\(\dfrac{{{\alpha _h}}}{2} = \arctan \dfrac{{\frac{{11,9}}{2}}}{{100}} = \arctan \dfrac{{11,9}}{{200}} = 3,405^\circ \to {\alpha _h} = 6,810\)
→ Bei einem Full-Frame Kamerasensor beträgt der horizontale Öffnungswinkel eines 300 mm Objektivs ca. 6,8°
Banner Werbung für Region "nicht-DACH"
Beat-the-Clock-Tests
Prüfungsvorbereitung unter simuliertem Zeitdruck
Nach der Prüfung in Ruhe entspannen

Bildbearbeitung
An den Prozess der Bildaufzeichnung schließt sich ein weiterer Prozess, nämlich der der Bildbearbeitung, an. Das Ziel der Bildbearbeitung ist es eine Datei mit den fertig bearbeiteten Bilddaten zu Betrachtung des Bildinhalts zur Verfügung zu stellen.
Automatische Bildbearbeitung
Hat man mit dem Fotoapparat oder der Kamera vom Smartphone bereits eine JPEG-Datei erstellt, dann ist bereits eine automatische Bildbearbeitung erfolgt und die Möglichkeiten sind, im Gegensatz zur RAW-Datei als Ausgangsmaterial der manuellen Bildbearbeitung, bereits eingeschränkt oder in der (Handy-) Praxis oft sogar abgeschlossen.
Manuelle Bildbearbeitung
Für die manuelle Bildbearbeitung verwendet man spezielle Software (z.B.: Adobe Lightroom oder Adobe Photoshop), deren Flexibilität sich erheblich unterscheidet.
Camera-RAW-Import-PlugIn
Um aus einer digitalen Aufnahme die maximale Bildqualität herausholen zu können, ist es erforderlich die Aufnahme in der Kamera als Camera-RAW-Datei abzuspeichern. Dabei handelt es sich um ein herstellerspezifisches proprietäres, nicht öffentlich zugänglich spezifiziertes, sensorspezifisches Speicherformat.
Rohbilddateien enthalten unverarbeitete Daten vom Bildsensor der Kamera und werden üblicherweise als „digitale Negative“ bezeichnet. Da die Camera-RAW-Daten keiner Bildbearbeitung unterzogen wurden, bieten sei ein größeres Maß an Flexibilität und Kontrolle beim nachträglichen Bearbeiten eines Bildes als andere Bilddateitypen wie JPEG oder TIFF.
Damit Bildverarbeitungsprogemme auf die in der Camera-RAW-Datei abgelegten Sensordaten zugreifen können, ist ein Import-Plug-In erforderlich, welches die Zusammenarbeit mit dem Kamerahersteller erfordert. Obwohl Camera-RAW-Bilddaten bei der Flexibilität der Bildbearbeitung den JPEG-Bilddaten technisch weit überlegen sind, besteht das Risiko, dass der Kamerahersteller einseitig den Support für das Dateiformat für einzelne Sensoren einstellt.
Camera-RAW-Konverter
Ein Camera-RAW-Konverter ist eine Software, um RAW-Bilddateien zu verarbeiten, die mit einer Digitalkamera aufgenommen wurden. Camera-RAW-Konverter entsprechen also einer „digitalen Dunkelkammer“. Auf diese Weise können Fotografen während der Bildbearbeitung das Erscheinungsbild ihrer Bilder optimieren und das Beste aus den vom Bildsensor der Kamera erfassten Daten herausholen. Die Verarbeitungsschritte sind wie folgt:
- Vorschaubild: Es werden die Camera-RAW-Daten mit Hilfe des sensorspezifischen Import PlugIns geöffnet und es wird ein Vorschaubild generiert und am Monitor angezeigt.
- Anpassung von Aufnahmeparametern: In einem 1. Bearbeitungsschritt erfolgt die nachträgliche manuelle Anpassung von technischen Aufnahmeparametern, wie Objektiv-Verzeichnungskorrektur, Weißabgleich, Belichtung und Farbsättigung, Kontrast, ISO-Bildaufhellung, waagrechte Ausrichtung des Bildhorizonts, Wahl des Arbeitsfarbraums (sRGB für Anzeige auf Displays, Adobe RGB für Druckvorlagen,…)
- Gestalterische Bildoptimierung: In einem 2. Bearbeitungsschritt wird das Erscheinungsbild der Bilder nach dem Geschmack des Bildbearbeiters optimiert. Das beginnt mit der Auswahl des Bildausschnittes, sowie die Retusche des eigentlichen Motivs. Es erfolgen aber auch selektiv Anpassungen für abgegrenzte Bildbereiche, wie den Hintergrund oder den Himmel. Dabei wird der Grafiker zunehmend durch künstliche Intelligenz (AI), etwa beim Freistellen des Hauptmotivs unterstützt.
- Speichern: Beim Speichern wird das fertige Bild gerendert, indem auf die RAW-Datei die beiden oben beschriebenen Bearbeitungsschritte angewendet werden und in einem gängigen Bildbetrachtungsformat wie JPEG oder TIFF in der gewünschten Auflösung und Kompression abgespeichert.
Die Bearbeitungsschritte werden separat, etwa als .XMP-File, oder in einer Katalogdatei abgespeichert.
Da die ursprüngliche RAW-Datei unverändert für die Langzeitarchivierung erhalten bleibt, spricht man von nicht-destruktiver Bildbearbeitung. - Langzeitarchivierung: Für eine Langzeitarchivierung des bearbeiteten Bildes und / oder als Alternative für die RAW-Datei bietet sich das DNG-Format an. Es wurde von Adobe als sensorunabhängiges offenes Format zum verlustfreien Speichern von Rohdaten entwickelt.
Kamerahersteller bieten RAW-Konverter für ihre eigenen Sensoren an, es gibt aber zunehmen mehr Fremdanbieter, die kameraherstellerübergreifend RAW-Konvertoren anbieten, wie Adobe. So ist Adobe Camera Raw als eigenständige Anwendung, aber auch als Plug-In in die beiden Bildbearbeitungsprogrammen Adobe Photoshop und Adobe Lightroom verfügbar. Adobe Photoshop verwendet man, wenn man ein einzelnes Bild bis zur Druckreifen perfekt optimieren möchte, während man Adobe Lightroom verwendet, wenn man zügig mehrere einander ähnliche Bilder aus einem Shooting optimieren möchte.
Tonwertkurve
Mit Hilfe einer Tonwertkurve rechnet man die in der Camera-RAW-Datei digital abgelegte Helligkeitsinformation je Pixel wieder in Grauwerte eines Bildes um, bzw. mit Hilfe der Helligkeitsinformation von 4 benachbarten Pixel unter einem Bayer-Filter, rechnet man in Farbwerte je Pixel um. Bei einer Farbaufnahme liegen 4 Tonwertkurven übereinander vor, eine für Grau und je eine für RGB.
Die Tonwertkurve selbst ist ein Algorithmus im Camera-RAW-Import-PlugIn. Die Tonwertkurve ist eine grafische Beziehung zwischen
- den Tonwerten in der Camera-RAW-Datei als Eingangsparameter (x-Achse) und
- den Tonwerten in der Bildvorschau als Ausgangsparameter (y-Achse).
Dabei erfolgt eine Anpassung
- des hohen Dynamikumfangs der RAW-Datei mit 10, 12, oder 14 Bit je Farbkanal, abhängig vom Sensor
- auf den viel geringeren Dynamikumfang der Bilddatei mit 8 Bit je Farbkanal (JPEG), geeignet für das menschliche Auge
Die Form der Tonwertkurve beeinflusst über die Verteilung der Helligkeitswerte den Kontrast in der Bildvorschau und somit das Aussehen des Histogramms der Tonwerte. Die Tonwertkurve selbst bekommt man in der digitalen Bildbearbeitung nicht angezeigt. Als Resultat der Tonwertanpassung wird
- einerseits das Histogramm der 4 Helligkeitsverteilungen (grau, RGB)
- andererseits die Gradationskurve
angezeigt. In beiden Fällen wird angezeigt, wieviele Pixel eine bestimmte Helligkeit haben.
- Beim Histogramm der Helligkeitsverteilung beeinflusst man jeweils eine von 5 Klassen (Schwarz, Tiefen, Mitteltöne, Hell, Weiß)
- während man bei der Gradationskurve punktuell einen von 256 Helligkeitswerten zur Bearbeitung auswählt.
Weber-Fechner-Gesetz
Das Weber-Fechner-Gesetz besagt, dass einem subjektiv vom Gehirn als linear empfundenen Zuwachs der Helligkeit, objektiv (physikalisch) ein logarithmischer Zuwachs der Helligkeit zugrunde liegen muss. Daher müssen die physikalisch im Sensor gemessenen Helligkeitswerte in den RAW-Daten mittels einer Tonwertkurve, also nicht linear und nicht mittels einer linearen Geraden, an die vom menschlichen Auge erwarteten Helligkeitswerte angepasst werden.
Reihenfolge der Bildbearbeitungsschritte
Folgende Reihenfolge der Bearbeitunsschritte hat sich bewährt:
- 1. Schritt: Bildimport mit Hilfe von Profilen
- 2. Schritt: Objektivkorrekturen
- 3. Schritt: Horizont, Seitenverhältnis und Bildausschnitt festlegen
- 4. Schritt: Helligkeit (Luminanz) mit Histogramm oder Gradationskurve festlegen
- 5. Schritt: Farbton (Hue) festlegen oder Weißabgleich durchführen
- 6. Schritt: Kontrast anpassen
- 7. Schritt: Sättigung (Saturation) anpassen
- 8. Schritt: Selektive Farbkorrektur gemäß dem HSL Farbmodell
- 9. Schritt: Schärfen und Rauschunterdrückung
- 10. Schritt: Retusche
1. Schritt der Bildbearbeitung:
Bildimport mit Hilfe von Profilen
Am Anfang von jeder Bildbearbeitung wird die Camera-RAW-Datei in ein Vorschaubild umgerechnet. Dabei werden
- mit Hilfe vom Camera-RAW-Import-PlugIn die Daten interpretiert und
- gemäß einem ausgewählten Profil grundlegend an die Erwartungen des Grafikers angepasst.
Sowohl das Import-PlugIn, welches vom Grafiker nicht beeinflusst werden kann, als auch das Profil, für das es eine kleine Auswahl gibt, beeinflussen das Vorschaubild, ohne dass man manuell eine erste Anpassung vorgenommen hätte.
Adobe Lightroom: Grundeinstellungen → Profil → Auswahl aus 6 von Adobe vordefinierten Profilen (Farbe, Kräftig, Landschaft, Portrait, Standard und Monochrom
Bildbearbeitung mit Hilfe von Presets
Presets stellen die einfachste Art der Bildbearbeitung dar. Es handelt sich dabei um eine vordefinierte Abfolge von Bildbearbeitungen, die mit nur einem Klick angewendet werden können. Man kann so schnell die Bildwirkung von verschiedenen Voreinstellungen ausprobieren. Da in der Praxix ein Preset auf unterschiedliche Vorschaubilder angewendet wird, ist das Resultat mehr oder weniger Zufall. Gefällt das Resultat, kann man sich die eigentliche Bildbearbeitung ersparen.
2. Schritt der Bildbearbeitung:
Objektivkorrekturen
Mit Hilfe der Funktion „Objektivkorrekturen“ gleicht man Verzeichnungen aus, die bei der Konstruktion vom Objektiv von dessen Hersteller nicht hinreichend korrigiert werden konnten. Dies ist speziell bei Weitwinkelobjektiven erforderlich, die leider tonnenförmige Verzerrungen aufweisen.
Adobe Lightroom: Objektivkorrekturen → Chromatische Aberrationen entfernen
Adobe Lightroom: Objektivkorrekturen → Profilkorrekturen aktivieren