Vom Photon zum Photo
Hier findest du folgende Inhalte
Formeln
Bildaufzeichnung
In dieser Mikro-Lerneinheit lernst du gestalterische Auswahlkriterien bezüglich der Wahl zwischen Foto und Videoaufzeichnung kennen. Danach verfolgen wir den Weg der Photonen, die der Träger von Lichtinformation sind, von deren Ursprung in einer Lichtquelle bis zu deren Auftreffen auf den Rezeptoren der Netzhaut, sodass in unserem Gehirn eine Bildwahrnehmung entsteht.
Fotografie bzw. Videografie
Heutzutage bieten moderne Kameras die Möglichkeit erst zum Zeitpunkt der Aufnahme zu entscheiden, ob man wahlweise Fotos oder Videos vom Motiv für eine spätere Betrachtung anfertigen möchte. Während es schon seit Jahrzehnten mit vertretbarem Aufwand interessierten Amateuren möglich war, qualitativ hochwertige Fotos zu machen, sind hochwertige low-budget Videoaufnahmen und deren Wiedergabe erst durch die Ablöse von analogen durch digitale Videokameras möglich geworden. Hervorzuheben ist, dass das Aufkommen von Smartphones die de facto kostenlose Aufzeichnung und Wiedergabe von Fotos und Videos allgegenwertig gemacht haben. Einhergegangen ist dies mit dem Siegeszug von Sozialen Medien wie Instagram und YouTube, mittels derer jeder einzelne unbedarfte Knipser seine Werke weltweit zugänglich machen kann.
Nachfolgend einige Aspekte, in denen sich Fotografie und Videografie unterscheiden:
- Statische Fotos vs. bewegte Bilder: In der Fotografie wird ein Sekundenbruchteil dauerhaft festgehalten, während in der Videografie Zeitintervalle aufgezeichnet werden.
- Geschichten erzählen: Das kann man mit Fotos und mit Videos, beim Foto ist man aber auf den Augenblick reduziert, während bei Videos zeitliche Veränderungen eingefangen werden. Ein gutes Foto erfordert das Gespür des Fotografen, im optimalen Sekundenbruchteil auf den Auslöser zu drücken, während man bei Videos durch den nachträglichen Schnitt die relevante Bildsequenz auswählt.
- Aufmerksamkeitsspanne des Betrachters: Der Inhalt eines Fotos ist auf einen Blick wahrzunehmen, während man bei Videos über einen längeren Zeitraum konzentriert bei der Sache bleiben muss.
- Bewegung und Ton: Beides sind Privilegien der Videografie, während die Fotografie ausschließlich visuell wirkt.
- Ressourceneinsatz: Fotos entstehen oft spontan, semi-professionelle Videos erfordern eine Planung und im professionellen Bereich ein Drehbuch mit exakten Anleitungen für die Akteure vor und hinter der Kamera. Die Lichtsetzung bei Sequenzen mit Bewegung und das Einfangen des Tons erfordern bei Videos mehr Aufwand als bei einem einzelnen Foto oder selbst einer Fotoserie, etwa anlässlich einer Hochzeit. Auch der Speicherbedarf und die Rechnerleistung für die Nachbearbeitung betragen in der Videografie ein Vielfaches gegenüber der Fotografie.
- Aufnahmeparameter und Datenspeicherung: Fotos, die im JPEG-Format abgespeichert wurden, dienen zumeist für die unmittelbare Bildbetrachtung, während Fotos im sensorspezifischen RAW-Format unbedingt mit einem Bildbearbeitungsprogramm nachbearbeitet werden müssen. Hier muss mit einer Bearbeitungszeit von durchschnittlich 5 Minuten pro Foto gerechnet werden. Auf Grund des hohen Datenaufkommens und der damit einhergehenden erforderlichen Schreibgeschwindigkeit der Speicherkarte bei Bewegtbild-Aufnahmen ist die Wahl der Aufnahmeparameter von hoher Bedeutung. Heute gängige Aufnahmegrößen sind Full-HD mit 1920 x 1080 Pixel in 16:9 oder 4k UHD mit 3840 x 2160 Picel.
Bildaufzeichnung – Der Weg der Photonen von einer Lichtquelle bis zu den Rezeptoren der Netzhaut
Bei der Bildaufzeichnung unterscheidet man zwischen "Standbild-Aufzeichnung" also dem Generieren eines Fotos und "Bewegtbild-Aufzeichnung", also dem Generieren eines Videos.
Photonen: Am Anfang jeder Bildauszeichnung steht das Photon. Photonen sind masselose Austauschteilchen der elektromagnetischen Wechselwirkung. Licht besteht aus elektromagnetischen Wellen, die sich in Form von diskreten Energiepaketen bewegen, denen die Wellenlänge und somit die Farbe des sichtbaren Lichts entspricht. D.h. die Bewegung von Photonen in einem bestimmten Wellenlängenintervall nimmt der Mensch oder der Kamerasensor als Licht einer konkreten Farbe wahr.
- 400 nm – 450 nm: Violett
- 450 nm – 495 nm: Blau
- 495 nm – 570 nm: Grün
- 570 nm – 590 nm: Gelb
- 590 nm – 620 nm: Orange
- 620 nm – 700 nm: Rot
Will man den technischen Prozess der Bildaufzeichnung verstehen, dann kann man den Weg, den das Licht durchläuft, wie folgt untergliedern:
Lichtquelle: Jede Lichtquelle ist der Ursprung von Photonen. Leuchtende Objekte, wie etwa eine Kerze, sind selbst der Ursprung des Lichts. In der Mehrzahl der Fälle ist aber eine externe Lichtquelle, wie etwa die Sonne (Tageslicht) oder ein Scheinwerfer (Kunstlicht), der Ausgangspunkt jener Photonen, die letztlich auf den Kamerasensor fallen.
Motiv: Die Oberfläche des Motivs wird von der Lichtquelle beleuchtet. Diese absorbiert, transmittiert und reflektiert je einen Teil des von der Lichtquelle stammenden Lichts. Bei geeigneter Lichtrichtung transportiert das reflektierte und das transmittierte (durchgelassene) Licht Informationen wie Farbe, Form und Textur vom Motiv in Richtung des Objektivs.
Objektiv: Das Objektiv sammelt und bündelt das vom Motiv eintreffende Licht. Der Bildwinkel (Weitwinkel-, Normal- oder Teleobjektiv) ist abhängig von der Brennweite des Objektivs.
Blende: Die Blende befindet sich innerhalb des Objektivs und regelt wie viel Licht auf den Bildsensor trifft.
Verschluss: Der Verschluss befindet sich im Inneren der Kamera und bestimmt wie lange das Licht, welches durch die Blende gelassen wurde, den Sensor beleuchtet.
Bild- bzw. Kamerasensor: Der Sensor besteht aus lichtempfindlichen Halbleiterbauelementen und wandelt die Photonen, die ihren Ursprung in der Lichtquelle hatten und die Infos über das Motiv enthalten, in einen Strom aus Elektronen um, der seinerseits einem Analog-Digital-Wandler zugeführt wird. Am Ausgang des AD-Wandlers liegt ein Digitalwert der Helligkeit je Pixel an.
JPEG bzw. RAW-Bilddatei: Der Digitalwert der Helligkeit je Pixel wird zusammen mit Informationen über die Position des Pixels hinter dem Bayer-Filter in eine Bilddatei geschrieben, in der sie dauerhaft abgespeichert werden. Dabei unterscheidet man, ob die Daten bereits in der Kamera durch einen Rohdatenkonverter in eine JPEG-Datei umgewandelt wurden und folglich direkt betrachtet werden können, oder ob die sensorspezifischen Rohdaten abgelegt wurden.
H.264 bzw H265 Codec und MP4 bzw. RAW-Videodatei: Abhängig von der Encodierungs-Leistungsfähigkeit das Analog-Digital-Konverters, sowie der Schreibgeschwindigkeit des Speichermediums in der Videokamera bei der Aufnahme und passend zur Dekodierungsleistung der Central Processing Unit (CPU) bzw. der Graphics Processing Unit (GPU) bei der Video-Wiedergabe am PC oder Smartphone, kommen oben angeführte Codecs und Containerformate zum Einsatz.
Bildverarbeitung: Während JPEG Daten meist zur direkten Anzeige gedacht sind, erfordern Rohdaten zwingend eine Bildverarbeitung. Dabei kann der Bildbearbeiter umfangreich gestalterisch tätig werden.
Bildanzeige: Das fertige Bild kann entweder auf einem Display betrachtet oder auf Papier ausgedruckt werden. Wird das Bild auf einem Display betrachtet, so werden durch die Beleuchtung des Displays Photonen auf den Weg zu den Rezeptoren in Auge gesendet. Wird das Bild auf Papier betrachtet, so haben die Photonen die auf die Rezeptoren im Auge fallen ihren Ursprung in einer Lichtquelle die das Foto beleuchtet.
Versteh' ich nicht - Gibt's nicht!
Frage kostenlos per eMail unser Supportteam
Damit niemand mehr bei Mathe in's Schwimmen kommt

Kameraobjektiv
Das Objektiv sammelt das Licht, welches vom Motiv kommt, mit Hilfe von einer oder mehreren Linsen, um ein Bild davon auf die Sensorebene abzubilden. Die wichtigsten Kenngrößen von Objektiven sind
- Brennweite in mm gemessen und
- größte Blende, als Verhältniszahl zwischen der Brennweite in mm und dem maximal möglichen Durchmessers des Objektivs in mm, welcher für den Lichteinfall zufolge der Öffnung der Blendenlamellen zur Verfügung steht.
Weitere wichtige Kriterien bei der Auswahl vom Objektiv sind: Autofokus bzw Möglichkeit der manuelle Fokussierung, Bildstabilisierung und Filtergewinde
Am Objektiv muss die Entfernung zwischen Motiv und Filmebene eingestellt werden und wie weit sich die Blende im Verhältnis zum Durchmesser des Objektivs öffnen soll.
Brennweite
Unter der Brennweite eines Objektivs versteht man die Entfernung des Brennpunkts der auf die Sensoroberfläche fallen sollte, von der Mitte der Linse. Die Brennweite bestimmt bei gegebener Sensorgröße den Bildwinkel vom Objektiv. Je nach Brennweite unterscheidet man
- Fisheye-Objektive, mit einer Brennweite unter 10mm, erzeugen ein kreisförmiges Bild
- Weitwinkel-Objektive, mit einer Brennweite zwischen 10 und 40mm
- Normalobjektive, mit einer Brennweite zwischen 40 und 55 mm
- Teleobjektive, mit einer Brennweite über 55 mm
Bildausschnitte
Durch die Wahl der Brennweite und durch die gewählte Entfernung zum Motiv, hat man bereits bei der Aufnahme die Möglichkeit, den am Foto letztendlich sichtbaren Bildausschnitt aus der gesamten Szenerie am Aufnahmeort festzulegen.
- Weitwinkel: Ein weit gefasster Bildausschnitt eignet sich für Landschaften oder Architekturaufnahmen, bei denen das Hauptmotiv in einem großen Kontext gezeigt wird. Abgebildete Personen gehen im Panorama unter. Die englischen Bezeichnung ist "Extrem Wide Shot"
- Totale: Eine totale Aufnahme zeigt das eigentliche Motiv und dessen Umgebung. Es wird ein weiter Bildausschnitt verwendet, um das Motiv in seinem gesamten Umfang darzustellen. Eine Person ist mit Vorder- und Hintergrund sichtbar. Die englischen Bezeichnungen lauten "Establishing Shot" oder "Wide Shot"
- Halbtotale: Bei einer halbtotalen Aufnahme wird das Motiv in einem mittleren Ausschnitt gezeigt. Es wird ein Teil der Umgebung sichtbar, aber der Blick wird auf das Motiv gelenkt. Eine Person nimmt die volle Höhe vom Bild ein und ist vom Kopf bis zu den Füßen sichtbar. Entsprechend lauten die englischen Bezeichnungen "Full Shot" oder "Complete View"
- Amerikanische Einstellung: Unter American Cut versteht man einen Bildausschnitt, wie er in Western für Cowboys beim Duell üblich ist. Die Person ist vom Kopf bis einschließlich der Oberschenkel sichtbar, wo sich die Hände und der Colt befinden. Die englischsprachige Bezeichnung lautet "American Cut".
- Halbnah: Eine halbnahe Aufnahme zeigt das Motiv von etwa der Taille oder dem Hüftbereich aufwärts, es werden aber immer noch Teile der Umgebung sichtbar. Sie entspricht der Wahrnehmung eines einem gegenüber stehenden Gesprächspartners. Die englische Bezeichnung lautet "Medium Cut". Diese Einstellung ist auf Sozial-Media sehr beliebt. Der "Influencer" ist halbnah zu sehen, der einzigartige, beeindruckende, fotogene "Instagrammable Place" ist im Hintergrund erkennbar.
- Nahaufname: Die Naheinstellung zeigt das Motiv in einem sehr engen Bildausschnitt. Menschen werden vom Kopf bis unterhalb der Brust dargestellt, so als würden sie von einem Bildhauer als Büste modelliert werden. Der Fokus liegt auf dem Gesicht. Die englische Bezeichnung lautet "Shoulder Close-Up".
- Großaufnahme: Eine Person ist vom Kopf bis zu den Schultern sichtbar, bzw. werden nur einzelne Körperteile, wie etwa die Hände sichtbar. Großaufnahmen eignen sich natürlich auch sehr gut für Gegenstände wie Blumenvasen. Die englische Bezeichnung lautet "Close-Up".
- Detailaufnahme: Ein Detailausschnitt zeigt einen sehr engen Blick auf ein bestimmtes Detail oder einen kleinen Teil des Motivs, etwa die Armbanduhr eines Darstellers oder ein kleines Motiv auf einer bemalten Blumenvase. Die englische Bezeichnung lautet "Extreme Close Up".
- Italienische Einstellung: Unter Italien Cut versteht man eine aus dem Film "Spiel mir das Lied vom Tod" bekannte Detailaufnahme, bei der ausschließlich die Augenpartie der Darsteller zu sehen ist. Die englische Bezeichnung lautet "Italian Shot".
Sehwinkel des Auges
Der Sehwinkel ist derjenige Winkel, unter dem ein Objekt in der Ferne von einem Beobachter wahrgenommen wird. Der Bildwinkel beim Sehen mit beiden Augen, samt des Bereichs des unscharfen, peripheren Sehens, beträgt ca. 170° horizontal und 110° vertikal. Das Auge sieht gleich weit entfernte Gegenstände dennoch nicht im ganzen Bildfeld gleichzeitig scharf, sondern nur in einem Bildwinkel von ca. 2°, die jedoch durch kleinste Augenbewegungen im Gehirn zu einem Winkel von 10° bis 35° in der Horizontalen zusammengesetzt werden.
- An einem 36x24 mm Bildsensor entspricht ein f=40…50...55 mm Objektiv den vertrauten Sichtverhältnissen, man spricht daher beim f=50 mm Objektiv auch vom „Normalobjektiv“.
- Ein f=50mm Objektiv an einem 36x24 mm Bildsensor weist einen horizontalen Bildwinkel von 39,6°, einen vertikalen Bildwinkel von 27° und einen diagonalen Bildwinkel von 46,8° auf
Zoom- bzw. Festbrennweiten-Objektive
Entsprechend der Bauform unterscheidet man Objektive mit fester uns solche mit verstellbarer Brennweite, sogenannte Zoom-Objektive. Der wichtigste Vorteil von Zoom-Objektiven ist, dass man den Bildausschnitt verändern kann, ohne den Standort zu ändern und ohne mehrere Objektive mit Festbrennweite mitzutragen. Dem stehen als Nachteile gegenüber, dass mehr Linsen benötigt werden, wodurch Zoom-Objektive konstruktionsbedingt lichtschwächer, schwerer und weniger hoch auflösend sind, als Objektive mit fester Brennweite.
Abbildungsqualität eines Objektivs
Für die Qualität eines Objektivs ist entscheidend, wie weit es die folgenden Abbildungsfehler, auf Grund der Anordnung von mehreren Linsen hintereinander, kompensieren kann.
- Verzeichnung
Verzeichnungen sind Bildfehler deren Ursache unerwünschte Veränderungen des Abbildungsmaßstabs innerhalb der Bildebene sind. Dadurch werden rechte Winkel im Motiv nicht wieder auf rechte Winkel im Bild abgebildet. Man unterscheidet kissen- und tonnenförmige Verzeichnungen. Die Verzeichnung nimmt vom Bildmittelpunkt in Richtung der Bildecken zu und wird sichtbar, sobald die Verzeichnung größer ist als der Abstand zweier Pixel. Dieser Fehler tritt vor allem bei Weitwinkelobjektiven auf und wird durch kostspielige Linsenkonstruktionen möglichst kompensiert. - Aberration
- Bei der sphärischen Aberration treffen parallel einfallende monochromatische Lichtstrahlen, nicht an einen einzigen Brennpunkt zusammen, sondern an mehreren Brennpunkten entlang der optischen Achse, wodurch ein unscharfes Bild entsteht. Dieser Effekt wird kleiner, wenn man die Blende etwas schließt, also abblendet (f/1,4 → f/2,8)
- Bei der chromatischen Aberration treten Farbsäume an Konturen auf, da parallel einfallende farbige Lichtstrahlen, einander abhängig von ihrer Wellenlänge, an mehreren Brennpunkten entlang der optischen Achse schneiden. Die chromatische Aberration kann man in der ‚Foto-Nachbearbeitung, von im RAW-Format aufgenommenen Bildern, korrigieren.
- Vignettierung
Darunter versteht man eine Verdunkelung bzw. einen Lichtabfall, in Richtung der Ecken und Ränder des Bildes. Dieser Effekt wird kleiner, wenn man die Blende etwas schließt, also abblendet (f/1,4 → f/2,8). Je größer der Bildsensor ist, um so aufwendiger ist, es Objektive mit geringem Randlichtabfall herzustellen. - Koma und Astigmatismus
Das sind Abbildungsfehler bei geneigten Linsen. Dabei handelt es sich um Bildfehler, die entstehen, wenn parallele Lichtstrahlen schräg, also nicht parallel zur optischen Achse, auf eine sphärische Linse auftreffen und sich nach dem Durchlaufen der Linse nicht in einem Bildpunkt treffen,- Koma: … sondern abseits der optischen Achse abgebildet werden, wodurch ein Punkt auf einen Beistrich („Koma“) abgebildet wird.
- Astigmatismus: … sondern auf zwei Bildlinien abgebildet werden, weshalb man auch von Punktlosigkeit spricht.
Blende
Das menschliche Auge kann durch eine Veränderung des Pupillendurchmessers, im Bereich von 1,5 bis 8 mm, die Lichtmenge steuern, die auf die Netzhaut fällt.
In einer Kamera steuert die Blende mit Hilfe von beweglichen Lamellen am Ende des Objektivs, wie viel vom Durchmesser des Objektivs für den Lichteinfall tatsächlich geöffnet wird. Die Blende steuert aber nicht stufenlos wie viel Licht auf den Sensor fällt, sondern in diskreten Blendenschritten bzw. den zugehörigen Lichtwerten.
Die Öffnung der Blende ist jener Wert in mm, der sich ergibt, wenn man die Brennweite des Objektivs durch den gewählten Blendenwert dividiert. Lichtstarke, aber teure Objektive, haben einen kleinsten Blendenwert von f/1,2 oder f/1,4. Ändert man die Blende um eine Blendenstufe, so fällt doppelt oder halb so viel Licht auf den Sensor.
Um die Fläche eines Kreises, der durch die Lamellen der Blende gebildet wird, und damit den durchgelassenen Lichtstrom zu halbieren, muss man den Durchmesser durch \(\sqrt 2 \approx 1,414\) dividieren. Die Blendenwerte ergeben sich dabei durch Multiplikation von 1 mit dem Faktor \(\sqrt 2 \approx 1,414\)
\(1 - \sqrt 2 - 2 - 2 \cdot \sqrt 2 - 4 - 4 \cdot \sqrt 2 - 8 - 8 \cdot \sqrt 2 - 16 - 16 \cdot \sqrt 2 - 32\)
Im Modus "Blendenautomatik" gibt der Fotograf die Belichtungszeit vor und die Kameraautomatik wählt die richtige Blende. Dabei werden die Blenden in Drittelstufen eingestellt. Die Blendenwerte ergeben sich dabei durch Multiplikation von 1 mit dem Faktor \(\sqrt[6]{2} \approx 1,122\)
1 - 1,1 - 1,2 - 1,4 - 1,6 - 1,8 - 2 - 2,2 - 2,5 - 2,8 - 3,2 - 3,5 - 4 - 4,5 - 5 - 5,6 - 6,3 - 7,1 - 8 - 9 - 10 - 11 - 13 - 14 - 16 - 18 - 20 - 22 - 25 - 28 - 32
Über den obigen Zusammenhang hängt der minimale Durchmesser eines Objektivs von dessen Brennweite ab.
- Bei einem 50 mm Normalobjektiv muss für Blende 2 der Durchmesser mindestens 50/2=25 mm = 2,5 cm betragen. Kein Problem!
- Bei einem 500 mm Teleobjektiv muss für Blende 2 der Durchmesser mindestens 500/2=250 mm = 25 cm betragen. Das würde einem Zylinder von 0,5 m Länge und einem Durchmesser von 25 cm entsprechen. So ein Objekt will man nicht unbedingt besitzen...
- Bei einem 500 mm Teleobjektiv muss für Blende 4 der Durchmesser mindestens 500/4=125 mm = 12,5 cm betragen. So ein Objektiv liegt in der 10.000 € Preisklasse und wiegt über 4 kg.
Die Blendenreihe im Abstand von einem Lichtwert (Brennweite dividiert durch Blendenwert) lautet somit:
f/1 - f/1,4 – f/2 – f/2,8 – f/4 – f/5,6 – f/8 – f/11- f/16 – f/22 – f/32.
- Verkleinert man die Blende um eine Blendenstufe (z.B.: von f/2,8 auf f/4) so kommt nur mehr halb so viel Licht auf den Sensor.
- Vergrößert man die Blende um eine Blendenstufe (z.B. von f/2 auf f/1,4) so kommt doppelt so viel Licht auf den Sensor.
→ Merksatz: Kleine Blendenzahl (f/2,8), große Blendenöffnung, viel Licht fällt auf den Sensor, bei geringer Schärfentiefe.
Das bedeutet bei einem 50mm Normalobjektiv und f/1,2 dass der offene Durchmesser 42 mm beträgt, also sehr viel Licht durch das Objektiv in Richtung des Sensors gelangt. Mit diesem Objektiv kann man auch dann noch richtige Belichtungen erzielen, wenn es schon dunkel ist.
→ Merksatz: Große Blendenzahl (f/16), kleine Blendenöffnung, wenig Licht fällt auf den Sensor, bei großer Schärfentiefe.
Das bedeutet bei einem 50mm Normalobjektiv und f/8 dass der offene Durchmesser 6,25 mm beträgt, also sehr wenig Licht durch das Objektiv in Richtung des Sensors gelangt. Mit diesem Objektiv kann man nur dann noch richtige Belichtungen erzielen, wenn das Motiv relativ gut beleuchtet ist.
Tiefenschärfe
Mit der Wahl der Blende geht die sogenannte Tiefenschärfe auch Schärfentiefe genannt, einher. Die Tiefenschärfe bezeichnet jenen Bereich vor und hinter dem Fokuspunkt, auf den am Objektiv scharf gestellt wurde, der im Bild noch hinreichend scharf abgebildet wird. Die Tiefenschärfe ist neben der Blendenöffnung auch noch von der Brennweite, der Entfernung zum Motiv und der Sensorgröße wie folgt abhängig:
- Kleine Blendenzahl (f/2,8), große Blendenöffnung → geringe Tiefenschärfe
- Nahe am Motiv → geringe Tiefenschärfe
- Große Brennweite → geringe Tiefenschärfe
- Großer Sensor → geringe Tiefenschärfe
Bokeh
Die Tiefenschärfe ist zwar technisch bedingt, wird aber gerne als fotografisches Gestaltungselement eingesetzt. Dann spricht man von Freistellung, Unschärfe-Look oder Bokeh. Ein Anwendungsfall ist etwa ein Portrait, bei dem der Vorder- und der Hintergrund im Unterschied zur Person absichtlich unscharf abgebildet werden, damit die ganze Aufmerksamkeit auf die Person gerichtet wird.
Scharfe Wahrnehmung
Die Wahrnehmung wird als scharf empfunden, wenn ein Punkt im Motiv als Punkt auf der Netzhaut, am Kamerasensor oder am Bild bzw. Monitor wieder als Punkt und nicht als Zerstreuungskreis abgebildet wird. Physikalisch gesehen ist dies für gegebene optische Parameter nur für eine einzige Gegenstandsweite möglich. Punkte vor und hinter dieser Gegenstandsweite zerstreuen.
- Der Fokus bzw. die Scharfstellung des Auges erfolgt kontinuierlich, wodurch das Auge scheinbar nie unscharf sieht. Bei dieser sogenannten Akkommodation verwendet das Auge folgenden Trick:
- Schaut man auf einen nahen Bildteil, so spannt sich der Ringmuskel, die Wölbung der Linse nimmt zu und auf der Netzhaut entsteht für die nahen Bildteile ein scharfes Bild.
- Schaut man auf einen fernen Bildteil, so entspannt sich der Ringmuskel, die Wölbung der Linse nimmt ab und auf der Netzhaut entsteht für ferne Bildteile ein scharfes Bild.
Durch die dynamische Änderung der Dicke und somit der Brechkraft der Augenlinse, zufolge anspannen oder erschlaffen des Ziliarmuskels, entsteht im Gehirn der Eindruck eines durchgängig scharfen Bildes auch für unterschiedliche Entfernungen.
- Die Fokussierung bzw. die Scharfstellung bei einem Objektiv funktioniert, indem der Entfernungsring am Objektiv gedreht wird, wodurch der Abstand zwischen den Linsen im Objektiv und dem Sensor im Gehäuse verändert wird. Erfolgt diese Drehbewegung durch einen Motor und wird sie elektronisch gesteuert, so spricht man von Autofokus.
- Wird der Abstand zwischen Objektiv und Sensor kürzer, werden ferne Motivteile scharf, wird der Abstand zwischen Objektiv und Sensor länger, werden nahe Motivteile scharf.
- In der Fotografie wird die Schärfe als Gestaltungsmittel eingesetzt, um die Aufmerksamkeit des Betrachters auf ausgewählte Bildteile zu lenken. Unter Bokeh versteht man jene Bildanteile, speziell im Bildhintergrund, die gewollt zunehmend unschärfer werden. Die Form der Zerstreuungskreise hängt dabei von der gewählten Brennweite, der Blendenöffnung und der Anzahl der Lamellen ab, welche die Blende bilden.
Beispiel:
Zeige, dass für eine Verdoppelung der Kreisfläche deren Durchmesser mit dem Faktor \(\sqrt 2 \approx 1,414\) zu multiplizieren ist
\(\begin{array}{l} A = \dfrac{{{d_1}^2}}{4} \cdot \pi \to {d_1} = 2 \cdot \sqrt {A \cdot \pi } \\ 2 \cdot A = 2 \cdot \dfrac{{{d_1}^2}}{4} \cdot \pi = \dfrac{{{d_2}^2}}{4} \cdot \pi \to 2 \cdot {d_1}^2 = {d_2}^2 \to {d_2} = \sqrt 2 \cdot {d_1} \end{array}\)
Verschluss
Der Verschluss steuert wie lange das Licht, welches von der Blende durch das Objektiv gelassen wurde, auf den Sensor fällt. Man unterscheidet zwischen mechanischem und elektronischem Verschluss.
- Der mechanische Verschluss (Shutter) liegt im Strahlengang durch eine Kamera hinter der Blende und vor dem Sensor. Beim mechanischen Verschluss gibt ein erster Verschlussvorhang einen Spalt frei, durch den Licht auf den Sensor fällt. Ein zweiter Verschlussvorhang, bestimmt, wie schnell sich dieser Spalt wieder schließt und dadurch kein weiteres Licht auf den Sensor fällt, wodurch die Belichtung abgeschlossen wird.
- Ein elektronischer Verschluss steuert das Auslesen des Bildsensors. Da hierbei keine mechanischen Teile bewegt werden müssen, werden so extrem kurze Belichtungszeiten möglich.
Belichtungszeit bzw. Verschlusszeit
Die Belichtungszeit ist jene Zeitspanne, während der das Licht vom Motiv kommend durch das Objektiv auf den Sensor bzw. den Film im Kameragehäuse fällt. Diese Zeitspanne wird in Sekunden bzw. Sekundenbruchteilen gemessen und durch einen Verschluss gesteuert. Übliche Belichtungszeiten liegen zwischen 30 Sekunden und 1/64.000 Sekunde:
Die Belichtungszeitenreihe im Abstand von einem Lichtwert lautet: 30s, 15s, 8s, 4s, 2s, 1s, 1/2s,1/4s, 1/8s, 1/15s, 1/30s, 1/60s, 1/120s, 1/250s, 1/500s, 1/1000s, 1/2000s, 1/4000s, 1/8000s. Halbiert man die Belichtungszeit, so fällt auch nur mehr halb so viel Licht auf den Sensor.
Damit kein verwackeltes Bild entsteht muss die Verschlusszeit an die Brennweite des Objektivs und an die Geschwindigkeit der Bewegung des Motivs angepasst werden.
- Lange Brennweite → kurze Belichtungszeit; Faustformel: Belichtungszeit = 1 / Brennweite
- Schnelle Bewegung des Motivs → kurze Belichtungszeit
ISO-Wert
In der Fotografie werden verschiedene ISO-Werte verwendet. In der analogen Fotografie waren niedrige ISO-Werte mit kleinen und hohe ISO-Werte mit großen Kristallstrukturen im Filmmaterial verbunden. In der digitalen Fotografie handelt es sich dabei um eine Kombination aus Sensorempfindlichkeit und Verstärkung im AD-Wandler.
Man wählt den ISO-Wert abhängig von der vorhandenen Beleuchtung, sowie abhängig von der Kombination aus Blende und Verschlusszeit wie folgt:
- ISO 100 ist ein niedriger ISO-Wert und wird oft in Situationen mit ausreichend Tageslicht verwendet. Es bietet eine hohe Bildqualität und geringes Rauschen. Dieser Wert eignet sich gut für Landschaftsfotografie, Studioaufnahmen und Situationen, in denen eine lange Belichtungszeit verwendet werden kann, oder bei der sehr viel Sonnenlicht vorhanden ist, wie etwa bei sommerlichen Strandszenen.
- ISO 400 ist ein vielseitiger ISO-Wert und eignet sich für eine Vielzahl von Situationen. Er kann bei schwächerem Tageslicht oder bei schnellen Bewegungen verwendet werden, da er eine schnellere Verschlusszeit ermöglicht. Dieser ISO-Wert wird oft in Sportfotografie, Reisefotografie und in Innenräumen ohne Blitz verwendet.
- ISO 800 bis 1600 sind mittlere ISO-Werte und werden in Situationen mit geringerem Licht verwendet. Sie eignen sich für Innenaufnahmen oder bei Dämmerung. Das Rauschen kann bei diesen Werten bereits sichtbar werden.
- ISO 3200 bis 6400 sind höhere ISO-Werte und werden in extrem schlechten Lichtverhältnissen oder für schnelle Bewegungen verwendet, wenn keine längere Belichtungszeit möglich ist. Diese Werte können zu sichtbarem Rauschen führen.
- ISO-Werte von 12800 und höher sind sehr hohe ISO-Werte und werden nur in äußerst dunklen Umgebungen verwendet, beispielsweise bei Nachtaufnahmen ohne Blitz. Das Rauschen ist bei diesen Werten in der Regel sehr ausgeprägt.
Lichtwert (LV) bzw. Exposure Value (EV)
Die korrekte Belichtung setzt sich aus einer Kombination von Blende und Belichtungszeit zusammen, wobei man von einem konstanten ISO = 100 ausgeht. Wenn man mit Hilfe des Belichtungsmessers die korrekte Belichtung aus Blende und Belichtungszeit bestimmt hat, verändert sich die Belichtung nicht,
- wenn man die Blende um eine Stufe verkleinert (f/8 → f/11), wodurch nur mehr halb so viel Licht auf den Sensor fällt,
- und wenn man gegengleich die Verschlusszeit um eine Zeitstufe verlängert (1/250s → 1/125 s), wodurch das Licht doppelt so lange auf den Sensor fällt.
Für eine korrekte Belichtung sind Blende und Verschlusszeit indirekt proportional. Um verschiedene Blenden/Verschlusszeit-Pärchen mit einander hinsichtlich der Belichtung vergleichen zu können, hat man den Lichtwert als Rechenhilfe eingeführt.
- Die Belichtungszeitreihe im Abstand von einem Lichtwert lautet:
30s, 15s, 8s, 4s, 2s, 1s, 1/2s,1/4s, 1/8s, 1/15s, 1/30s, 1/60s, 1/120s, 1/250s, 1/500s, 1/1000s, 1/2000s, 1/4000s, 1/8000s, 1/64000s. - Die Blendenreihe im Abstand von einem Lichtwert lautet:
f/1 - f/1,4 – f/2 – f/2,8 – f/4 – f/5,6 – f/8 – f/11- f/16 – f/22 – f/32.
Um Zeit-Blenden-Kombinationen bezüglich der Belichtung vergleichen zu können hat man den Lichtwert eingeführt. Der Lichtwert LV = 0 bedeutet, dass bei ISO = 100 mit Blende f/1 und mit einer Belichtungszeit von 1 Sekunde belichtet wurde.
Damit kann man folgende Tabelle aufstellen
ISO=100 | 4s | 2s | 1s | 1/2s | 1/4s | 1/8s | 1/15s | 1/30s | 1/60s | 1/125s | 1/250s | 1/500s | 1/1000s |
f/22 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 |
f/16 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 |
f/11 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
f/8 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |
f/5,6 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
f/4 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |
f/2,8 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 |
f/2 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
f/1,4 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |
f/1 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
Ablesebeispiel: Man erhält bei ISO=100 die gleiche Belichtung LV=12, wenn man bei Blende f/8 eine sechzigstel Sekunde belichtet, als wie bei Blende f/2,8 mit einer fünfhundertstel Sekunde.
Legt man statt einem ISO 100 Film einen mit ISO 200 in die analoge Kamera, oder erhöht man elektronisch entsprechend die Bildaufhellung so ergibt sich folgende Tabelle:
ISO=200 | 4s | 2s | 1s | 1/2s | 1/4s | 1/8s | 1/15s | 1/30s | 1/60s | 1/125s | 1/250s | 1/500s | 1/1000s |
f/22 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 |
f/16 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |
f/11 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |
f/8 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
f/5,6 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |
f/4 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 |
f/2,8 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
f/2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |
f/1,4 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
f/1 | -3 | -2 | -1 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
Ablesebeispiel: Man erhält bei ISO = 200 die gleiche Belichtung LV=12, wenn man bei Blende f/8 eine hundertfünfundzwansigstel Sekunde belichtet, als wie bei Blende f/2,8 mit einer tausendstel Sekunde. Gegenüber ISO = 100 kann man bei gleicher Blende eine Zeitstufe kürzer, also halb so lang, belichten.
Versteh' ich nicht - Gibt's nicht!
Frage kostenlos per eMail unser Supportteam
Damit niemand mehr bei Mathe in's Schwimmen kommt

CMOS-Sensoren
Bei Kamerasensoren unterscheidet man nach deren Abmessungen, der Anzahl der Pixel und der Funktionsweise bei der Bilddatenverarbeitung.
Abmessungen des Fotosensors
- Kleinbildfilmformat
Als man noch mit Filmmaterial fotografierte, betrugen die Abmessungen eines Negativs oder Dias 36 x 24 mm, was man als Kleinbildformat bezeichnete. Eine Sensorgröße von 36 x 24 mm wird heute als Vollformat bezeichnet. - Vollformat-Sensoren
Für professionelle Spiegelreflex und spiegellose Kleinbildkameras, ist man bei einer Sensorfläche von 36 x 24 mm bei einem Seitenverhältnis von 3:2 geblieben. - APS-C-Sensoren
Als elektronische Sensoren Anfang der Jahrtausendwende noch schwer herzustellen und teuer waren, hat man kleinere als die Vollformat-Sensoren, die sogenannten APS-C Sensoren, mit 25,1 x 16,7 mm bzw. 22,2 x 14,8 mm hergestellt. Diese Sensortypen haben das klassische Seitenverhältnis von 3:2. - Cropfaktor
Ein Vollformat-Sensor ist somit 63% oder 1,6-mal so groß als ein APS-C Sensor. Der Faktor 1,6 wird als Cropfaktor bezeichnet. Mit diesem Cropfaktor von 1,6 muss man die Brennweite eines Objektivs, welches für Vollformat-Sensoren gebaut wurde, multiplizieren, um auf die effektive Brennweite dieses Objektivs beim Einsatz mit einem APS-C Sensor zu kommen. Diese Brennweitenverlängerung ist bei Wildlife und Action-Fotografie von Vorteil, aber bei Architektur und Innenraum-Fotografie von Nachteil, weil dort der Bildwinkel zu klein wird, um nahe Objekte vollständig fotografieren zu können.
Sensorgrößen
Benchmark: Für einen 4k Monitor benötigt man 8,3 Megapixel, für einen 8k Monitor benötigt man 33 Megapixel
53,4 x 40 mm → 14.204 x 10.652 → 150 Megapixel | Mittelformat (Phase One, Hasselblad), Dynamikumfang: 15 EV |
36 x 24 mm → 8.192 x 5.464 → 45 Megapixel | Vollformat (Landschaft), Dynamikumfang: 10 EV |
36 x 24 mm → 6.000 x 4.000 → 24 Megapixel | Vollformat (Sport), Dynamikumfang: 13 EV |
22,2 x 14,8 mm | APS-C(Canon) |
17,3 x 13,0 mm | Micro Four Thirds |
12,8 x 9,6 mm | 1'' |
10,67 x 8 mm | 1/1,2'' |
9,85 x 7,4 → 16.384 x 12.288 → 200 Megapixel durch Pixel-Binning 50 Megapixel |
1/1,3 (Samsung Galaxy S23 Ultra, Weitwinkel) |
9,8 x 7,3 mm → 48 Megapixel | 1/1,31 (iPhone 14 Pro) |
8,8 x 6,6 mm | 2/3'' |
6,17 x 4,55 mm → 12 Megapixel | 1/2,3'' (Olympus Tough TG-6) |
4,5 x 3,4 | 1/3,2'' |
Pixelzahl bzw. Bildauflösung
Je mehr Pixel auf dem Sensor verbaut sind, umso größer kann ein Ausdruck werden, wenn man für einen qualitativ hochwertigen Druck 300 PPI zugrunde legt. Eine höhere Pixelzahl erlaubt auch mehr Freiheiten bei der Wahl des Bildausschnitts in der Nachbearbeitung, ohne Qualitätseinbuße.
Heute werden Bilder zunehmend auf TV-Geräten und PC-Monitoren betrachtet. Mit dem Ersatz von heute veralteten TV-Geräten mit Bildröhre im 4:3 Format, durch elektronische Bildschirme in Full-HD-Auflösung mit 1920x1080 Pixel setzte sich das Breitbildformat 16:9 im Wohnzimmer durch. Diesem folgten das UHD und das 8k-Format. Die nachfolgende Tabelle zeigt, dass selbst für einen High-End-8k-Bildschirm 33M Pixel ausreichend für eine 1:1 Pixelabbildung sind. Mit 24 M Pixel schafft man eine 6k-Auflösung und mit 8,3 M-Pixel eine UHD-Auflösung.
720 x 576 Pixel & Seitenverhältnis 4:3 |
SD-TV-Format, veraltet |
1920 x 1080 Pixel & Seitenverhältnis 16:9 |
Full-HD-TV-Format, 2M-Pixel pro Bild |
3840 x 2160 Pixel & Seitenverhältnis 16:9 |
4k-UHD-Format, 8,3M-Pixel pro Bild |
7680 x 4320 Pixel & Seitenverhältnis 16:9 | 8k-Format, 33 M-Pixel pro Bild |
Entscheidend für die Qualität, die ein Sensor liefert, ist aber nicht nur die Anzahl an Megapixel, sondern auch die Fläche, die pro Pixel am Sensor zur Verfügung steht. So haben etwa 33 Megapixel auf einem Vollformat Sensor mit 36 x 24 mm Abmessung 56-mal mehr Platz, als auf einem Handysensor von 4,5 x 3,4 mm Abmessung und können auch 56-mal mehr Licht aufsammeln. Dadurch muss bei schwacher Beleuchtung das Nutzsignal auch wesentlich weniger stark elektronisch verstärkt werden, wodurch es zu weniger Bildrauschen und einer höheren Bildqualität kommt, die dann deutlich sichtbar wird, wenn man das Handybild und das Kamerabild auf einem großen Bildschirm betrachtet.
Bilddatenerfassung mit analogem Film
Analoge Filme zeichnen das Bild mit Hilfe von Silberhalogenid-Kristallen auf. Abhängig von Größe und chemischer Zusammensetzung dieser Kristalle, resultiert eine Filmempfindlichkeit, die als ISO-Wert angegeben wird. Je höher der ISO-Wert, umso weniger Licht ist erforderlich, um den Film korrekt zu belichten.
Der ISO-Wert ist ein Maß dafür wie stark das Bild aufgehellt werden soll. Erhöht sich der ISO-Wert um eine Stufe, so wird doppelt so stark aufgehellt, bzw es muss nur halb so viel Licht auf den Sensor fallen.
- Einer Verdoppelung der ISO-Zahl entspricht eine Verdoppelung der Lichtempfindlichkeit und somit reicht bei gleicher Blende die halbe Belichtungszeit für eine korrekte Belichtung. Die ISO-Reihe im Abstand von einem Lichtwert lautet: 25, 50, 100, 200, 400, 800, 1.600, 3.200, 6.400, 12.800
Filme haben 12, 24 oder 36 Bilder, man muss den Film ausknipsen, um einen weiteren Film mit einer anderen ISO-Empfindlichkeit einlegen zu können.
- ISO 25 ist ein Film mit sehr feinem Korn, etwa für einen Badetag am Strand.
- ISO 100 einer für bewölkte Tage.
- ISO 400 ist ein grobkörniger Film für bewölkte Tage mit wenig Licht und
- ISO 800 ist ein Film mit sichtbarem Korn für Innenaufnahmen ohne Blitz
- ISO > 800: Bestimmte Filme eignen sich für eine Unterbelichtung während der Aufnahme (Pushen) und erfordern dann eine forcierte Entwicklung im Fotolabor, um die Unterbelichtung wieder auszugleichen. Dadurch kann man mit einer kürzeren Belichtungszeit fotografieren, was vor allem dann Sinn macht, wenn man deshalb ohne Stativ verwacklungsfrei fotografieren kann. Dieser Trick wirkt sich aber sichtbar auf die Bildqualität in Form von starken Kontrasten aus.
Der ISO-Wert des Sensors einer Digitalkamera kann, im Unterschied zum analogen Film- oder Dia-Material, für jedes Bild neu gewählt werden. Moderne Kameras decken dabei den Wertebereich von ISO 50 bis ISO 204.800 ab, wodurch sie praktisch zu Nachtsichtgeräten werden.
Bilddatenerfassung mit digitalem Fotosensor
Kamerasensoren
Kamerasensoren zeichnen ein Abbild vom Motiv mit Hilfe von lichtempfindlichen Halbleiterbauelementen auf. Dabei kommen zwei Kategorien von Sensoren zum Einsatz:
- CCD-Sensoren (Charge Coupled Device)
- CMOS-Technik (Complementary Metal-Oxide Semiconductor)
Kamerasensoren arbeiten grundsätzlich analog, da sie die Photonen des einfallenden Lichts in einen Strom aus Elektronen umwandeln. Erst ein nachgeschalteter Analog-Digital-Wandler erzeugt mittels eines Kondensators aus dem Strom eine Spannung und gibt diesen analogen Eingangswert an seinem Ausgang als einen Digitalwert der Helligkeit aus.
In jedem Pixel des Fotosensors werden durch den Inneren Photoelektrischen Effekt im Idealfall ein Photon in eine elektrische Ladung (Elektron) umgewandelt. Der Innere Photoelektrische Effekt besagt, dass Elektronen in einem Metall aus dem Valenzband in das Leitungsband angehoben werden, wenn die Energie des einstrahlenden Photons hf größer ist als die Bindungsenergie EB des Elektrons. Dabei wird durch den Photonenbeschuß aus stationär in der Atomhülle gebundenen Elektronen ein aus frei fließenden Elektronen bestehender elektrischer Gleichstrom.
Quanteneffizienz
Die Quanteneffizienz QE ist eine Kennzahl für das reale Verhältnis zwischen den eintreffenden Photonen und dem durch den Inneren Photoelektrischen Effekt erzeugten Elektronen. Wenn 6 Photonen zusammen 3 Elektronen erzeugen, dann gilt QE=50%. Ist der QE-Wert hoch, verbessert sich des Signal to Noise Ratio von Sensoren und in dunkeln Bildteilen entsteht eine bessere Detailzeichnung.
Belichtung (Exposure)
Die Belichtung, das ist die Lichtdichte welche auf den Sensor fällt, wird kameraseitig ausschließlich durch die gewählte Blende (Lichtintensität) und die gewählte Belichtungszeit (Dauer der Einwirkung der Photonen auf die Photodiode) bestimmt.
Der Sensor erfasst dieses Licht und führt es einer Signalverarbeitung zu. Die Empfindlichkeit des Sensors ist physikalisch bedingt, und kann nicht durch Kameraeinstellungen beeinflusst werden. In der analogen Fotografie musste man auch den Film wechseln, um eine andere Lichtempfindlichkeit zu erhalten.
Photodiode
Um der Photodiode im Sensor maximal viel Licht zuzuführen, befindet sich unter dem Infrarot Sperrfilter und einem Tiefpass-Filtern und über jedem Pixel eine Mikrolinse zur Bündelung des einfallenden Lichts, die heutzutage lückenlos aneinandergereiht sind (gapless microlenses).
- Front-Side-Illuminated-Sensor: Bei FSI befindet sich unter dem Bayer-Filter auf derselben Fläche zum einen die Verdrahtung, die erforderlich ist, um den Elektronenfluss zum A/D-Wandler zu ermöglichen und zum anderen die zugehörige Photodiode. Beim FSI-Sensor verläuft die Verdrahtung zwischen den Photodioden und nimmt diesen Platz weg, da Verdrahtung und Diode in der selben Ebene liegen.
- Back-Illuminated-Sensor: Beim BSI befindet sich unter dem Bayer-Filter zuerst die Schicht mit den Photodioden, welche die ganze Fläche ausfüllen können und erst darunter in einer weiteren Schicht die Verdrahtung, was die Empfindlichkeit des BSI-Sensors gegenüber dem FSI-Sensor verdoppelt, da die Verdrahtung der Photodiode keinen Platz wegnimmt.
- Stacked-Sensor: Um die Auslesegeschwindigkeit je Photodiode massiv zu vergrößern, wird bei Stacked-Sensoren (das ist ein in die Höhe gestapelter Sensor) nach der Verdrahtung in einer weiteren Ebene ein DRAM-Speicher je Pixel vorgesehen. Zudem liegen die A/D-Wander nicht außerhalb der lichtempfindlichen Fläche am Rand des Sensors, sondern in einer weiteren Schicht direkt unterhalb der Photodioden.
ISO-Wert (Bildaufhellungs-Wert)
Der gewählte ISO-Wert (Bildaufhellungs-Wert) wirkt sich natürlich nicht auf die Quanteneffizienz QE des einzelnen Pixels aus, sondern er dient der nachträglichen Anpassung der Helligkeit zufolge der gewählten Belichtung, an die vom Auge erwartete Helligkeit im endgültig betrachteten Bild (JPEG, HEIF, TIFF). Der ISO-Wert ist daher der Zusammenhang zwischen der Belichtung des Sensors und der Helligkeit des finalen Bildes. Der ISO-Wert entspricht einer Bildaufhellung, egal ob diese durch analoge Verstärkung vor dem A/D-Wandler oder durch die anschließende digitale Verarbeitung erfolgt.
Dynamik
Während der Belichtung muss eine Mindestanzahl an Photonen auf der lichtempfindlichen Sensorschicht auftreffen, damit die Kamera das Nutzsignal vom Störsignal unterscheiden kann. Je weniger Photonen erforderlich sind, damit das Signal to Noise Ration SNR größer als 1 wird, umso lichtempfindlicher ist der Sensor.
Treffen hingegen zu viele Photonen die lichtempfindliche Sensorschicht, so geht diese in Sättigung und es werden keine zusätzlichen elektrischen Ladungen freigesetzt.
Der Bereich zwischen der mindestens erforderlichen und der maximal zulässigen Photonenanzahl bestimmt die Dynamik des Sensors. Sensoren mit einer hohen Dynamik liefern über die Sensorfläche verteilt, sowohl in dunklen als auch in hellen Bildbereichen detaillierte Bildinformationen.
Analog-Digital-Wandler
Der Analog-Digital-Wandler im Kamerasensor wandelt - die der Anzahl der dedektierten Photonen proportionale Spannung - in einen digitalen Helligkeitswert um. Bei einem analogen Signal, welches während der Digitalisierung konstant bleibt, bestimmt allein die Bittiefe die Qualität des A/D-Wandlers. Ändert sich das analoge Signal mit der Zeit, etwa bei den Einzelbildern eines Videos oder einer Serienaufnahme mit x-Fotos pro Sekunde, so bestimmt auch die Abtastrate, also die Häufigkeit, mit der das analoge Signal abgetastet werden kann, die Qualität des A/D-Wandlers bzw. die Anzahl der Raw-Dateien, die pro Sekunde dem Digitalen Signalprozessor zugeführt und folglich abgespeichert werden können.
Vor der Belichtung werden die elektrischen Kreise des Sensors entladen. Während der Belichtung ändert sich die elektrische Ladung für jedes einzelne Pixel im Sensor proportional zur auftreffenden Lichtmenge, bildlich gesprochen, proportional zur Anzahl der auftreffenden Photonen.
Diese Ladung je Pixel wird in einem Gleichstromkreis mittels eines Kondensators in eine – natürlich analoge, was sonst - Spannung umgewandelt, je nach der gewählten ISO-Einstellung mehr oder weniger analog verstärkt, einem Analog-Digital-Wandler zugeführt.
Der A/D-Wandler soll die Digitalisierung mit möglichst hoher Geschwindigkeit durchführen, um eine hohe Serienbildfrequenz und eine hohe Framezahl bei Videoaufnahmen und für das elektronische Sucherbild zu ermöglichen. Ein Sensor mit 24 Megapixel beinhaltet 6.000 Pixel je Reihe, für die es je einen eigenen, also in Summe 6000, A/D Wandler gibt. D.h. alle 6.000 Spalten werden zeitgleich digitalisiert.
Die 4.000 Reihen werden hingegen zeitlich gestaffelt, also nacheinander digitalisiert. Dabei vergehen bis zu 0,05 Sekunden bzw. 1/20 Sekunde, ehe alle Pixel zwischen der ersten und der letzten Zeile des Sensors ausgelesen sind. Das reicht nicht für ein 6k-Video mit 60 Bildern pro Sekunde. Daher muss man unterhalb von jedem Pixel einen DRAM-Speicher vorsehen, was die Bauform eines Stacked-Sensors erfordert. Der A/D-Wandler speichert die Daten nach einer Vorverarbeitung über einen schnellen Schreibzugriff in den DRAM-Speicher, von wo aus sie mit der für den nachgeschalteten Digitalen Signalprozessor idealen Lesegeschwindigkeit weitergereicht werden. Dadurch kann die Auslesezeit für alle Pixel des Sensors auf 1/120 Sekunde reduziert werden. Der nächste technologische Schritt wäre ein A/D-Wandler pro Pixel.
Digitaler Signalprozessor
Letztlich wird für jedes Pixel der digitale 14-Bit-Wert zusammen mit der Zeilen- und Spaltenkennung des jeweiligen Pixels aus dem AD-Wandler in Form eines Zahlenwerts, welcher für die Anzahl der Photonen und damit für den Helligkeitswert – die Luminanz - des jeweiligen Pixels steht, einem DSP Digitalen Signalprozessor zugeführt. Dabei wird die Anzahl der detektierten Photonen linear in einen Zahlenwert umgerechnet. Der DSP speichert diesen Luminanzwert für jedes Pixel einzeln in Form von Bits und Bytes als Camera-RAW-Datei auf eine Speicherkarte. Bei einer 14-Bit Camera-RAW-Datei kann man also pro Pixel 16.385 Grauwerte unterscheiden. In der Camera-RAW-Datei wird auch der gewählte ISO-Wert hinterlegt. Der Digitale Signalprozessor ist neben der oben beschriebenen Bilddatenverrechnung auch noch für Kamerasteuerungsfunktionen wie Belichtungsmessung, Autofokus, automatischer Weißabgleich usw. zuständig.
Sensor-Rauschen
Die analoge Verstärkung der Spannung vor dem AD-Wandler hat den Nachteil, dass ISO-abhängig, auch das im Signal enthaltene, im Sensor erzeugte Rauschen (Upstream Noise, Shot-Rauschen, Photonen-Rauschen) verstärkt wird.
ISO-invarianter Sensor
Bei einem ISO-invarianten Sensor wird nicht die analoge Spannung, samt dem darin enthaltenen Rauschen verstärkt, sondern die Spannung wird unverstärkt dem Analog-Digital-Wandler zugeführt.
Erst nach der Digitalisierung wird der eingestellte ISO-Wert für die Anzeige der JPEG-Fotovorschau samt dem damit verbundenen Histogramm verwendet. Beim ISO-invarianten Sensor gibt es zwei Möglichkeiten der Belichtungsverstärkung:
- Kameraextern: Der ISO-Wert wird in die RAW-Datei geschrieben, und dient kameraextern als Startwert für die Bildbearbeitung.
- Kameraintern: Der ISO-Wert wird kameraintern im DSP berücksichtigt und die angepassten Helligkeitswerte in die RAW-Datei geschrieben. Das hat den Vorteil, dass der Sensorhersteller (z.B.: Canon) die Eigenheiten seines Sensors besser kennt und berücksichtigen kann als der Hersteller eines RAW-Konverters (z.B.: Adobe), der dutzende Sensoren emulieren muss.
Moderne Kameras decken dabei den Wertebereich von ISO 50 bis ISO 204.800 ab, wodurch sie praktisch zu Nachtsichtgeräten werden.
Farbfotografie
So kommt die Farbinformation in die Camera-RAW-Datei
In einem Sensor mit z.B. 24 Megapixel werden Halbleiterbauelemente in einem Raster von 6000 Spalten und 4000 Zeilen angeordnet. Nach der Aufnahme für jedes Pixel die Anzahl der registrierten Pixel in Form von 16.385 Graustufen, die zwischen schwarz und weiß liegen, abgespeichert. Es liegt noch keine Farbinformation vor.
Dreifarbenauszug
Die monochrome Bilderfassung in Form von Grauwerten muss adaptiert werden, um Farbaufnahmen zu ermöglichen. Mit Hilfe eines Bayer-Filters werden Grauwerte abgespeichert, die einer der drei Grundfarben im additiven RGB-System entsprechen.
IR-Sperrfilter
Moderne Fotosensoren decken bezüglich des Inneren Photoelektrischen Effekts einen Spektralbereich von Blau (400 nm) bis Infrarot (2400 nm) ab. Da der Infrarotbereich unerwünscht ist, wird er durch einen IR-Sperrfilter eliminiert.
Tiefpass-Filter
Moire-Artefakte (z.B. Farbsäume auf Kleidung) treten dann auf, wenn sich das Pixelraster des Bildsensors mit feinen Strukturen im Motiv überlagert. Dies kann nur bei hochfrequenten Bildanteilen entstehen. Dies kann man mit einem Tiefpassfilter vor dem Bildsensor verhindern, indem man hochfrequente Bildanteile herausfiltert, wodurch jedoch feinste Details nicht mehr wiedergegeben werden können und Schärfe verloren wird.
Bayer Filter
Bei den gängigen Farbfilter-Array-Kameras wird jedes der z.B. 24 Megapixel mit einem Farbfilter bedeckt, welcher nur Photonen mit jener Wellenlänge, die rotem, grünem oder blauem Licht entspricht, zur lichtempfindlichen Sensorschicht durchlässt. Dabei werden die Farbfilter Schachbrettartig angeordnet, wobei 50% der Pixel der Farbe Grün und je 25% der Pixel für die Farben Rot und Blau zugewiesen werden.
Abbildung: Bayer Filter, gemeinfrei, 27.12.2022
https://de.wikipedia.org/wiki/Bayer-Sensor#/media/Datei:Bayer_matrix.svg
Jedes der 24 Megapixel Pixel des Sensors entspricht nun nicht mehr einem von 16.385 Zahlenwerten (Luminanzwert), welcher einer Grauabstufung entspricht, sondern einem von 16.385 Zahlenwerten, dessen Luminanzwert abhängig von der Position im Bayer-Filter entweder einer roten oder grünen oder blauen Helligkeitswertabstufung entspricht. In der RAW-Datei werden daher nicht nur die 24 Millionen 14-Bit-Helligkeitswerte abgespeichert, sondern auch Metadaten, z.B. über welchem Pixel welcher Farbfilter gelegen hat. Dadurch ist es dem RAW-Konverter möglich, unter Berücksichtigung der Helligkeitswerte von je 4 benachbarten Pixel, von denen eines dem roten, eines dem blauen und zwei dem grünen Luminanzwert entspricht, die fehlenden beiden Farbinformationen für jedes einzelne Pixel zu interpolieren. D.h, je 4 Luminanzwerte, welche den Helligkeiten von 4 Grauwerten entsprechen, werden gemäß der Anordnung im BayerschenFarbfilter über dem jeweiligen Pixel, in 4 Farbwerte umgerechnet.
Wir fassen zusammen: Ein 24 Megapixel-Sensor unter einem Bayer-Filter zeichnet 24 Millionen Grauwerte in einer Abstufung von 16.384 Helligkeitsstufen auf, die je der Farbe Rot, Grün oder Blau entsprechen. Durch Interpolation mit den Nachbarpixeln entstehen wiederum 24 Millionen Farbwerte.
Normalisierter Tonwertumfang
Bei einem A/D Wandler mit 14 Bit pro Farbe liegt der jeweilige Wert pro Farbkanal zwischen 0 und 16.385. Ein A/D-Wandler mit 14 Bit für jeden der 3 Farbkanäle schreibt also die GRB-Farben 3*14=42 Bit in die RAW-Datei (jedoch nur mit 3*8=24 Bit in die JPEG-Datei.)
Damit die digitale Repräsentation je Farbkanal unabhängig von der verfügbaren Bittiefe (10, 12, 14 Bit je Farbkanal) des verwendeten A/D-Wandlers wird, dividiert man den Luminazwert pro Kanal durch die Bittiefe des A/D-Wandlers, also beim 10 Bit A/D Wandler eines Smartphones durch 1.024 und bei 14 Bit A/D-Wandler einer professionellen Kamera durch 16.385. Dadurch normalisiert man die Abstufungen der Luminanz je Farbkanal auf den Bereich zwischen 0 und 1.
Weißabgleich mittels Skalen
Die RGB-Kanäle eines Sensors weisen unterschiedliche relative spektrale Empfindlichkeiten auf. D.h selbst wenn jede Wellenlänge für RGB die gleiche Intensität hat (weißes Licht), dann ergeben sich nach dem A/D-Wandler unterschiedliche digitale Bit-Werte für RGB, was nicht mehr Weiß entspricht. Um diesem Farbstich entgegenzuwirken, kommen Weißabgleichskalen zur Anwendung, welche die unterschiedliche relative spektrale Empfindlichkeit wieder ausgleichen. Nach deren Anwendung sollten die Rot, Grün und Blau Luminanzwerte eines neutralgrauen Objekts wieder gleich sein, in Summe also einen Grauton ergeben.
Bilddatei
Die durch den digitalen Signalprozessor als Rohdaten vorliegenden Bildinformationen müssen gespeichert werden. Einerseits werden die Rohdaten kameraintern durch einen Rohdatenkonverter in JPEG Daten umgewandelt, andererseits als Rohdaten abgelegt. Dafür haben sich folgende Dateiformate etabliert:
Camera-RAW-Datei mit 14 Bit je Farbkanal
Wie wir gesehen haben, spielen bislang Kameraeinstellungen, wie etwa der Weißabglich, keine Rolle für die Helligkeits-Zahlenwertdarstellung jedes Pixels. Diese Einstellungen werden lediglich zusätzlich in den Metadaten abgelegt, damit der RAW-Konverter schon mal einen guten Startwert für die Umrechnung der RAW-Daten in die Daten des visualisierten Farbbildes hat.
Camera-RAW-Dateien sind verlustfrei komprimierte, sensorspezifische Dateiformate mit 14 Bit je Farbkanal, somit (16.385*16.386*16.385=) 4 Billionen Farbtöne. So gibt es bei Canon etwa das .CR2 und das neuere .CR3 Dateiformat. In einer RAW-Datei werden die Daten des Sensors unbearbeitet und unkomprimiert abgelegt. Die RAW-Dateien von unterschiedlichen Kameramodellen eines Herstellers können unterschiedlich aufgebaut sein, auch wenn sie die gleiche Dateiendung, etwa CR2 haben. RAW-Dateien sind ca. 3-Mal größer als JPEG oder HEIF-Dateien in höchster Qualität, bieten aber maximale Bearbeitungsflexibilität.
Viele Kameras, speziell solche in Smartphones, haben einen RAW-Konverter eingebaut und speichern die Fotos zusätzlich oder sogar ausschließlich im verlustbehafteten JPEG-Format ab.
Im Rahmen der Bildbearbeitung am Computer wird die Camera-RAW-Datei von einem sogenannten RAW-Konverter ausgelesen und in ein bearbeitbares Bild umgewandelt. Dafür ist es erforderlich, dass der RAW-Konverter auch genau das erforderliche Kameramodell unterstützt. Nach der manuellen Bildbearbeitung, bei der Fehlbelichtungen von bis zu 2 Blendenstufen korrigiert werden können, wird eine neue Datei mit dem bearbeiteten Bild z.B. im .DNG, .PSD oder .JPG Format zur späteren Ansicht am Monitor oder zum Ausdruck abgespeichert.
HEIF-Datei mit 10 Bit je Farbkanal
Das leicht verlustbehaftete komprimierte High Efficiency Image File Format wurde von der Moving Picture Experts Group entwickelt und zunächst von Apple als Nachfolger des JEPG Formats genutzt und bietet 10 Bit je Farbkanal, somit (1.024*1.024*1.024=) 1,07 Milliarden Farbtöne. Beinhalten also 4-Mal mehr Farbtoninformation als eine JPEG-Datei bei gleicher Dateigröße, da sie eine effizientere „High Efficiency“ Komprimierung bieten. HEIF-Dateien sind Containter in denen ein Eizelbild, eine Fotoserie, aber auch Metadaten gespeichert sind und unterstützt auch Transparenz. Der größte Nachteil von HEIF ist, dass es von Browsern und Druckern nicht unterstützt wird. Auf Windows 10 PCs muss man die kostenpflichtige (1€) HEVC Videoerweiterung aus dem Microsoft Store herunterladen.
JPEG-Datei mit 8 Bit je Farbkanal
Das Joint Photographic Experts Group File Format ist das wohl am weitesten verbreitete Format für Fotos da es jeder Webbrowser darstellen kann und bietet 8 Bit je Farbkanal, somit (256*256*256=) 16,8 Millionen Farbtöne. Die Speicherung der Aufnahmedaten erfolgt komprimiert, verlustbehaftet und beinhaltet alle allfälligen Bildbearbeitungseinstellungen wie zB den Weißabgleich, die nicht mehr rückgängig gemacht werden können. Die Dateigrößen sind klein und lassen sich leicht betrachten aber nur eingeschränkt nachbearbeiten.
Zusammenhang zwischen Sensorgröße sowie Brennweite und Öffnungswinkel vom Objektiv, sowie dem sichtbaren Bildfeld
B | Bildgröße |
b | Bildweite |
G | Gegenstandsgröße (F0V) |
g | Gegenstandsweite als Entfernung des Motivs von der Kamera |
f |
Brennweite vom Objektiv |
Linsengleichungen
- Abbildungsgleichung:
Die Abbildungsgleichung beschreibt den Zusammenhang zwischen der Bildg- und der Gegenstandsgröße im Verhältnis zur Bild- und der Gegenstandsweite.
\(\dfrac{B}{G} = \dfrac{b}{g}\)
- Linsengleichung:
Die Linsengleichung beschreibt den Zusammenhang zwischen der Brennweite, der Bildweite und der Gegenstandsweite
\(\dfrac{1}{f} = \dfrac{1}{b} + \dfrac{1}{g}\)
Bildwinkel gängiger Objektive bei Sensor 36x24
Brennweite | horizontaler Bildwinkel | vertikaler Bildwinkel |
10 - 20 mm | 122° - 84° | 100° - 62° |
17 - 40 mm | 93° - 48° | 70° - 33° |
50 mm | 40° | 27° |
28 - 135 mm | 65° - 15° | 46° - 10° |
100 - 300 mm | 20,4° - 6,9° | 13,7° - 4,6° |
500 mm | 4,1° | 2,75° |
Horizontales Bildfeld gängiger Objektive in Meter bei Sensor 36x24 abhängig von der Gegenstandsweite
Gegenstandsweite | ||||
Brennweite | 10m | 25m | 100m | 250m |
11 - 24 mm | 33-15m | 82-38m | 327-150m | 818-375m |
17 - 40 mm | 21-9m | 53-22,5m | 212-90m | 530-225m |
50 mm | 7,2m | 18m | 72m | 180m |
28 - 135 mm | 13-2,6m | 32-7m | 128-27m | 321-214m |
100 - 300 mm | 3,6-1,2m | 9-3m | 36-12m | 90-30m |
500 mm | 0,7m | 1,8m | 7,2m | 18m |
Beispiele aus der Praxis:
- Will man mit einem 11mm Ultraweitwinkelobjektiv einen 150m hohen Kirchturm fotografieren, so muss man 45m entfernt stehen, bei einem 17mm Ultraweitwinkelobjektiv sind es bereits 71m, die man entfernt stehen muss.
- Will man mit einem 300mm Teleobjektiv einen Wellensurfer samt 10m hoher Welle fotografieren, so darf man nicht weiter als 84 m entfernt stehen, bei einem 500mm Super-Teleobjektiv sind es 140m, die der Abstand betragen darf.
Beispiel: Foto vom Mond
Brennweite 500mm (Spiegelteleobjektiv),
Gegenstandsweite: 384.400 km (Erde - Mond)
Durchmesser Mond: 3.475 km
→ horizontales Bildfeld: 27.676 km
→ Der Mond passt 7,9-mal auf die Breite des Bildes
Sensorauflösung 6000 x 4000 Pixel
→ Der Mond wird mit 750 x 750 Pixel, bzw mit 0,5MPixel abgebildet
→ 1 km am Mond entspricht 4,6 Pixel
→ 1 Pixel entspricht 215 m am Mond
Beispiel:
Der Full Frame Kamerasensor hat eine vertikale Höhe von Bv=24mm und eine horizontale Breite von Bh=36mm, die Brennweite des gewählten Objektivs beträgt f=300 mm. Wie hoch ist das Bildfeld Gv bzw. wie breit ist das Bildfeld Gh in einer Entfernung von g=100m?
Wir wählen Meter m als Recheneinheit:
\(\eqalign{ & \dfrac{1}{f} = \dfrac{1}{b} + \dfrac{1}{g}\,\,\,\,\left| { \cdot b} \right. \cr & \dfrac{b}{f} = 1 + \dfrac{1}{g}\,\,\,\,\,\left| { \cdot f} \right. \cr & b = f + \dfrac{f}{g} = 0,3 + \dfrac{{0,3}}{{100}} = 0,303m \cr & \cr & \dfrac{B}{G} = \dfrac{b}{g} \cr & {G_v} = \dfrac{{{B_v} \cdot g}}{b} = \dfrac{{0,024 \cdot 100}}{{0,303}} = 7,9m \cr & {G_h} = \dfrac{{{B_h} \cdot g}}{b} = \dfrac{{0,036 \cdot 100}}{{0,303}} = 11,9m \cr} \)
→ Bei einem Full-Frame Kamerasensor und einer Brennweite des Objektivs von 300mm beträgt bei einer Entfernung von 100m das sichtbare Bildfeld ca. 8 x 12 Meter.
Beispiel:
Wechselt man das Gehäuse auf eines mit dem kleineren APS-C Sensor mit Bv=15,6mm bzw. Bh=23,6mm so verkleinert sich das Bildfeld bei demselben Objektiv und derselben Entfernung wie folgt:
\(\eqalign{ & {G_v} = \dfrac{{{B_v} \cdot g}}{b} = \dfrac{{0,0156 \cdot 100}}{{0,303}} = 5,1m \cr & {G_h} = \dfrac{{{B_h} \cdot g}}{b} = \dfrac{{0,0236 \cdot 100}}{{0,303}} = 7,8m \cr} \)
→ Das Bildfeld in 100 m Entfernung beträgt bei einem APS-C Kamerasensor und einer Brennweite des Objektivs von 300mm ca. 5x8 m. Das entspricht einer scheinbaren Verlängerung der Brennweite um das 1,6-fache. Dh dasselbe Objektiv hat auf einer APS-C Kamera „scheinbar“ eine größere Brennweite.
Beispiel:
Bei einem Full-Frame Kamerasensor und einer Brennweite des Objektivs von 300mm beträgt bei einer Entfernung von 100m das sichtbare horizontale Bildfeld 12 Meter.
Wie groß ist der Öffnungswinkel des Objektivs?
\(\dfrac{{{\alpha _h}}}{2} = \arctan \dfrac{{\frac{{11,9}}{2}}}{{100}} = \arctan \dfrac{{11,9}}{{200}} = 3,405^\circ \to {\alpha _h} = 6,810\)
→ Bei einem Full-Frame Kamerasensor beträgt der horizontale Öffnungswinkel eines 300 mm Objektivs ca. 6,8°
Versteh' ich nicht - Gibt's nicht!
Frage kostenlos per eMail unser Supportteam
Damit niemand mehr bei Mathe in's Schwimmen kommt

Bildbearbeitung
An den Prozess der Bildaufzeichnung schließt sich ein weiterer Prozess, nämlich der der Bildbearbeitung, an. Das Ziel der Bildbearbeitung ist es eine Datei mit den fertig bearbeiteten Bilddaten zu Betrachtung des Bildinhalts zur Verfügung zu stellen.
Automatische Bildbearbeitung
Hat man mit dem Fotoapparat oder der Kamera vom Smartphone bereits eine JPEG-Datei erstellt, dann ist bereits eine automatische Bildbearbeitung erfolgt und die Möglichkeiten sind, im Gegensatz zur RAW-Datei als Ausgangsmaterial der manuellen Bildbearbeitung, bereits eingeschränkt oder in der (Handy-) Praxis oft sogar abgeschlossen.
Manuelle Bildbearbeitung
Für die manuelle Bildbearbeitung verwendet man spezielle Software (z.B.: Adobe Lightroom oder Adobe Photoshop), deren Flexibilität sich erheblich unterscheidet.
Camera-RAW-Import-PlugIn
Um aus einer digitalen Aufnahme die maximale Bildqualität herausholen zu können, ist es erforderlich die Aufnahme in der Kamera als Camera-RAW-Datei abzuspeichern. Dabei handelt es sich um ein herstellerspezifisches proprietäres, nicht öffentlich zugänglich spezifiziertes, sensorspezifisches Speicherformat.
Rohbilddateien enthalten unverarbeitete Daten vom Bildsensor der Kamera und werden üblicherweise als „digitale Negative“ bezeichnet. Da die Camera-RAW-Daten keiner Bildbearbeitung unterzogen wurden, bieten sei ein größeres Maß an Flexibilität und Kontrolle beim nachträglichen Bearbeiten eines Bildes als andere Bilddateitypen wie JPEG oder TIFF.
Damit Bildverarbeitungsprogemme auf die in der Camera-RAW-Datei abgelegten Sensordaten zugreifen können, ist ein Import-Plug-In erforderlich, welches die Zusammenarbeit mit dem Kamerahersteller erfordert. Obwohl Camera-RAW-Bilddaten bei der Flexibilität der Bildbearbeitung den JPEG-Bilddaten technisch weit überlegen sind, besteht das Risiko, dass der Kamerahersteller einseitig den Support für das Dateiformat für einzelne Sensoren einstellt.
Camera-RAW-Konverter
Ein Camera-RAW-Konverter ist eine Software, um RAW-Bilddateien zu verarbeiten, die mit einer Digitalkamera aufgenommen wurden. Camera-RAW-Konverter entsprechen also einer „digitalen Dunkelkammer“. Auf diese Weise können Fotografen während der Bildbearbeitung das Erscheinungsbild ihrer Bilder optimieren und das Beste aus den vom Bildsensor der Kamera erfassten Daten herausholen. Die Verarbeitungsschritte sind wie folgt:
- Vorschaubild: Es werden die Camera-RAW-Daten mit Hilfe des sensorspezifischen Import PlugIns geöffnet und es wird ein Vorschaubild generiert und am Monitor angezeigt.
- Anpassung von Aufnahmeparametern: In einem 1. Bearbeitungsschritt erfolgt die nachträgliche manuelle Anpassung von technischen Aufnahmeparametern, wie Objektiv-Verzeichnungskorrektur, Weißabgleich, Belichtung und Farbsättigung, Kontrast, ISO-Bildaufhellung, waagrechte Ausrichtung des Bildhorizonts, Wahl des Arbeitsfarbraums (sRGB für Anzeige auf Displays, Adobe RGB für Druckvorlagen,…)
- Gestalterische Bildoptimierung: In einem 2. Bearbeitungsschritt wird das Erscheinungsbild der Bilder nach dem Geschmack des Bildbearbeiters optimiert. Das beginnt mit der Auswahl des Bildausschnittes, sowie die Retusche des eigentlichen Motivs. Es erfolgen aber auch selektiv Anpassungen für abgegrenzte Bildbereiche, wie den Hintergrund oder den Himmel. Dabei wird der Grafiker zunehmend durch künstliche Intelligenz (AI), etwa beim Freistellen des Hauptmotivs unterstützt.
- Speichern: Beim Speichern wird das fertige Bild gerendert, indem auf die RAW-Datei die beiden oben beschriebenen Bearbeitungsschritte angewendet werden und in einem gängigen Bildbetrachtungsformat wie JPEG oder TIFF in der gewünschten Auflösung und Kompression abgespeichert.
Die Bearbeitungsschritte werden separat, etwa als .XMP-File, oder in einer Katalogdatei abgespeichert.
Da die ursprüngliche RAW-Datei unverändert für die Langzeitarchivierung erhalten bleibt, spricht man von nicht-destruktiver Bildbearbeitung. - Langzeitarchivierung: Für eine Langzeitarchivierung des bearbeiteten Bildes und / oder als Alternative für die RAW-Datei bietet sich das DNG-Format an. Es wurde von Adobe als sensorunabhängiges offenes Format zum verlustfreien Speichern von Rohdaten entwickelt.
Kamerahersteller bieten RAW-Konverter für ihre eigenen Sensoren an, es gibt aber zunehmen mehr Fremdanbieter, die kameraherstellerübergreifend RAW-Konvertoren anbieten, wie Adobe. So ist Adobe Camera Raw als eigenständige Anwendung, aber auch als Plug-In in die beiden Bildbearbeitungsprogrammen Adobe Photoshop und Adobe Lightroom verfügbar. Adobe Photoshop verwendet man, wenn man ein einzelnes Bild bis zur Druckreifen perfekt optimieren möchte, während man Adobe Lightroom verwendet, wenn man zügig mehrere einander ähnliche Bilder aus einem Shooting optimieren möchte.
Tonwertkurve
Mit Hilfe einer Tonwertkurve rechnet man die in der Camera-RAW-Datei digital abgelegte Helligkeitsinformation je Pixel wieder in Grauwerte eines Bildes um, bzw. mit Hilfe der Helligkeitsinformation von 4 benachbarten Pixel unter einem Bayer-Filter, rechnet man in Farbwerte je Pixel um. Bei einer Farbaufnahme liegen 4 Tonwertkurven übereinander vor, eine für Grau und je eine für RGB.
Die Tonwertkurve selbst ist ein Algorithmus im Camera-RAW-Import-PlugIn. Die Tonwertkurve ist eine grafische Beziehung zwischen
- den Tonwerten in der Camera-RAW-Datei als Eingangsparameter (x-Achse) und
- den Tonwerten in der Bildvorschau als Ausgangsparameter (y-Achse).
Dabei erfolgt eine Anpassung
- des hohen Dynamikumfangs der RAW-Datei mit 10, 12, oder 14 Bit je Farbkanal, abhängig vom Sensor
- auf den viel geringeren Dynamikumfang der Bilddatei mit 8 Bit je Farbkanal (JPEG), geeignet für das menschliche Auge
Die Form der Tonwertkurve beeinflusst über die Verteilung der Helligkeitswerte den Kontrast in der Bildvorschau und somit das Aussehen des Histogramms der Tonwerte. Die Tonwertkurve selbst bekommt man in der digitalen Bildbearbeitung nicht angezeigt. Als Resultat der Tonwertanpassung wird
- einerseits das Histogramm der 4 Helligkeitsverteilungen (grau, RGB)
- andererseits die Gradationskurve
angezeigt. In beiden Fällen wird angezeigt, wieviele Pixel eine bestimmte Helligkeit haben.
- Beim Histogramm der Helligkeitsverteilung beeinflusst man jeweils eine von 5 Klassen (Schwarz, Tiefen, Mitteltöne, Hell, Weiß)
- während man bei der Gradationskurve punktuell einen von 256 Helligkeitswerten zur Bearbeitung auswählt.
Weber-Fechner-Gesetz
Das Weber-Fechner-Gesetz besagt, dass einem subjektiv vom Gehirn als linear empfundenen Zuwachs der Helligkeit, objektiv (physikalisch) ein logarithmischer Zuwachs der Helligkeit zugrunde liegen muss. Daher müssen die physikalisch im Sensor gemessenen Helligkeitswerte in den RAW-Daten mittels einer Tonwertkurve, also nicht linear und nicht mittels einer linearen Geraden, an die vom menschlichen Auge erwarteten Helligkeitswerte angepasst werden.
Reihenfolge der Bildbearbeitungsschritte
Folgende Reihenfolge der Bearbeitunsschritte hat sich bewährt:
- 1. Schritt: Bildimport mit Hilfe von Profilen
- 2. Schritt: Objektivkorrekturen
- 3. Schritt: Horizont, Seitenverhältnis und Bildausschnitt festlegen
- 4. Schritt: Helligkeit (Luminanz) mit Histogramm oder Gradationskurve festlegen
- 5. Schritt: Farbton (Hue) festlegen oder Weißabgleich durchführen
- 6. Schritt: Kontrast anpassen
- 7. Schritt: Sättigung (Saturation) anpassen
- 8. Schritt: Selektive Farbkorrektur gemäß dem HSL Farbmodell
- 9. Schritt: Schärfen und Rauschunterdrückung
- 10. Schritt: Retusche
1. Schritt der Bildbearbeitung:
Bildimport mit Hilfe von Profilen
Am Anfang von jeder Bildbearbeitung wird die Camera-RAW-Datei in ein Vorschaubild umgerechnet. Dabei werden
- mit Hilfe vom Camera-RAW-Import-PlugIn die Daten interpretiert und
- gemäß einem ausgewählten Profil grundlegend an die Erwartungen des Grafikers angepasst.
Sowohl das Import-PlugIn, welches vom Grafiker nicht beeinflusst werden kann, als auch das Profil, für das es eine kleine Auswahl gibt, beeinflussen das Vorschaubild, ohne dass man manuell eine erste Anpassung vorgenommen hätte.
Adobe Lightroom: Grundeinstellungen → Profil → Auswahl aus 6 von Adobe vordefinierten Profilen (Farbe, Kräftig, Landschaft, Portrait, Standard und Monochrom
Bildbearbeitung mit Hilfe von Presets
Presets stellen die einfachste Art der Bildbearbeitung dar. Es handelt sich dabei um eine vordefinierte Abfolge von Bildbearbeitungen, die mit nur einem Klick angewendet werden können. Man kann so schnell die Bildwirkung von verschiedenen Voreinstellungen ausprobieren. Da in der Praxix ein Preset auf unterschiedliche Vorschaubilder angewendet wird, ist das Resultat mehr oder weniger Zufall. Gefällt das Resultat, kann man sich die eigentliche Bildbearbeitung ersparen.
2. Schritt der Bildbearbeitung:
Objektivkorrekturen
Mit Hilfe der Funktion „Objektivkorrekturen“ gleicht man Verzeichnungen aus, die bei der Konstruktion vom Objektiv von dessen Hersteller nicht hinreichend korrigiert werden konnten. Dies ist speziell bei Weitwinkelobjektiven erforderlich, die leider tonnenförmige Verzerrungen aufweisen.
Adobe Lightroom: Objektivkorrekturen → Chromatische Aberrationen entfernen
Adobe Lightroom: Objektivkorrekturen → Profilkorrekturen aktivieren