Farbfotografie
Farbfotografie ist eine Technik der Fotografie, bei der Bilder in Farbe erfasst und dargestellt werden, wodurch die natürlichen Farben von Szenen oder Objekten wiedergegeben werden. Dies erfolgt durch die Verwendung von lichtempfindlichem Filmmaterial oder Sensoren, die die verschiedenen Farben im Lichtspektrum erfassen und sie anschließend in einem Bild wiederzugeben.
Hier findest du folgende Inhalte
Formeln
Bildaufzeichnung
In dieser Mikro-Lerneinheit lernst du gestalterische Auswahlkriterien bezüglich der Wahl zwischen Foto und Videoaufzeichnung kennen. Danach verfolgen wir den Weg der Photonen, die der Träger von Lichtinformation sind, von deren Ursprung in einer Lichtquelle bis zu deren Auftreffen auf den Rezeptoren der Netzhaut, sodass in unserem Gehirn eine Bildwahrnehmung entsteht.
Fotografie bzw. Videografie
Heutzutage bieten moderne Kameras die Möglichkeit erst zum Zeitpunkt der Aufnahme zu entscheiden, ob man wahlweise Fotos oder Videos vom Motiv für eine spätere Betrachtung anfertigen möchte. Während es schon seit Jahrzehnten mit vertretbarem Aufwand interessierten Amateuren möglich war, qualitativ hochwertige Fotos zu machen, sind hochwertige low-budget Videoaufnahmen und deren Wiedergabe erst durch die Ablöse von analogen durch digitale Videokameras möglich geworden. Hervorzuheben ist, dass das Aufkommen von Smartphones die de facto kostenlose Aufzeichnung und Wiedergabe von Fotos und Videos allgegenwertig gemacht haben. Einhergegangen ist dies mit dem Siegeszug von Sozialen Medien wie Instagram und YouTube, mittels derer jeder einzelne unbedarfte Knipser seine Werke weltweit zugänglich machen kann.
Nachfolgend einige Aspekte, in denen sich Fotografie und Videografie unterscheiden:
- Statische Fotos vs. bewegte Bilder: In der Fotografie wird ein Sekundenbruchteil dauerhaft festgehalten, während in der Videografie Zeitintervalle aufgezeichnet werden.
- Geschichten erzählen: Das kann man mit Fotos und mit Videos, beim Foto ist man aber auf den Augenblick reduziert, während bei Videos zeitliche Veränderungen eingefangen werden. Ein gutes Foto erfordert das Gespür des Fotografen, im optimalen Sekundenbruchteil auf den Auslöser zu drücken, während man bei Videos durch den nachträglichen Schnitt die relevante Bildsequenz auswählt.
- Aufmerksamkeitsspanne des Betrachters: Der Inhalt eines Fotos ist auf einen Blick wahrzunehmen, während man bei Videos über einen längeren Zeitraum konzentriert bei der Sache bleiben muss.
- Bewegung und Ton: Beides sind Privilegien der Videografie, während die Fotografie ausschließlich visuell wirkt.
- Ressourceneinsatz: Fotos entstehen oft spontan, semi-professionelle Videos erfordern eine Planung und im professionellen Bereich ein Drehbuch mit exakten Anleitungen für die Akteure vor und hinter der Kamera. Die Lichtsetzung bei Sequenzen mit Bewegung und das Einfangen des Tons erfordern bei Videos mehr Aufwand als bei einem einzelnen Foto oder selbst einer Fotoserie, etwa anlässlich einer Hochzeit. Auch der Speicherbedarf und die Rechnerleistung für die Nachbearbeitung betragen in der Videografie ein Vielfaches gegenüber der Fotografie.
- Aufnahmeparameter und Datenspeicherung: Fotos, die im JPEG-Format abgespeichert wurden, dienen zumeist für die unmittelbare Bildbetrachtung, während Fotos im sensorspezifischen RAW-Format unbedingt mit einem Bildbearbeitungsprogramm nachbearbeitet werden müssen. Hier muss mit einer Bearbeitungszeit von durchschnittlich 5 Minuten pro Foto gerechnet werden. Auf Grund des hohen Datenaufkommens und der damit einhergehenden erforderlichen Schreibgeschwindigkeit der Speicherkarte bei Bewegtbild-Aufnahmen ist die Wahl der Aufnahmeparameter von hoher Bedeutung. Heute gängige Aufnahmegrößen sind Full-HD mit 1920 x 1080 Pixel in 16:9 oder 4k UHD mit 3840 x 2160 Picel.
Bildaufzeichnung – Der Weg der Photonen von einer Lichtquelle bis zu den Rezeptoren der Netzhaut
Bei der Bildaufzeichnung unterscheidet man zwischen "Standbild-Aufzeichnung" also dem Generieren eines Fotos und "Bewegtbild-Aufzeichnung", also dem Generieren eines Videos.
Photonen: Am Anfang jeder Bildauszeichnung steht das Photon. Photonen sind masselose Austauschteilchen der elektromagnetischen Wechselwirkung. Licht besteht aus elektromagnetischen Wellen, die sich in Form von diskreten Energiepaketen bewegen, denen die Wellenlänge und somit die Farbe des sichtbaren Lichts entspricht. D.h. die Bewegung von Photonen in einem bestimmten Wellenlängenintervall nimmt der Mensch oder der Kamerasensor als Licht einer konkreten Farbe wahr.
- 400 nm – 450 nm: Violett
- 450 nm – 495 nm: Blau
- 495 nm – 570 nm: Grün
- 570 nm – 590 nm: Gelb
- 590 nm – 620 nm: Orange
- 620 nm – 700 nm: Rot
Will man den technischen Prozess der Bildaufzeichnung verstehen, dann kann man den Weg, den das Licht durchläuft, wie folgt untergliedern:
Lichtquelle: Jede Lichtquelle ist der Ursprung von Photonen. Leuchtende Objekte, wie etwa eine Kerze, sind selbst der Ursprung des Lichts. In der Mehrzahl der Fälle ist aber eine externe Lichtquelle, wie etwa die Sonne (Tageslicht) oder ein Scheinwerfer (Kunstlicht), der Ausgangspunkt jener Photonen, die letztlich auf den Kamerasensor fallen.
Motiv: Die Oberfläche des Motivs wird von der Lichtquelle beleuchtet. Diese absorbiert, transmittiert und reflektiert je einen Teil des von der Lichtquelle stammenden Lichts. Bei geeigneter Lichtrichtung transportiert das reflektierte und das transmittierte (durchgelassene) Licht Informationen wie Farbe, Form und Textur vom Motiv in Richtung des Objektivs.
Objektiv: Das Objektiv sammelt und bündelt das vom Motiv eintreffende Licht. Der Bildwinkel (Weitwinkel-, Normal- oder Teleobjektiv) ist abhängig von der Brennweite des Objektivs.
Blende: Die Blende befindet sich innerhalb des Objektivs und regelt wie viel Licht auf den Bildsensor trifft.
Verschluss: Der Verschluss befindet sich im Inneren der Kamera und bestimmt wie lange das Licht, welches durch die Blende gelassen wurde, den Sensor beleuchtet.
Bild- bzw. Kamerasensor: Der Sensor besteht aus lichtempfindlichen Halbleiterbauelementen und wandelt die Photonen, die ihren Ursprung in der Lichtquelle hatten und die Infos über das Motiv enthalten, in einen Strom aus Elektronen um, der seinerseits einem Analog-Digital-Wandler zugeführt wird. Am Ausgang des AD-Wandlers liegt ein Digitalwert der Helligkeit je Pixel an.
JPEG bzw. RAW-Bilddatei: Der Digitalwert der Helligkeit je Pixel wird zusammen mit Informationen über die Position des Pixels hinter dem Bayer-Filter in eine Bilddatei geschrieben, in der sie dauerhaft abgespeichert werden. Dabei unterscheidet man, ob die Daten bereits in der Kamera durch einen Rohdatenkonverter in eine JPEG-Datei umgewandelt wurden und folglich direkt betrachtet werden können, oder ob die sensorspezifischen Rohdaten abgelegt wurden.
H.264 bzw H265 Codec und MP4 bzw. RAW-Videodatei: Abhängig von der Encodierungs-Leistungsfähigkeit das Analog-Digital-Konverters, sowie der Schreibgeschwindigkeit des Speichermediums in der Videokamera bei der Aufnahme und passend zur Dekodierungsleistung der Central Processing Unit (CPU) bzw. der Graphics Processing Unit (GPU) bei der Video-Wiedergabe am PC oder Smartphone, kommen oben angeführte Codecs und Containerformate zum Einsatz.
Bildverarbeitung: Während JPEG Daten meist zur direkten Anzeige gedacht sind, erfordern Rohdaten zwingend eine Bildverarbeitung. Dabei kann der Bildbearbeiter umfangreich gestalterisch tätig werden.
Bildanzeige: Das fertige Bild kann entweder auf einem Display betrachtet oder auf Papier ausgedruckt werden. Wird das Bild auf einem Display betrachtet, so werden durch die Beleuchtung des Displays Photonen auf den Weg zu den Rezeptoren in Auge gesendet. Wird das Bild auf Papier betrachtet, so haben die Photonen die auf die Rezeptoren im Auge fallen ihren Ursprung in einer Lichtquelle die das Foto beleuchtet.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.
Farbfotografie
So kommt die Farbinformation in die Camera-RAW-Datei
In einem Sensor mit z.B. 24 Megapixel werden Halbleiterbauelemente in einem Raster von 6000 Spalten und 4000 Zeilen angeordnet. Nach der Aufnahme für jedes Pixel die Anzahl der registrierten Pixel in Form von 16.385 Graustufen, die zwischen schwarz und weiß liegen, abgespeichert. Es liegt noch keine Farbinformation vor.
Dreifarbenauszug
Die monochrome Bilderfassung in Form von Grauwerten muss adaptiert werden, um Farbaufnahmen zu ermöglichen. Mit Hilfe eines Bayer-Filters werden Grauwerte abgespeichert, die einer der drei Grundfarben im additiven RGB-System entsprechen.
IR-Sperrfilter
Moderne Fotosensoren decken bezüglich des Inneren Photoelektrischen Effekts einen Spektralbereich von Blau (400 nm) bis Infrarot (2400 nm) ab. Da der Infrarotbereich unerwünscht ist, wird er durch einen IR-Sperrfilter eliminiert.
Tiefpass-Filter
Moire-Artefakte (z.B. Farbsäume auf Kleidung) treten dann auf, wenn sich das Pixelraster des Bildsensors mit feinen Strukturen im Motiv überlagert. Dies kann nur bei hochfrequenten Bildanteilen entstehen. Dies kann man mit einem Tiefpassfilter vor dem Bildsensor verhindern, indem man hochfrequente Bildanteile herausfiltert, wodurch jedoch feinste Details nicht mehr wiedergegeben werden können und Schärfe verloren wird.
Bayer Filter
Bei den gängigen Farbfilter-Array-Kameras wird jedes der z.B. 24 Megapixel mit einem Farbfilter bedeckt, welcher nur Photonen mit jener Wellenlänge, die rotem, grünem oder blauem Licht entspricht, zur lichtempfindlichen Sensorschicht durchlässt. Dabei werden die Farbfilter Schachbrettartig angeordnet, wobei 50% der Pixel der Farbe Grün und je 25% der Pixel für die Farben Rot und Blau zugewiesen werden.
Abbildung: Bayer Filter, gemeinfrei, 27.12.2022
https://de.wikipedia.org/wiki/Bayer-Sensor#/media/Datei:Bayer_matrix.svg
Jedes der 24 Megapixel Pixel des Sensors entspricht nun nicht mehr einem von 16.385 Zahlenwerten (Luminanzwert), welcher einer Grauabstufung entspricht, sondern einem von 16.385 Zahlenwerten, dessen Luminanzwert abhängig von der Position im Bayer-Filter entweder einer roten oder grünen oder blauen Helligkeitswertabstufung entspricht. In der RAW-Datei werden daher nicht nur die 24 Millionen 14-Bit-Helligkeitswerte abgespeichert, sondern auch Metadaten, z.B. über welchem Pixel welcher Farbfilter gelegen hat. Dadurch ist es dem RAW-Konverter möglich, unter Berücksichtigung der Helligkeitswerte von je 4 benachbarten Pixel, von denen eines dem roten, eines dem blauen und zwei dem grünen Luminanzwert entspricht, die fehlenden beiden Farbinformationen für jedes einzelne Pixel zu interpolieren. D.h, je 4 Luminanzwerte, welche den Helligkeiten von 4 Grauwerten entsprechen, werden gemäß der Anordnung im BayerschenFarbfilter über dem jeweiligen Pixel, in 4 Farbwerte umgerechnet.
Wir fassen zusammen: Ein 24 Megapixel-Sensor unter einem Bayer-Filter zeichnet 24 Millionen Grauwerte in einer Abstufung von 16.384 Helligkeitsstufen auf, die je der Farbe Rot, Grün oder Blau entsprechen. Durch Interpolation mit den Nachbarpixeln entstehen wiederum 24 Millionen Farbwerte.
Normalisierter Tonwertumfang
Bei einem A/D Wandler mit 14 Bit pro Farbe liegt der jeweilige Wert pro Farbkanal zwischen 0 und 16.385. Ein A/D-Wandler mit 14 Bit für jeden der 3 Farbkanäle schreibt also die GRB-Farben 3*14=42 Bit in die RAW-Datei (jedoch nur mit 3*8=24 Bit in die JPEG-Datei.)
Damit die digitale Repräsentation je Farbkanal unabhängig von der verfügbaren Bittiefe (10, 12, 14 Bit je Farbkanal) des verwendeten A/D-Wandlers wird, dividiert man den Luminazwert pro Kanal durch die Bittiefe des A/D-Wandlers, also beim 10 Bit A/D Wandler eines Smartphones durch 1.024 und bei 14 Bit A/D-Wandler einer professionellen Kamera durch 16.385. Dadurch normalisiert man die Abstufungen der Luminanz je Farbkanal auf den Bereich zwischen 0 und 1.
Weißabgleich mittels Skalen
Die RGB-Kanäle eines Sensors weisen unterschiedliche relative spektrale Empfindlichkeiten auf. D.h selbst wenn jede Wellenlänge für RGB die gleiche Intensität hat (weißes Licht), dann ergeben sich nach dem A/D-Wandler unterschiedliche digitale Bit-Werte für RGB, was nicht mehr Weiß entspricht. Um diesem Farbstich entgegenzuwirken, kommen Weißabgleichskalen zur Anwendung, welche die unterschiedliche relative spektrale Empfindlichkeit wieder ausgleichen. Nach deren Anwendung sollten die Rot, Grün und Blau Luminanzwerte eines neutralgrauen Objekts wieder gleich sein, in Summe also einen Grauton ergeben.