Grundlagen der Physik
Hier findest du folgende Inhalte
Formeln
Bildaufzeichnung
In dieser Mikro-Lerneinheit lernst du gestalterische Auswahlkriterien bezüglich der Wahl zwischen Foto und Videoaufzeichnung kennen. Danach verfolgen wir den Weg der Photonen, die der Träger von Lichtinformation sind, von deren Ursprung in einer Lichtquelle bis zu deren Auftreffen auf den Rezeptoren der Netzhaut, sodass in unserem Gehirn eine Bildwahrnehmung entsteht.
Wahl zwischen Fotografie bzw. Videografie
Moderne Kameras bieten heute die Möglichkeit, erst im Moment der Aufnahme zu entscheiden, ob man Fotos oder Videos vom Motiv erstellen möchte – ganz nach Bedarf für die spätere Betrachtung. Während es engagierten Amateuren schon seit Jahrzehnten leicht fiel, qualitativ hochwertige Fotos zu schießen, hat sich der Bereich der hochwertigen Low-Budget-Videos erst mit dem Übergang von analogen zu digitalen Videokameras revolutioniert. Besonders erwähnenswert ist, dass Smartphones die nahezu kostenfreie Aufnahme und Wiedergabe von Fotos und Videos für jedermann zugänglich gemacht haben. Gleichzeitig trugen soziale Medien wie Instagram und YouTube dazu bei, dass jeder Hobbyfotograf seine Aufnahmen einem weltweiten Publikum präsentieren kann.
Nachfolgend einige Aspekte, in denen sich Fotografie und Videografie unterscheiden:
Statische Fotos vs. bewegter Bilder
In der Fotografie wird ein einzelner Moment eingefroren, während in der Videografie Zeitintervalle aufgenommen werden.
Geschichten erzählen
Sowohl Fotos als auch Videos können Geschichten erzählen. Fotos konzentrieren sich jedoch auf einen einzigen Augenblick, während Videos zeitliche Veränderungen einfangen. Ein gutes Foto erfordert das Gespür des Fotografen, im perfekten Moment den Auslöser zu drücken. Bei Videos hingegen kann der relevante Ausschnitt durch nachträglichen Schnitt ausgewählt werden.
Aufmerksamkeitsspanne des Betrachters
Ein Foto kann auf einen Blick erfasst werden, während ein Video eine längere Aufmerksamkeitsspanne erfordert, da es über einen bestimmten Zeitraum betrachtet werden muss.
Bewegung und Ton
Diese Elemente sind exklusive Vorteile der Videographie, da sie Bewegung und Ton einbeziehen, während Fotos rein visuell wirken.
Ressourceneinsatz
Fotos entstehen oft spontan, während die Erstellung semi-professioneller Videos mehr Planung erfordert. Im professionellen Bereich benötigt man zudem ein Drehbuch mit klaren Anweisungen für alle Beteiligten. Die Beleuchtung und Tonaufnahme bei bewegten Bildern erfordern erheblich mehr Aufwand als bei einem einzelnen Foto oder einer Fotostrecke, wie etwa bei einer Hochzeit. Auch der Speicherbedarf und die Rechenleistung für die Nachbearbeitung sind bei Videos weitaus höher.
Aufnahmeparameter und Datenspeicherung
Fotos im JPEG-Format sind in der Regel sofort einsatzbereit, während im RAW-Format aufgenommene Fotos unbedingt nachbearbeitet werden müssen. Für die Bearbeitung eines RAW-Fotos sollte man etwa 5 Minuten einplanen. Bei Videoaufnahmen ist die Wahl der Aufnahmeparameter besonders wichtig, da das hohe Datenvolumen eine schnelle Speicherkarte erfordert. Gängige Videoformate sind heute Full-HD (1920 x 1080 Pixel, 16:9) und 4K UHD (3840 x 2160 Pixel).
Wahl des Kameragehäuses
Bei der Wahl eines Kameragehäuses sollte man zunächst überlegen, wie viel Zeit man in die Fotografie investieren möchte.
Smartphone-Fotografen
Smartphones sind stets griffbereit und ermöglichen spontane Aufnahmen. Die Bilder werden im JPEG- oder HEIF-Format erstellt und vom Prozessor automatisch so optimiert, dass sie ohne weitere Bearbeitung auf dem Handy-Display gut aussehen. Der Fokus dieser Fotografen liegt meist auf der Ästhetik und der Selbstvermarktung in sozialen Medien.
Amateurfotografen
Amateurfotografen fotografieren aus Leidenschaft und aus Freude zum Hobby, ohne kommerzielle Absichten. Sie experimentieren und verstehen die grundlegenden Zusammenhänge von Brennweite, Blende, Belichtungszeit, ISO-Wert und Schärfentiefe. Ihre Fotos werden meist im JPEG- oder HEIF-Format gespeichert, und Bildbearbeitung ist eher selten. Sie wählen Kameras, welche eine umfangreiche Auswahl an Belichtungsautomatiken und Objektive mit unterschiedlichen Brennweiten bieten.
Semiprofessionelle Fotografen
Semiprofessionelle Fotografen haben ein hohes technisches Verständnis für Bildkomposition, Kameratechnologie und Nachbearbeitung. Sie nutzen oft dieselbe Ausrüstung wie Profis, jedoch ohne kommerzielle Kosten-Nutzen-Rechnung im Hinterkopf. Sie fotografieren ausschließlich im RAW-Format, um maximale Kontrolle über die Bildbearbeitung zu haben. Nach der Aufnahme wählen sie sorgfältig die besten Bilder aus und bearbeiten diese oft erst Wochen später mit einem Zeitaufwand von ca. 5 Minuten pro Bild. Da sie nicht auf Einnahmen angewiesen sind, fotografieren sie, was ihnen Freude macht.
Professionelle Fotografen
Professionelle Fotografen leben von der Fotografie und arbeiten meist auf Basis kommerzieller Verträge mit festen Deadlines. Sie fotografieren entweder nach Kundenwünschen oder vertreiben ihre Werke über Bildagenturen und Bild-Datenbanken (Stock-Fotografie). Erfolgreiche Profis haben oft einen einzigartigen Stil entwickelt, der ihre Bilder unverwechselbar macht. Unter hohem Zeitdruck und im Wettbewerb mit anderen Fotografen bearbeiten sie ihre Aufnahmen häufig bereits in der Kamera und übermitteln sie direkt über das Internet an potenzielle Käufer. Die Fotodatei beinhaltet Hinweise auf den Fotografen und dessen Urheberrechte.
Weg der Photonen von einer Lichtquelle zu den Rezeptoren der Netzhaut
Bei der Bildaufzeichnung unterscheidet man zwischen "Standbild-Aufzeichnung" also dem Generieren eines Fotos und "Bewegtbild-Aufzeichnung", also dem Generieren eines Videos.
Photonen
Am Anfang jeder Bildaufnahme steht das Photon. Photonen sind masselose Austauschteilchen der elektromagnetischen Wechselwirkung. Licht besteht aus elektromagnetischen Wellen, die sich in Form von diskreten Energiepaketen, den Photonen, bewegen, denen eine spezifische Wellenlänge und somit eine korrespondierende Farbe des sichtbaren Lichts entspricht. D.h. die Bewegung von Photonen in einem bestimmten Wellenlängenintervall nimmt der Mensch oder der Kamerasensor als Licht einer konkreten Farbe wahr.
- 400 nm – 450 nm: Violett
- 450 nm – 495 nm: Blau
- 495 nm – 570 nm: Grün
- 570 nm – 590 nm: Gelb
- 590 nm – 620 nm: Orange
- 620 nm – 700 nm: Rot
Um den technischen Prozess der Bildaufnahme zu verstehen, kann der Weg des Lichts in mehrere Schritte unterteilt werden:
Lichtquelle
Jede Lichtquelle ist der Ursprung von Photonen. Einige Objekte, wie eine Kerze, erzeugen ihr eigenes Licht. In den meisten Fällen stammen die Photonen jedoch von externen Lichtquellen wie der Sonne (Tageslicht) oder einer Lampe (Kunstlicht), die das Motiv beleuchten und schließlich den Kamerasensor erreichen.
Motiv
Das Motiv ist das Hauptobjekt oder den zentralen Inhalt einer Aufnahme, auf den der Fokus des Bildes gerichtet ist. Die Oberfläche vom Motiv reflektiert, absorbiert oder lässt einen Teil des Lichts durch. Diese Prozesse transportieren Informationen wie Farbe, Form und Textur des Motivs in Richtung der Kamera.
Objektiv
Das Objektiv sammelt das Licht, das vom Motiv reflektiert oder durchgelassen wird, und fokussiert es auf den Bildsensor. Die Art des Objektivs (Weitwinkel, Normal, Tele) hängt von der Brennweite ab und beeinflusst den Bildausschnitt.
Blende
Die Blende im Objektiv regelt die Menge des Lichts, das auf den Sensor trifft.
Verschluss
Der Verschluss befindet sich im Inneren der Kamera und steuert, wie lange das Licht auf den Sensor fällt. Der Verschluss ist entweder mechanisch oder elektronisch ausgeführt und bestimmt die Belichtungszeit.
Belichtungszeit
Die Belichtungszeit ist jenes Zeitintervall, zwischen 30 Sek und 1/64.000 Sek, während dem die Photonen auf die Fotodiode im Sensor einwirken.
Lichtwert
Die korrekte Belichtung setzt sich aus einer Kombination von Blende und Belichtungszeit zusammen, wobei man von einem konstanten ISO = 100 ausgeht.
Bildsensor bzw. Kamerasensor
Der Bild- bzw. Kamerasensor besteht aus lichtempfindlichen Halbleitern. Die Fotodiode wandelt die eintreffenden Photonen je Pixel in einen elektrischen Gleichstrom um, welcher wiederum einen Kondensator auflädt. Die am Kondensator anliegende Gleichspannung wird von einem Analog-Digital-Wandler (AD-Wandler) in digitale Helligkeitswerte für jedes Pixel konvertiert.
Bilddatei: JPEG- oder RAW
Die Helligkeitswerte jedes Pixels werden, zusammen mit den Positionsdaten des jeweiligen Pixels unter dem Bayer-Filter, in eine Bilddatei gespeichert. Entweder erzeugt ein Rohdatenkonverter in der Kamera bereits ein JPEG-Format und / oder die Sensordaten werden direkt als Rohdaten (RAW) abgespeichert, damit diese später mit einem Bildbearbeitungsprogramm optimiert werden können.
Videodatei: H.264/H.265-Codec und MP4/RAW-Container
Bei Videoaufnahmen werden die Daten abhängig von der Leistung des Analog-Digital-Wandlers und der Schreibgeschwindigkeit des Speichermediums in ein passendes Format (z. B. H.264 oder H.265) und in Containerformate wie MP4 oder RAW gespeichert.
Bildverarbeitung
Während JPEG-Daten meist zur direkten Anzeige gedacht sind, erfordern Rohdaten zwingend eine Bildverarbeitung. Dabei kann der Bildbearbeiter umfangreich gestalterisch tätig werden. Der zusätzliche Zeitaufwand schlägt sich in einer wesentlich besseren Qualität des fertigen Bildes nieder.
Folgende Reihenfolge der Bearbeitunsschritte hat sich bewährt:
- 1. Schritt: Bildimport mit Hilfe von Profilen
- 2. Schritt: Objektivkorrekturen
- 3. Schritt: Horizont, Seitenverhältnis und Bildausschnitt festlegen
- 4. Schritt: Helligkeit (Luminanz) mit Histogramm oder Gradationskurve festlegen
- 5. Schritt: Farbton (Hue) festlegen oder Weißabgleich durchführen
- 6. Schritt: Kontrast anpassen
- 7. Schritt: Sättigung (Saturation) anpassen
- 8. Schritt: Selektive Farbkorrektur gemäß dem HSL Farbmodell
- 9. Schritt: Schärfen und Rauschunterdrückung
- 10. Schritt: Retusche
Bildanzeige
Das fertige Bild kann auf einem Display oder in gedruckter Form betrachtet werden. Bei der Anzeige auf einem Bildschirm strahlt das Display selbst Photonen ab, die in das Auge des Betrachters gelangen. Wird das Bild auf Papier betrachtet, so haben die Photonen, die auf die Rezeptoren im Auge fallen, ihren Ursprung in einer Lichtquelle, die das Foto beleuchtet.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Atom- und Kernphysik
- Schon 400 Jahre v. Chr. haben sich griechische Philosphen wie Demokrit den Aufbau der Materie aus unteilbaren Grundbausteinen vorgestellt.
- Erst Anfang des 19. Jahrhunderts setzte sich die Erkenntnis durch, dass Atome aus einem Atomkern bestehen, der sich seinerseits aus Protonen und Neutronen aufbaut und aus einer Atomhülle, die ihrerseits lediglich aus Elektronen besteht.
- In den 1960-er Jahren erkannte man, dass die Protonen und die Neutronen ihrerseits aus Quarks bestehen, während die Elektronen schon elementar sind.
- Zum Anfang des 3. Jahrtausends war bekannt, dass sich die bekannte Materie (das schließt also die Dunkle Materie nicht mit ein) aus 12 massebildendend Fermionen (6 Leptonen und 6 Quarks) sowie aus 7 Austauschteilchen, den Bosonen besteht. Diese subatomaren Teilchen sind im "Standardmodell der Elementarteilchen" zusammengefasst. Die durch die Austauschteilchen vermittelten Kräfte werden durch 4 fundamentale Wechselwirkungen und den Higgs Mechanismus beschrieben.
Strahlen- und Wellentheorie des Lichtes
Das Spektrum der elektromagnetischen Wellen hat Erscheinungsformen die von Wechselströmen über Rundfunk, Mikrowelle, Infrarot, sichtbares Licht, UV-Licht, Röntgenstrahlung, Gammastrahlung beim Kernzerfall bis zur kosmologischen Strahlung reichen.
Licht als Korpuskelstrahl
Dieser veraltete Ansatz aus der Zeit von Newton modelliert das Licht als eine Aufeinanderfolge von materiellen Teilchen. In der heutigen Quantenelektrodynamik gibt es mit dem Photon zwar ein Lichtteilchen, doch ist dieses masselos, weil es nicht mit dem Higgs-Feld wechselwirkt.
Licht im Welle-Teilchen-Dualismus
Der Welle-Teilchen-Dualismus von Licht findet seine Erklärung in der Quantenmechanik, derzufolge Objekte der Quantenphysik sowohl Eigenschaften als Welle und als Teilchen haben. Die masselosen Photonen, die sich mit Lichtgeschwindigkeit ausbreiten, sind die Quanten der elektromagnetischen Wechselwirkung.
Licht als Teilchenstrahl
Wenn man sich mit dem Weg auseinander setzt, den das Licht zurücklegt, dann modelliert man das Licht als einen Teilchenstrahl. Die Teilchen sind die masselose Photonen.
Am besten denkt man an einen punktförmigen Laserstrahl. Der Weg den der Strahl nimmt ist umkehrbar. Hinter einem undurchsichtigen Gegenstand entsteht bei punktförmiger Lichtquelle ein scharfer Schatten. Man kann damit die geradlinige Ausbreitung von Licht veranschaulichen, die Schattenbildung, die Reflexion und die Brechung. Lichtstrahlen können sich durchsetzen, ohne sich gegenseitig zu beeinflussen, weil die Teilchen aus denen Licht besteht, die Photonen, masselos sind. Außerhalb des konkreten Strahls gibt es kein Licht von dieser Quelle.
Licht als teilchenlose Welle
Wenn man sich mit Erscheinungen wir Beugung, Interferenz oder Polarisation auseinander setzt, dann modelliert man das Licht als Welle.
Am besten denkt man an die Wellen in einem Becken, in das man einen kleinen Stein geworfen hat. Das Licht ist dabei eine Transversalwelle, die sich mit anderen Wellen überlagern kann. Elementarwellen überlagern sich dabei und ergeben je nach Phasenlage eine Verstärkung oder Auslöschung.
Tatsächlich ist Licht eine elektromagnetische Welle, die in der Lehre von der Elektrodynamik ihre Beschreibung in Form der 4 Maxwell Gleichungen findet. Licht als elektromagnetische Welle besteht aus räumlich und zeitlich periodischen, ungedämpften, gekoppelten elektrischen und magnetischen Feldern, die in den Raum abgestrahlt werden. Das Licht als elektromagnetische Welle wird durch die 4 Maxwell Gleichungen beschrieben. Elektromagnetische Wellen haben in der Quantenelektrodynamik auch Teilchencharakter, ihr Quant ist das Photon.
Man spricht von einer Transversalwelle, weil die Schwingung des elektrischen \(\overrightarrow E\) - und des magnetischen \(\overrightarrow H\) -Feldes senkrecht zur Ausbreitungsrichtung erfolgt. Die elektromagnetische Welle braucht kein Medium („Lichtäther") zur Ausbreitung im Raum, sondern sie pflanzt sich im Vakuum mit Lichtgeschwindigkeit und in Materie mit einer entsprechend kleineren Ausbreitungsgeschwindigkeit fort.
Unterschied Quantenphysik und klassischen Physik
Klassische Physik
Die klassische Mechanik kann weitgehend mit den menschlichen Sinnesorganen überprüft werden und ist mit den Erwartungen aus unserem menschlichen Alltagsleben gut verträglich. So gilt Kausalität und Determinismus, sowie die chronologische Abfolge von Vergangenheit, Gegenwart und einer einzigen Zukunft entlang einer Zeitachse.
Relativitätstheorie und Quantentheorie stehen autark neben einander
Während die allgemeine Relativitätstheorie die Gravitation beschreibt, beschreibt die Quantentheorie die 3 restlichen fundamentalen Wechselwirkungen, also die starke und die schwache Kernkraft sowie die elektromagnetische Wechselwirkung. Die Relativitäts- und die Quantentheorie sind, jede für sich genommen, sehr gut überprüft, aber es gibt leider keine experimentell bestätigte Theorie der Quantengravitation, welche die beiden Theorien vereinheitlichen würde.
Gemäß dem Welle-Teilchen-Dualismus verhalten sich Objekte aus der Quantenwelt in manchen Fällen wie eine Welle, in anderen wie ein Teilchen. Man spricht dann vereinheitlichend von Quantenobjekten. Jedes Teilchen wird mit einer Wellenfunktion beschrieben. Das Quadrat des Betrags der komplexen Wellenfunktion kann als die Aufenthaltswahrscheinlichkeit des Teilchens gedeutet werden. Die zeitliche Veränderung der Aufenthaltswahrscheinlichkeit des durch die Wellenfunktion beschriebenen Teilchens wird in der Schrödingergleichung beschrieben.
In der Quantenphysik existiert ein subatomares Teilchen überall dort „gleichzeitig, ein wenig“, wo die aus seiner Wellenfunktion hergeleitete Wahrscheinlichkeit es anzutreffen größer als Null ist. Erst ausgelöst durch eine Messung des Aufenthaltsortes, also erst durch das Vorliegen von Information, entsteht aus den vielen möglichen Aufenthaltsorten „zufällig“ ein konkreter Aufenthaltsort, wobei auch dann Ort und Impuls des Teilchens nicht gleichzeitig beliebig genau bestimmt werden können. Vor und nach der Messung ist das Teilchen eine Welle, nur während der Messung ist das Teilchen tatsächlich ein Teilchen im Sinn von räumlich vorhandener Materie. Während der Messung spricht man daher vom Kollaps der quantenmechanischen Wellenfunktion.
Theorie der Quantengravitation verheiratet Relativitäts- und Quantentheorie
Vertritt man die Meinung, dass es keinen Grund für den Kollaps der quantenmechanischen Wellenfunktion gibt, kommt man zu Theorien mit parallelen Universen, wie die Stringtheorie und zum Begriff der Quantenverschränkung. Materie und Energie werden dann zu einer Realisierung von Information, deren kleinste Einheit 1 Qubit ist. Ein Qubit ist kein Objekt in Raum und Zeit sondern eine bedeutungslose Information in einem 2-Zustandssystem, die gleichzeitig wahr und falsch ist. (So wie die Katze in Schrödingers Gedankenexperiment gleichzeitig tot als auch lebendig ist). Erst durch deren Beobachtung nimmt die Information eine Bedeutung im Sinne eines der beiden möglichen Zustände an. Beobachtet man eines von zwei mit einander verschränkten Quanten, so nimmt dieses einen der beiden Zustände wahr oder falsch an. Zeitgleich nimmt ein verschränkte Quant, unabhängig von seiner Entfernung (!) einen Zustand ein, der sich aus jener Wahrscheinlichkeitsfunktion ergibt, die beide Teilchen zusammen beschreibt. Man spricht von Quantenverschränkung. Auf dem Prinzip der Quantenverschränkung und auf dem Prinzip der Kohärenz basieren Quantencomputer, die derzeit mit einigen Dutzend Qubits bereits experimentell erprobt werden.
Die Entstehungsgeschichte des Universums
Vor rund 14.109 Jahren nahm das Universum mit dem Big Bang, dem Urknall seinen Anfang.
Theory of Everything
In den ersten 10-43 s (Planckzeit) besteht das Universum aus Strings, alle 4 Wechselwirkungen sind noch in einer fundamentalen Urkraft vereint. Eine Theorie, die diesen Zeitraum beschreibt, eine sogenannte Theory of Everything - ToE - ist eine Quantengravitationstheorie. Die Stringtheorie ist eine solche Theorie.
Grand Unified Theory
Unmittelbar nach der Planckzeit spaltet sich als erstes die Gravitation ab, sodass nach der Grand Unified Theory - GUT - die starke, schwache und elektromagnetische Kraft noch immer in einer einzigen fundamentalen GUT-Kraft vereint sind. Zu diesem Zeitpunkt hatten noch alle Teilchen die Ruhemasse Null, waren nicht unterscheidbar und das Universum war symmetrisch.
Das Higgs-Feld kondensiert, die starke Wechselwirkung spaltet sich von der GUT Kraft ab
10-36 s nach dem Urknall war das Universum 1028 K heiß, was einem Energieäquivalent von 1016 GeV entspricht. (Zum Vergleich, der LHC vom Cern erreicht gerade mal 1,3.104 GeV). Es kam zur Aufspaltung der GUT Kraft in die starke Wechselwirkung und in die elektroschwache Wechselwirkung.
Nun war der Zeitpunkt gekommen, an dem der Higgs Mechanismus einsetzte. Durch die Abkühlung des Universums kondensiert das Higgs Feld, die Symmetrie wird gebrochen, die schwach wechselwirkenden Teilchen erhalten ihre Masse und werden langsamer als die Lichtgeschwindigkeit.
Nun ist es aber so, dass das Vakuum einen höheren Energiewert hat, wenn das Higgsfeld Null ist und das Vakuum den niedrigsten Energiewert (Vakuumerwartungswert) hat, wenn das Higgsfeld einen von Null verschiedenen Wert einnimmt. Stichwort: Sombrerokurve. Ein Zustand an dem das Higgsfeld Null ist stellt also einen instabilen Zustand dar, weil es andere, niederenergetischere Zustände gibt.
Theorie des inflationären strahlungsdominierten Universums
Die Theorie des inflationären Universums geht davon aus, dass das Higgsfeld während des kondensierens am - an sich instabilen - Punkt „hängengeblieben“ ist, an dem das Higgsfeld zwar Null und die Energie nicht das Minimum ist. Nachdem sich das Universum weiterhin ausdehnt, entsteht ein „unterkühltes“ Higgsfeld mit einer für die Temperatur des Universums zu hohen Energie.
Während des Zeitraums von 10-36 s bis 10-34 s nach dem Urknall erfolgt die Symmetriebrechung der elektroschwachen Wechselwirkung, aber die Masse die entsteht ist zunächst auf Grund der Unterkühlung des Higgsfeldes negativ und hat daher keine anziehende sondern eine abstoßend wirkende Gravitationskraft die bewirkt, dass sich das Universum exponentiell um das ca. 1026 -fache ausdehnt (Inflationäres Universum, kosmische Inflation).
10-34 s nach dem Urknall nimmt das Higgs Feld letztlich jenen von Null verschiedenen Wert an, bei dem Vakuumerwartungswert ein Minimum ist und es entstehen die Quarks, die Leptonen und die Bosonen, die die gewöhnliche Materie ausmachen. Man spricht vom Quark-Gluonen Plasma, einem Aggregatzustand bei dem das Confinement, welches Quarks und Gluonen aneinander bindet, auf Grund der hohen Temperatur noch nicht wirkt und es daher freue Quarks gibt.
Das strahlungsdominierte Universum dehnt sich nach der Phase der Inflation gemäß den Friedmann Gleichungen aus. Das Universum besteht aus Photonenstrahlung und aus freien relativistischen (v= fast Lichtgeschwindigkeit) Elementarteilchen.
Elektroschwache Kraft zerfällt in schwache Kernkraft und elektromagnetische Kraft
10-11 s nach dem Urknall, bei einer Temperatur von 1015 K zerfiel auch noch die elektroschwache Kraft in die schwache Kernkraft und in die elektromagnetische Kraft, womit alle 4 heutigen Wechselwirkungen individuell ausgeprägt vorliegen.
Nukleosynthese
10-6 s nach dem Urknall, bei einer Temperatur von 1012 K bilden sich aus dem Quark-Gluonen Plasma zufolge der Abkühlung zunächst gleich viele Protonen und Neutronen, später überwiegen jedoch die Protonen.
1 s nach dem Urknall, bei einer Temperatur von 1010 K kommen etwa 6 Protonen auf ein Neutron und es entsteht zunächst instabiles Deuterium
10 s nach dem Urknall, bei einer Temperatur von 3.109 K liegen etwa 75% Wasserstoff, 25% Helium und Spuren von Deuterium und Lithium vor, wobei auf jedes Kernteilchen 1010 Photonen kommen.
Das materiedominierte Universum
10.000 Jahre nach dem Urknall liegt dann ein materiedominiertes Universum vor, in dem die nicht-relativistische Masse dominiert und es bilden sich erste positiv geladene Nukleonen. Deuteron (das einfachste gebundene Nukleonensystem, also der Atomkern vom Deuterium, dem schweren Wasserstoff) entsteht.
Ungefähr 380.000 Jahre nach dem Urknall ist das Universum auf unter 3.000° K abgekühlt und die Epoche der Rekombination (Vereinigung positiver und negativer Ladungsträger = 1. Phasenübergang) beginnt. Teilchen kollidieren und geben dabei kinetische Energie ab und die Gravitation gewinnt die Oberhand. Es bilden sich elektrisch neutrale Wasserstoffatome und Heliumatome. Zu diesem Zeitpunkt gab es im Universum noch nicht einmal Objekte von der Größe eines Staubkorns. Das Universum ist für Photonen teilweise undurchlässig und dunkel.
Nach 108 Jahren beginnen die verdichteten Nebel zu kollabieren und zu rotieren.
Nach 109 Jahren haben sich erste Zwerggalaxien, zunächst aber noch ohne Sterne gebildet, die erst nach weiterer Abkühlung des Universums an den dichtesten Stellen entstehen.
Nach 150 Millionen bis 1 Milliarde Jahren nach den Urknall kommt es zum 2. Phasenübergang der Epoche der Reionisierung, da sich zuvor bereits massereiche Sterne mit hoher Oberflächentemperatur gebildet haben, deren Ultraviolettstrahlung energiereich genug war um den Wasserstoff wieder zurück in ein ionisiertes Plasma zu verwandeln. Aus dem dunklen Universum wird ein lichtdurchlässiges Universum, denn freie Elektronen können keine Energie von Photonen aufnehmen sonder sie allenfalls (selten) streuen.
Bildung von Akkretionsscheiben führt zum Entstehen von Sonnen
Nach 1010 Jahren bildet sich eine Akkretionsscheibe, in deren Schwerpunkt verdichtet sich ein kugeliger Stern, die Protosonne unserer heutigen Sonne. Diese ist noch millionenfach voluminöser als es die Sonne heute ist.
Die Protosonne schrumpft unter der Schwerkraft und vereint 99% der Masse der Akkretionsscheibe in Form eines Plasmas. Sobald die Temperatur im Plasma über 3 Millionen Grad erreicht, fusioniert statistisch ein bestimmtes Proton 1H im Schnitt nach 14.109 Jahren (zum Glück so selten = Lebensdauer der Sonne!) mit einem zweiten Proton 1H, zu einem Deuteriumkern 2H (1 Proton, 1 Neutron; „schwerer Wasserstoff“), wobei zusätzlich ein Positron, ein Elektronneutrino und Energie frei werden.
1,4.1010 Jahre = heute : Das Universum ist auf 2,7 K abgekühlt. Die Hitze der Kernfusion baut einen von innen nach außen gerichteten Gasdruck auf. Durch die Rotation der Sterne entsteht zudem eine von innen nach außen gerichtete Zentrifugalkraft. Die thermonukleare Fusion setzt eine 3. nach außen gerichtete Strahlung in Form von Photonen frei, die beim Auftreffen auf andere Objekte einen Strahlungsdruck erzeugen. Diese 3 Drücke wirken der nach innen gerichteten Gravitation entgegen, sodass sich ein sogenanntes hydrostatisches Gleichgewicht einstellt, welches verhindert, dass die Sonne unter ihrer eigenen Gravitation kollabiert und stabil ist.
Stabile Sonnen und Planeten entstehen
In der Folge entstehen auch noch die Planeten aus den Überresten der Akkretionsscheibe und Sonnensysteme wie das von unserer Sonne.
Unsere Sonne ist vor ca. 4,5 Milliarden Jahren entstanden und wird noch ca. 6 Milliarden Jahre weiter Wasserstoff zu Helium brennen. In 1 Milliarde Jahren wird die Sonne um 10% heller sein und die Erde so erhitzen, dass alle Kontinente nur mehr von Wüsten bedeckt sein werden. In 3,5 Milliarden Jahren wird die Sonne um 40% heller sein und das Wasser der Meere verdampft haben. In 7,5 Milliarden Jahren wird sich die Sonne zu einem Roten Riesen aufblähen und sich, abhängig davon wie viel und wie schnell die Sonne Masse ins Universum abgibt, sogar bis zur Erdumlaufbahn ausdehnen. In 7,7 Milliarden Jahren wird im Kern der Sonne das Heliumbrennen einsetzen und die Sonne wird sich letztlich in einen Weißen Zwerg bestehend aus Sauerstoff, Helium und Kohlenstoff verwandeln. Einige weitere Milliarden Jahre später wird dieser Weiße Zwerg dann kalt und dunkel sein.
Das Kosmologische Prinzip oder Super-Strukturen im Universum
Lange Zeit ging man davon aus, dass das kosmologische Prinzip zutrifft, welches besagt, dass die Materie im Universum annähernd gleichmäßig verteilt ist. Doch es gibt Hinweise, dass das Universum auch anders strukturiert sein könnte:
Unser Sonnensystem, bestehend aus der Sonne und den acht Planeten Merkur, Venus, Erde, Mars, Jupiter, Saturn, Uranus und Neptun, hat einen Durchmesser von etwa 18 Milliarden Kilometern. Dieses Sonnensystem ist Teil der Milchstraße, einer Galaxie mit einer geschätzten Masse von etwa 950 Milliarden Sonnenmassen. Davon entfallen etwa 15 % auf die 300 Milliarden Sterne der Galaxie und 85 % auf die unsichtbare Dunkle Materie.
Die Milchstraße selbst gehört zu einer Ansammlung von Galaxien, der sogenannten Lokalen Gruppe, die sich über etwa 10 Millionen Lichtjahre erstreckt. Diese Gruppe ist Teil des größeren Virgo-Galaxienhaufens, der wiederum zum noch umfangreicheren Laniakea-Supercluster gehört. Dieser Supercluster könnte Teil einer noch größeren Struktur sein, die als Basin of Attraction (BoA) bezeichnet wird. In diesem Fall würde der Laniakea-Supercluster zur Shapley-BoA gehören, die eine beeindruckende Ausdehnung von etwa 3,3 Milliarden Lichtjahren hat.
Eine mögliche Erklärung für diese riesigen kosmischen Strukturen könnten Fluktuationen während der kosmischen Inflation sein. Diese Phase fand in einem winzigen Zeitfenster, zwischen 10⁻³⁶ Sekunden und 10⁻³⁴ Sekunden nach dem Urknall, statt und beeinflusste möglicherweise die großräumige Verteilung der Materie im Universum.
Ein Blick in die Zukunft unserer Milchstraße
Unsere 13,6 Milliarden Jahre alte Milchstraße (13,8 Milliarden Jahre ist das Universum alt) wird in 4,5 Milliarden Jahren mit der Andromeda Galaxie kollidieren, die zur Zeit ca. 2,5 Millionen Lichtjahre entfernt ist und sich mit 100 km/s auf unsere Milchstraße zubewegt. Alle anderen Galaxien bewegen sich von unserer Milchstraße weg.
End of Everything
Das Universum dehnt sich etwa zufolge der hypothetischen negativen Gravitation der Dunklen Energie immer weiter aus. Materie und Energie verdünnen sich und wandeln sich zufolge dem zweiten Hauptsatz der Thermodynamik zunehmend in Wärme um, wodurch die Entropie (das ist ein Maß für die Menge der atomaren Unruhe) zunimmt, ein Vorgang der irreversibel ist.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Standardmodell der Elementarteilchen
Das Standardmodell der Elementarteilchen besagt, dass es 12 materiebildende Fermionen und zwischen ihnen 7 Bosonen als Austauschteilchen der 4 Wechselwirkungen gibt.
Schon in der Antike vermuteten die Griechen, dass man Dinge nicht unendlich oft teilen kann, sondern dass man irgendwann auf unteilbare Teilchen stoßen würde. Vom griechischen Wort für "unteilbar" leitet sich die Bezeichnung Atom ab. Heute ist statt unteilbar der Ausdruck "fundamentales Teilchen" üblich.
Zuerst wurde das Elektron entdeckt und dann wurde durch Rutherford’s Streuversuche klar, dass der Hauptteil der Masse samt der positiven Ladung im Atomkern vorliegt und dieser aus Protonen und Neutronen besteht. Als nächstes wurde das Positron, also das Anti-Teilchen zum Elektron experimentell entdeckt und damit die diesbezügliche rechnerische Vorhersage von Dirac bestätigt , dass es Materie und Antimaterie gibt.
In den späten 1940-er und 50-er Jahren wurde eine Vielzahl von scheinbar fundamentalen Teilchen entdeckt, in die erst die 1964 von Murray Gell-Mann publizierte Quark-Theorie (genauer: Quantenchromodynamik) Ordnung brachte. Heute besagt das Standardmodell der Elementarteilchen, dass es 12 materiebildende Fermionen und zwischen ihnen 7 Bosonen als Austauschteilchen der 4 fundamentalen Wechselwirkungen gibt. Ein weiterer wesentlicher Fortschritt war der Nachweis des Higgs-Bosons und damit eine Erklärung was Masse überhaupt ist.
Das wichtigste noch fehlende Teilchen im Standardmodell der Elementarteilchen ist das Graviton, also das Austauschteilchen einer quantisierten Gravitationswelle.
Elektronenvolt
Ein Elektronenvolt ist die Energie, die ein Teilchen mit einer Elementarladung (1 e) erhält, wenn es eine Spannung von 1 Volt durchläuft. Das Elektronenvolt ist eine Energieeinheit die in der Teilchenphysik Anwendung findet.
1 eV = 1,60217646263.10-19J
In der Teilchenphysik werden sowohl die Ruhemasse von Elementarteilchen als auch die Energie, auf die sie in Beschleunigern gebracht werden, in (Vielfachen von) Elektronenvolt angegeben. Die Umrechnung geschieht mit Hilfe der Gleichung E=mc2. Danach entspricht 1 eV/c² ungefähr 1,8·10-36 Kilogramm und 1 GeV (Gigaelektronenvolt) ungefähr der Ruheenergie eines Protons (genauer: 0,938 GeV).
Spin
Spin als der Eigendrehimpuls ist eine der Quantenzahlen von Fermionen und Bosonen
- In der makroskopischen Welt spricht man von Spin, wenn sich ein Gegenstand (Ball, Kreisel) um seine eigene Achse dreht. Aus dieser Drehbewegung resultiert jene Kraft, die dafür sorgt, dass ein rotierender Kreisel nicht umfällt.
- In der mikroskopischen Welt stellt der Spin eine „Eigenschaft“ (man spricht von einer Quantenzahl) von Fermionen und Bosonen dar, die man Eigendrehimpuls nennt. Allerdings kann der Spin nicht jeden beliebigen Wert annehmen, sonder er ist quasi „portioniert“ Er tritt dabei als halb- oder ganzzahliges Vielfaches von ℏ (sprich "h quer") auf.
Spin | Typ | Teilchen |
0 | Skalar Bosonen | Higgs Bosonen |
1/2 | Fermionen | 6 Leptonen, 6 Quarks |
1 | Vektor Bosonen | Gluon, W+, W- , Z0 , Photon |
3/2 | (hypothetische) Fermionen | supersymmetrische Teilchen |
2 | (hypothetisches) Tensorboson | Graviton |
Fundamentale Wechselwirkungen
Ursprünglich waren die elektrische und die magnetische Wechselwirkung getrennt, doch mit den 4 Maxwell Gleichungen gelang es diese beiden Wechselwirkungen zur elektromagnetischen Wechselwirkung zusammen zu fassen.
Heute beschreiben die 4 fundamentalen Wechselwirkungen, wie physikalische Objekte einander beeinflussen können. Bei den 4 Wechselwirkungen handelt es sich um die Gravitation, die starke und die schwache Wechselwirkung sowie um die elektromagnetische Wechselwirkung.
Zwischenzeitlich ist es im Rahmen des Standardmodells der Elementarteichen gelungen, die schwache und die elektromagnetische Wechselwirkung zur elektroschwachen Wechselwirkung zusammen zu fassen, sodass man eigentlich aktuell nur mehr von 3 fundamentalen Wechselwirkungen sprechen müsste.
Eine Sonderstellung hat der Higgs Mechanismus. Er hat zwar so wie die 4 Wechselwirkungen auch ein eigenes Quant als Austauschteilchen, nämlich das Higgs Boson und er hat auch ein eigenes Feld, nämlich das Higgs-Feld, da er aber durch die elektroschwache Theorie beschrieben wird, spricht man hier von einem Mechanismus und nicht von einer 5. Wechselwirkung.
Heute arbeiten die Wissenschaftler an der Grand Unified Theory (GUT) welche die elektroschwache mit der starken Wechselwirkung vereinheitlichen soll. Der nächste und letzte Schritt müsste auch noch die Gravitation mit der GUT verbinden, das wäre dann die sogenannte Theory of Everything (ToE), eine Theorie der Quantengravitation. Kandidaten dafür sind die Stringtheorie und die M-Theorie.
Wichtig ist zu verstehen, dass die physikalische Vereinheitlichung dieser Wechselwirkungen an Temperaturen jenseits von 1028 K bzw. an Energien jenseits von 1016 GeV gebunden sind. Zum Vergleich, der LHC vom Cern erreicht gerade mal 1,3.104 GeV und müßte somit noch eine Billion Mal energiereicher werden, um diese Temperaturen von unmittelbar nach dem Urknall zu simulieren.
Die fundamentalen Wechselwirkungen und der Higgs-Mechanismus
Ein Feld ist eine Energieform, die den Raum erfüllt. Felder können sich mit endlicher Geschwindigkeit ausbreiten, wobei ihre Dynamik durch Feldgleichungen beschrieben wird.
Unterscheidung der 5 Felder nach ihrem Rang:
- Skalarfeld (Tensor vom Rang 0)
- Higgs Feld
- Higgs Feld
- Vektorfelder (Tensor vom Rang 1)
- Elektromagnetisches Feld
- Feld der schwachen Wechselwirkung
- Feld der starken Wechselwirkung
- Tensorfeld (Tensor vom Rang >1)
- Gravitationsfeld
Die Austauschteilchen (Quanten) der 4 fundamentalen Wechselwirkungen und vom Higgs-Mechanismus
Unterscheidung der 5 Felder nach ihrem Wirkungsradius
Makrokosmos
-
- Gravitation - Graviton (postuliert, nicht experiementell nachgewiesen)
- elektromagnetische Wechselwirkung - Photon
Mikrokosmos
-
- schwache Wechselwirkung - W+, W- und Z0 Bosonen
- starke Wechselwirkung - Gluonen
- Higgs Mechanismus - Higgs Boson
Mechanik
Mechanik ist die Lehre von bewegten Körpern und Kräften.
Speziell untersucht man Fragestellungen zu physikalischen Eigenschaften von Masse (im Gegensatz zu chemischen und biologischen Eigenschaften) und deren Bewegungen, sowie die Ursachen dafür, warum sich die Bewegung von Massen verändert.
Die „klassische“ Mechanik"
Als „klassische“ Mechanik bezeichnet man jene Abschnitte der Physik die zeitlich vor der Relativitätstheorie und der Quantenphysik lagen. Ihr liegt das Kausalitätsprinzip zu Grunde, demzufolge man bei gegebenen Anfangsbedingungen das Verhalten eines deterministischen Systems in alle Zukunft (zumindest theoretisch) vorausbestimmen kann.
Heute wissen wir, dass die „klassische“ Mechanik nur im Grenzfall verhältnismäßig kleiner Geschwindigkeiten im Vergleich zur Lichtgeschwindigkeit gilt, denn sonst beschreibt die Relativitätstheorie die Physik großer Geschwindigkeiten besser.Weiters wissen wir heute, dass die „klassische“ Mechanik nur im Grenzfall verhältnismäßig großer räumlicher Distanzen im Vergleich zum Atom gilt, denn sonst beschreibt die Quantenphysik die Physik atomarer Abmessungen besser.
Auf Grund der Heisenberg’schen Unschärferelation ist es zudem grundsätzlich unmöglich alle Anfangsbestimmungen eines Systems beliebig genau zu kennen und man kann daher, wie die Chaostheorie zeigt, auch auf Grund der fluktuierenden Anfangsbestimmungen grundsätzlich die Zukunft des Systems nicht (schon gar nicht beliebig genau) vorausbestimmen.
Erst die Schrödinger Gleichung brachte wieder den Determinismus zurück, sodass wir nicht in einer chaotischen Welt leben. Kennt man nämlich die Wellenfunktion \(\psi\) eines Teilchens zu einem bestimmten Zeitpunkt, dann ermöglicht es die Schrödinger Gleichung die Wahrscheinlichkeit anzugeben, zu der sich das Teilchen im Laufe seiner zeitlichen Entwicklung an einer bestimmten Stelle aufhält.
Relativitätstheorien
Newtonsche Theorien
Die Newtonsche Mechanik berücksichtigt die Gravitation als eine Kraft wie jede andere Kraft. Die Gravitationskraft hängt von der Masse der beteiligten Objekte, dem Quadrat ihres Abstands und von einer Gravitationskonstante ab. Die Newtonsche Gravitation gilt nur für Geschwindigkeiten die sehr viel kleiner sind als die Lichtgeschwindigkeit. Die Lichtgeschwindigkeit wird bei Newton als „unendlich“ angesehen.
Spezielle Relativitätstheorie (SRT - 1905)
Ausgehend vom Experiment von Michelson und Morley, welches zeigte, dass das Licht - anders als Schall - kein Medium (namentlich den Lichtäther als bevorzugtes Bezugssystem) zu seiner Ausbreitung und zum damit verbundenen Energietransport benötigt, basiert die SRT auf dem Prinzip der Konstanz der (endlichen) Lichtgeschwindigkeit. Aus der rein theoretischen Betrachtung von gegeneinander mit konstanter Geschwindigkeit bewegter Bezugssysteme, leiten sich Phänomene wie die Längenkontraktion und die Zeitdilation ab, die erst Jahrzehnte später experimentell bewiesen werden konnten. In der SRT sind Ort, Zeit und Geschwindigkeit relativ, nur die Beschleunigung und die Lichtgeschwindigkeit sind absolut. Auf Grund des späten experimentellen Nachweises hat Einstein auch nie einen Nobelpreis für die Relativitätstheorien erhalten! Weiters wurde im Rahmen der SRT die Äquivalenz von Energie und Masse gemäß \(E = m \cdot {c^2}\) hergeleitet.
Allgemeine Relativitätstheorie (ART - 1915)
Beinhaltet vollständig die SRT und geht weit darüber hinaus und zwar durch die Betrachtung von gegeneinander beschleunigten Bezugssysteme und der Einbeziehung der Gravitation unter relativistischen Gesichtspunkten. Betrachtet wird die 4-dimensionale Raumzeit (x,y,z und t). Masse krümmt alle 4 Dimensionen der Raumzeit. Körper sowie Lichtstrahlen bewegen sich entlang von Geodäten, die den kürzesten Weg in dieser gekrümmten Raumzeit darstellen. Die Formeln der ART basieren mathematisch auf Tensoren. In der ART sind Ort, Zeit, Geschwindigkeit und Beschleunigung relativ, nur die Lichtgeschwindigkeit ist endlich und absolut. Die Gültigkeit der ART wurde durch die Lichtablenkung von Sternenlicht durch die Sonne nachgewiesen, durch die Laufzeitverzögerung von Radarsignalen, durch die Frequenzänderung von Licht zufolge des Gravitationsfeldes der Erde, durch den Nachweis von Gravitationswellen, die durch den Zusammenprall von schwarzen Löchern entstanden sind und die sich mit Lichtgeschwindigkeit ausbreiten.
Grundidee der Allgemeinen Relativitätstheorie
Körper und Lichtstrahlen bewegen sich entlang von Geodäten in einer gekrümmten Raumzeit. Einstein beschreibt die Gravitation nicht mehr als Kraft (wie bei Newton), sondern als geometrische Eigenschaft von Raum und Zeit. Materie, die keiner Kraft ausgesetzt ist, bewegt sich durch die Raumzeit entlang von Geodäten. Die Bewegung entlang der Geodäten nehmen wir als Gravitation wahr.
Die Beschreibung der Raumzeitkrümmung baut auf folgenden Prinzipien auf
- Starkes Äquivalenzprinzip, demzufolge „träge Masse“ und „schwere Masse“ äquivalent sind bzw. es keinen Unterschied zwischen Schwerkraft und Kräften zufolge von Beschleunigung gibt
- Kovarianzprinzip, demzufolge in allen Bezugssystemen dieselben physikalischen Gesetze gelten. Die Anwesenheit von Materie oder Energie verursacht eine Krümmung der Raumzeit. Raum, Zeit und Materie sind untrennbar mit einander verbunden.
Die ART gilt als grundsätzlich richtige aber unvollständige Theorie, ähnlich wie man Newtons Theorien als grundsätzlich richtig aber doch nur ein Spezialfall der SRT bzw. ART verstehen kann.
Unvollständigkeit der ART
Sosehr sich die Allgemeine Relativitätstheorie ART auch bewährt, so versagt sie doch an zwei wichtigen Stellen.
Einerseits an den beiden Krümmungssingularitäten der Astronomie, weil sie dort keine Verknüpfung zwischen Energie bzw. Masse und der Krümmung der Raumzeit machen kann:
- Raumzeit-Singularität: Im Zentrum eines schwarzen Lochs
- Urknall-Singularität: Im unendlich kleinen Universum zum Zeitpunkt des Urknalls
Hier treten mathematisch nicht definierte Zustände (Division durch Null) auf und führen zu den beiden genannten Singularitäten.
Andererseits ist es bis heute noch nicht gelungen, die ART in Einklang mit der Quantenphysik zu bringen und eine Theorie der Quantengravitation zu schaffen.
1960 wurde Stephen Hawking berühmt für den Beweis der notwendigen Existenz von Singularitäten in der ART, und dass die ART daher unvollständig ist und in irgend einer Weise nachgebessert werden muss. Seit 1970 beschäftigte sich Stephen Hawking damit, diese Unzulänglichkeiten der ART durch eine Quantentheorie der Gravitation, also einer Quantisierung der Gravitation, die ohne Singularitäten auskommt, zu beheben.
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Kameraobjektiv
Ein Kameraobjektiv sammelt das Licht, das von einem Motiv reflektiert wird, und fokussiert es mithilfe einer oder mehrerer Linsen auf die Sensorebene, um ein Bild zu erzeugen.
Kriterien für die Wahl des Objektivs beim Kauf
Hier sind die wichtigsten Kriterien für die Wahl eines Objektivs, die jeder Fotograf selbst gewichten muss:
Brennweite
Die Brennweite (f) wird in Millimetern (mm) gemessen. Sie bestimmt den Bildwinkel und beeinflusst die Perspektive, die im Bild dargestellt wird. Die Angabe der Brennweite, die am Objektiv steht, gilt ausschließlich für Kameras mit einem Vollformat-Sensor. Bei Kameras, die etwa aus Kostengründen einen kleineren Sensor haben, verlängert sich die Brennweite und muss mit Hilfe eines Crop-Faktors umgerechnet werden. Bei einem Sensor im APS-Format verlängert sich die Brennweite um den Crop-Faktor von 1,6. Aus einem 50 mm Normalobjektiv wird gemäß 50mm *1,6= 80 mm, somit ein leichtes Teleobjektiv.
Objektive werden in verschiedene Kategorien eingeteilt:
- Fisheye-Objektive: Brennweite unter 10 mm, erzeugen ein kreisförmiges Bild.
- Weitwinkel-Objektive: Brennweite zwischen 10 und 40 mm.
- Normalobjektive: Brennweite zwischen 40 und 55 mm.
- Teleobjektive: Brennweite über 55 mm.
Maximale Blendenöffnung
Die maximale Blendenöffnung, auch Offenblende genannt, wird durch einen Bruch angegeben, der das Verhältnis zwischen der Brennweite f in mm und dem maximalen von der Blende freigegebenen Durchmesser des Objektivs beschreibt. Die Blende bestimmt, wie viel Licht auf den Kamerasensor fällt und beeinflusst die Schärfentiefe, welche nicht nur ein technischer, sondern auch ein gestalterischer Aspekt ist.
Beispiel:
- Canon RF 50mm f/1,2: Fläche, durch die Licht auf den Sensor fällt sei100%.
- Canon RF 50mm f/1,8: Fläche, durch die Licht auf den Sensor fällt nur mehr 50%.
- Canon EF 50mm f/2,5: Fläche, durch die Licht auf den Sensor fällt sogar nur mehr 25%.
Das bedeutet, dass die Fläche, durch die Licht auf den Sensor fällt, beim f/1,8 Objektiv nur 50 % und beim f/2,5 sogar nur 25% der Fläche vom f/1,2 Objektivs beträgt.
Umgekehrt formuliert, muss man beim f/2,5 Objektiv viermal so lange, bzw. beim f/1,8 Objektiv doppelt so lange belichten, als beim f/1,2 Objektiv, damit bei gleicher Helligkeit des Motivs dieselbe Anzahl an Photonen auf die Fotodiode im Kamerasensor fallen kann und folglich den gleichen Helligkeitswert in der Bilddatei erzeugen kann.
Gewicht vom Objektiv
Das Gewicht eines Objektivs kann entscheidend dafür sein, ob man es zu einem fotografischen Anlass mitnimmt oder es ungenutzt zu Hause liegen bleibt.
Beispiel:
- Canon RF 50mm f/1,8 STM: 160 g
- Canon RF 50 mm f/1,4 L VCM : 580 g
- Canon RF 50mm f/1,2 L USM: 950 g
Autofokus
Objektive mit Autofokus nutzen einen Motor zur Unterstützung der Fokussierung. Ältere oder spezielle Objektive wie Spiegelteleobjektive oder Tilt-Shift-Objektive erfordern hingegen eine manuelle Fokussierung.
Bildstabilisierung durch das Objektiv
Einige Objektive verfügen über eine integrierte Bildstabilisierung, die die Stabilisierung im Kameragehäuse ergänzt.
Filtergewinde vom Objektiv
Der Durchmesser des Filtergewindes wird in mm angegeben und beeinflusst die Verwendung von aufgeschraubten Filtern. Bei Ultraweitwinkel- oder Fischaugen-Objektiven kann aufgrund der Krümmung der Frontlinse kein Filter aufgeschraubt werden. Alternativ kann bei manchen dieser Objektive ein Filter direkt vor dem Kameraanschluss in den Strahlengang geschoben werden.
Kosten vom Objektiv
Die Kosten für Objektive variieren erheblich. Beispiele (Stand Oktober 2024):
- Canon RF 50mm f/1,8 STM: ca. 185 €
- Canon RF 50 mm f/1,4 L VCM: ca. 1.599 €
- Canon RF 50mm f/1,2 L USM: ca. 2.480 €
Kriterien für die Wahl des Objektivs bei der Aufnahme
Wahl des Bildausschnitts
Auswahl eines Objektivs mit entsprechender Brennweite (Tele-, Normal-, Weitwinkel- oder Fishey-Objektiv).
Fokussierung
Einstellung der Entfernung zwischen Objektiv und Sensorebene.
Blendenwahl
Die Blende wird so gewählt, dass sie zusammen mit Belichtungszeit und ISO-Wert eine korrekte Belichtung sowie die gewünschte Tiefenschärfe und ein ansprechendes Bouquet (Unschärfe im Hintergrund) erzielt.
Wahl zwischen Zoom- vs. Festbrennweiten-Objektiv
Man unterscheidet zwischen Objektiven mit fester und verstellbarer Brennweite (Zoom-Objektive). Zoom-Objektive bieten den Vorteil, den Bildausschnitt zu verändern, ohne den Standort zu wechseln. Nachteil sind oft das höhere Gewicht, eine geringere Lichtstärke und eine reduzierte Abbildungsqualität im Vergleich zu Festbrennweiten. Festbrennweiten verfügen oft über eine größere Offenblende, mit der man ein gefälligeres Bokeh erreichen kann.
Sehwinkel des Auges und Bildwinkel des Normalobjektivs
Der Bildwinkel beim Sehen mit beiden Augen beträgt etwa 170° horizontal und 110° vertikal, da das menschliche Sehfeld durch die Position der Augen und die Fähigkeit des Gehirns, Informationen aus beiden Augen zu kombinieren, bestimmt wird. Bei starr gerade aus gerichteten Augen ist aber nur ein kleiner Teil des Bildwinkels scharf. In der Praxis des Sehen bewegt sich Augapfel und fokussiert ständig auf andere Bildteile. Diese weitreichende Sicht ermöglicht es uns, Bewegungen und Umgebungen umfassend wahrzunehmen, was für die Orientierung und Interaktion mit der Umwelt entscheidend ist.
Im Gegensatz dazu hat ein 50mm Normalobjektiv einen wesentlich kleineren Bildwinkel (39,6° horizontal, 27° vertikal und 46,8° diagonal). Trotz dieser Einschränkung empfinden wir Bilder, die mit einem Normalobjektiv aufgenommen werden, oft als gleichwertig oder "natürlich", weil die Brennweite dieses Objektivs in etwa dem menschlichen Sichtfeld entspricht und der der Perspektive unserer Augen ähnlich ist, insbesondere in Bezug auf die Proportionen und die Tiefenwahrnehmung.
Zusätzlich kann der kleinere Bildwinkel des Objektivs den Vorteil haben, dass er eine selektive Fokussierung ermöglicht. Der Fotograf kann sich auf bestimmte Motive konzentrieren und den Hintergrund unscharf gestalten, was dem Bild eine gewisse Tiefe und einen ansprechenden Look verleiht. Diese Möglichkeit zur Komposition trägt zur Natürlichkeit der Aufnahme bei, da sie den Fokus auf das Wesentliche lenkt, während das breite Sehfeld des menschlichen Auges samt dem permanenten umfokussieren dazu dient, die Umgebung zu erfassen und Informationen zu verarbeiten.
Wahl des Bildausschnitts
Durch die Wahl der Brennweite und den Abstand zum Motiv lässt sich der sichtbare Bildausschnitt festlegen:
- Weitwinkel: Eignet sich für Landschaften oder Architekturaufnahmen, wobei das Hauptmotiv in einem großen Kontext gezeigt wird. (Englisch: "Extreme Wide Shot")
- Totale: Zeigt das Motiv und dessen Umgebung in einem weiten Bildausschnitt. (Englisch: "Establishing Shot" oder "Wide Shot")
- Halbtotale: Das Motiv wird in einem mittleren Ausschnitt gezeigt, sodass die Umgebung sichtbar bleibt. (Englisch: "Full Shot" oder "Complete View")
- Amerikanische Einstellung: Zeigt eine Person vom Kopf bis zur Oberschenkelhöhe. (Englisch: "American Cut")
- Halbnah: Das Motiv ist von der Taille oder Hüfte aufwärts sichtbar, mit Teilen der Umgebung im Bild. (Englisch: "Medium Cut")
- Nahaufnahme: Zeigt das Motiv in einem engen Bildausschnitt, fokussiert auf das Gesicht. (Englisch: "Shoulder Close-Up")
- Großaufnahme: Person wird vom Kopf bis zu den Schultern gezeigt, auch für Objekte wie Blumenvasen geeignet. (Englisch: "Close-Up")
- Detailaufnahme: Fokussiert auf ein spezifisches Detail des Motivs, etwa die Armbanduhr. (Englisch: "Extreme Close Up")
- Italienische Einstellung: Zeigt nur die Augenpartie des Darstellers. (Englisch: "Italian Shot")
Abbildungsfehler von Objektiven
Die Qualität eines Objektivs hängt von seiner Fähigkeit ab, verschiedene Abbildungsfehler zu kompensieren:
Verzeichnung
Unerwünschte Veränderungen des Abbildungsmaßstabs. Man unterscheidet zwischen kissen- und tonnenförmigen Verzeichnungen, die insbesondere bei Weitwinkelobjektiven auftreten.
Aberration
Man unterscheidet zwischen
- Sphärische Aberration: Parallel einfallende Lichtstrahlen treffen nicht an einem einzigen Brennpunkt zusammen, was zu Unschärfe führt. Abblenden kann diesen Effekt reduzieren.
- Chromatische Aberration: Farbsäume an Konturen aufgrund unterschiedlicher Brennpunkte für verschiedene Wellenlängen. Diese können in der Nachbearbeitung korrigiert werden.
Vignettierung
Verdunkelung an den Bildrändern, die durch Abblenden reduziert werden kann.
Zusammensetzung des Universums gemäß dem Standardmodell der Kosmologie
Gemäß dem Standardmodell der Kosmologie setzt sich das Universum aus 4 Komponenten zusammen. Lediglich über 4% der gewöhnlichen Materie haben wir physikalische Theorien, die auch einer experimentellen Überprüfung standgehalten haben.
- ca. 73% Dunkler Energie
- ca. 23% Dunkler Materie
- ca. 4% Gewöhnliche Materie
- ca. 0,3% Neutrinos
Gewöhnliche Materie im Standardmodell der Kosmologie
Wenn man heute von Materieteilchen spricht, also von den 4% alltäglicher Materie, dann meint man damit die
- 6 Leptonen: Elektron + Elektron-Neutrino, Myon + Myon-Neutrino, Tau + Tau-Neutrino
- 6 Quarks (mit den "Flavors"): Up + Down, Charm + Strange, Top + Bottom, welche die Protonen und Neutronen aufbauen
Lediglich die beiden leichtesten Quarks „up“ und „down“ und die beiden leichtesten Leptonen „Elektron“ und „Elektron-Neutrino“ sind stabil. D.h. es gibt 6+6=12 Materieteilchen, nur 4 davon sind stabil und nur 3 davon bauen die Elemente auf, aus denen unsere Welt besteht.
Unser physikalisches Wissen über die gewöhnliche Materie ist in der
- klassischen Mechanik (Gallilei, Newton) samt Elektrodynamik (Maxwell) und der Thermodynamik (Carnot)
- Allgemeinen Relativitätstheorie (Einstein)
- Quantenphysik (Planck, Heisenberg, Schrödinger, Feynman, Higgs)
zusammengefasst.
Alle Objekte die aus gewöhnlicher Materie bestehen, üben eine Anziehungskraft auf einander aus. Im Zentrum unserer Galaxie befindet sich das super massereiche Schwarze Loch Sagittarisu A, welches 4 Millionen Mal die Masse unserer Sonne hat, aber nur deren 17-fachen Durchmesser. Es wird von Sternen umkreist, die es durch seine Gravitation an sich bindet.
Dunkle Materie im Standardmodell der Kosmologie
Die beobachtbare gewöhnliche Materie, also inklusive der Schwarzen Löcher, reicht aber nicht aus, um einerseits die Geschwindigkeit zu erklären, mit welcher die Sterne um das Zentrum der Galaxien kreisen und andererseits den Gravitationslinseneffekt zu erklären.
Es wird daher eine zusätzliche - dunkle - Materie mit einer positiv wirkenden Gravitationskraft postuliert. Die dunkle Materie unterstützt dabei die Bildung von Strukturen im Universum, wie Sonnensysteme, Galaxien, Galaxienhaufen und Galaxien-Superhaufen bis hin zu den größten bekannten Strukturen im Universum, den Großen Quasargruppen mit einer Ausdehnung von 4 Milliarden Lichtjahren, zwischen denen sich große Leerräume erstrecken.
Die Dunkle Materie stammt von Teilchen mit Masse, setzt sich aber nicht aus Teilchen der gewöhnlichen Materie des Standardmodells der Teilchenphysik zusammen.
Die aussichtsreichsten Kandidaten sind die im supersymmetrischen Standardmodell postulierten „leichten Superpartner“, deren Masse bei 100 Protonenmassen liegen dürfte. Ihre Masse stammt aus Mechanismen jenseits des Higgs-Mechanismus. D.h. es handelt sich hier nicht um Schwarze Löcher oder um ausgebrannte Sonnen, die erkaltet sind.
Die Dunkle Materie, wäre neben den 6 Leptonen und den 6 Quarks eine dritte Materieteilchenart. Auf ihre Existenz schließt man auf Grund der Wirkung ihrer Gravitation auf sichtbare Himmelsobjekte. Sie muss aus Materieteilchen bestehen, da sie Klumpen in der Größe von Galaxien bildet.
Dunkle Energie im Standardmodell der Kosmologie
Messungen der Rotverschiebung von Galaxien haben gezeigt, dass die Geschwindigkeit mit der sich das Universum ausdehnt, nicht wie erwartet, zufolge der Wirkung der Gravitation abnimmt, sondern im Gegenteil zunimmt, als würde zwischen den Strukturen (Galaxien) eine Anti-Gravitation wirken.
Die dunkle Energie stellt ein verteiltes Energiefeld dar, welches auf Grund einer negativ wirkenden Gravitationskraft die Expansion vom Universum beschleunigt.
Die dunkle Energie scheint strukturlos, gleichmäßig im Raum verteilt und zeitlich konstant zu sein. D.h.: Sie besteht aus keinen Teilchen, die sich etwa zu Galaxien zusammenklumpen könnten. Sie könnte, ähnlich dem Higgs Feld ein skalares Feld sein, das zur inflationären Ausdehnung des Universums beigetragen hat, und im Unterschied zum Higgs-Feld zwischenzeitlich stark ausgedünnt ist. Ein solches Feld wird „Quintessenz“ genannt.
Das wichtigste Indiz für ihre Existenz ist die Tatsache, dass sich die Expansion des Universums, nicht wie erwartet unter der Wirkung der Gravitation verlangsamt, sonder im Gegenteil, beschleunigt.
Während die physikalische Natur der dunklen Energie unklar ist, hat sie bereits Einstein in seiner ART (1915) als „Lambda-Term oder kosmologische Konstante“ eingeführt.
Ein negatives Lambda verstärkt die Gravitation, ein positives Lambda wirkt in Form einer „Anti-Gravitation“, ebenso wie die dunkle Energie.
Neutrinos im Standardmodell der Kosmologie
Neutrinos sind elektrisch neutrale Teilchen, die eine sehr kleine, von null verschiedene, Ruhemasse besitzen.
1930 postulierte sie der Physiker Pauli, um den Energie- und Drehimpulserhaltungssatz im Beta-Zerfall aufrecht erhalten zu können. Neutrinos galten ursprünglich als masselos. 1967 gelang im Davis-Experiment (Nobelpreis 2002) der Nachweis der Existenz von Elektronneutrinos. Seit den 1990er belegten Experimente, dass Neutrinos eine Masse haben (Nobelpreis 2015), wobei die Neutrinomasse weniger als ein Millionstel der nächstgrößeren Masse, der des Elektrons, entspricht. Die Neutrinos sind somit die leichtesten Teilchen im Standardmodell. 2022 geht man von einer Masse von unter 0,8 Elektronenvolt aus. Auch die Neutrinomasse erklärt sich aus dem Higgs-Mechanismus, da auch sie den schwachen Isospin als Ladung tragen. Neutrinos sind die bei weitem häufigsten massetragenden Teilchen im Universum. Alleine von unserer Sonne stammend, durchdringen ca. 70 Milliarden Neutrinos pro Sekunde die Fläche von 1 cm2.
Masse (gemäß Isaac Newton, 1687)
Masse ist eine scheinbar alltägliche Eigenschaft der Materie. Die Größe der Masse wird durch ihre Dichtigkeit und ihr Volumen vereint gemessen.
Schwere Masse
Die "Schwere Masse" ist ein Maß für die Gravitationskraft die von einem Körper ausgeht. Masse ist jene Eigenschaft von Materie, die für den Aufbau eines Schwerefeldes verantwortlich ist. Man spricht von der „Schweren Masse“. Zwei Körper haben die gleiche (schwere) Massen, wenn sie auf je einer Seite einer Balkenwaage liegend diese nicht aus der Gleichgewichtslage bewegen.
Äquivalente Anziehungskräfte zwischen 2 Massen, gemäß dem newtonschen Gravitationsgesetz:
\({F_1} = {F_2} = G \cdot \dfrac{{{m_1} \cdot {m_2}}}{{{r^2}}}\)
Träge Masse
Die "Träge Masse" ist ein Maß dafür, wie sehr sich ein Körper einer Bewegungsänderung widersetzt. Masse ist aber auch jene Eigenschaft von Materie, die das Einwirken einer äußeren Kraft erfordert, um die Bewegung eines Objekts in Richtung und/oder Geschwindigkeit zu ändern. Man spricht von der „Trägen Masse“. Zwei Körper haben die gleiche (träge) Masse, wenn sie durch die gleiche Kraft gleich beschleunigt werden.
\(\overrightarrow F = m \cdot \overrightarrow a \)
Äquivalenzprinzip von träger und schwerer Masse
Zunächst einmal gibt es keinen Grund für die Annahme, dass ein Körper, der zweimal so viel Krafteinwirkung für eine Änderung seines Bewegungszustands erfordert, auch ein zweimal so großes Gravitationsfeld aufbaut. Dennoch ist es so! "Träge Masse" (als Maß wie sehr sich ein Körper einer Bewegungsänderung widersetzt) ist gleichwertig der "Schwere Masse" (als Maß für die Gravitationskraft die von einem Körper ausgeht). Man nennt dies das Äquivalenzprinzip von träger und schwerer Masse. Es ist ein wichtiger Aspekt in Einsteins Weiterentwicklung von der Speziellen zur Allgemeinen Relativitätstheorie.
Weitere Sichtweisen auf die Masse findest du auf maths2mind unter folgenden Tags:
- Masse (gemäß Einstein)
- Masse (gemäß Higgs)