Matrizen
Hier findest du folgende Inhalte
Formeln
Zahlen in Listenform
In der Algebra ist es oft zweckmäßig mit Zahlen in Listenform zu arbeiten. Wir fassen nachfolgen kurz die diesbezüglich wichtigsten Listenformen für Zahlen zusammen. Wir verwenden dabei folgende Sprachregelung:
- Elemente: Mengen setzen sich aus Elementen zusammen.
- Koeffizienten eines Gleichungssystems: Koeffizienten sind unveränderliche Zahlen, die als Faktor vor den Variablen einer Gleichung stehen
- Komponenten einer Matrix: Matrizen setzen sich aus Komponenten zusammen. (Obwohl hier leider oft "Element" statt "Komponente" verwendet wird.) Die Komponenten aikder Matrix entsprechen den Koeffizienten aikim linearen Gleichungssystem
- Index der Komponenten einer Matrix: Die Position jeder Komponente in der Matrize wird durch zwei Indizes i (=Zeile) und k (=Spalte) beschrieben.
- Koeffizientenmatrix: Ein lineares Gleichungssystem in n Unbekannten und m Gleichungen lässt sich als Koeffizientenmatrix anschreiben. Die Komponenten aikder Matrix entsprechen den Koeffizienten aikim linearen Gleichungssystem
- Gleichungsmatrix: Die Gleichungsmatrix erweitert die Koeffizientenmatrix um eine weitere Spalte nach rechts. In dieser Spalte werden die Konstanten gemäß der "rechten Seite" vom linearen Gleichungssystem geschrieben.
Menge
Eine Menge stellt die Zusammenfassung von mehreren Elementen zu einer Gesamtheit dar. Man verwendet geschwungene Klammern und separiert die einzelnen Elemente durch Beistriche. Die Reihenfolge in der die Elemente angeschrieben werden spielt keine Rolle. {1,2,3}={3,1,2}}={2,3,1}. Entscheidend ist, ob ein Element Teil der Menge ist oder ob nicht. Das mehrfaches Anschreiben von ein und demselben Element einer Menge ist daher nicht sinnvoll. {1,1,2,2,3,3}={1,2,3}
Zusammenhang: Tupel - Vektor - Matrix - Tensor
Tupel, Vektor, Matrix oder Tensor sind verschieden komplexe Schreibweisen für Objekte, die zu einer Liste, unter Berücksichtigung der Reihenfolge, zusammengefasst wurden. Dadurch unterscheiden sie sich von einer Menge, bei denen es nicht auf die Reihenfolge der Elemente ankommt.
Tupel
Ein Tupel stellt die Zusammenfassung von mehreren Komponenten zu einer Liste dar. Man verwendet runde Klammern und separiert die einzelnen Komponenten durch Beistriche. Die Reihenfolge in der die Komponenten angeschrieben werden spielt eine wesentliche Rolle. (1,2,3)≠(3,2,1). Das mehrfaches Anschreiben von gleichlautenden Komponenten hat eine Bedeutung. (1,1,2,2,3,3)≠(1,2,3). Jede Komponente im Tupel hat ihren eindeutigen Platz.
\(\left( {\begin{array}{*{20}{c}} {{a_1}}\\ {...}\\ {{a_n}} \end{array}} \right)\)
- Ein 2er Tupel wird auch geordnetes Paar genannt; z.B.: (x, f(x))
- Ein 3er Tupel wird auch Trippel genannt; z.B.: (x1,y1,z1)
- Ein 4er Tupel wird auch Quadrupel genannt; z.B.: (x1,y1,z1,t1)
Vektor
Vektoren sind eindimensionale Listen von Zahlen, wobei die Komponenten des Vektors in Form von Zeilen- und als Spaltenvektor angeschrieben werden können. Die Gesamtheit der Komponenten eines Vektors (der Klammerausdruck, der den Vektor repräsentiert) entsprechen daher einem Tupel. Die Anzahl der Komponenten eines Vektors stimmt mit der Dimension des Vektors überein. (x1,y1,z1) repräsentiert also einen 3-dimensionalen Vektor. Die Reihenfolge in der die Komponenten angeschrieben werden spielt eine wesentliche Rolle dabei, in welche Richtung der Vektor zeigt
\(\overrightarrow a = \left( {\begin{array}{*{20}{c}} {{a_1}}\\ {...}\\ {{a_n}} \end{array}} \right)\)
- an: Die Werte an bezeichnet man als die Komponenten des Vektors.
- n: Also die Anzahl der Komponenten eines Vektors, bezeichnet man als die Dimension des Vektors.
Aus der Geometrie sind uns
- 2-dimeonsionale Vektoren (ebene Geometrie)
- 3-dimensionele Vektoren (räumliche Geometrie) vertraut.
Aus der Physik, speziell der speziellen Relativitätstheorie, sind uns
- 4-dimensionele Tupel vertraut.
- Ihre ersten drei Dimensionen beschreiben den Raum,
- ihre vierte Dimension beschreibt die Zeit.
Matrix
Matrizen sind zweidimensionale Listen von Zahlen. Eine Matrix mit m Zeilen und n Spalten ist eine Matrix der m x n ten Ordnung. Die Komponente aik mit den Indizes ik steht in der i-ten Zeile und in der k-ten Spalte. Auch die Zeilen oder Spalten einer Matrix sind Tupel.
\(\left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right)\)
Lineares Gleichungssystem in Matrixschreibweise
→ Ein lineares Gleichungssystem mit m Gleichungen in n Unbekannten kann mit Hilfe einer Koeffizientenmatrix und zweier Spaltenvektoren angeschrieben werden.
\(\begin{array}{*{20}{c}} {{a_{11}} \cdot {x_1}}& + &{{a_{12}} \cdot {x_2}}& + &{...}& + &{{a_{1n}} \cdot {x_n}}& = &{{b_1}}\\ {{a_{21}} \cdot {x_1}}& + &{{a_{22}} \cdot {x_2}}& + &{...}& + &{{a_{2n}} \cdot {x_n}}& = &{{b_2}}\\ {...}& + &{...}& + &{...}& + &{...}& = &{...}\\ {{a_{m1}} \cdot {x_1}}& + &{{a_{m2}} \cdot {x_2}}& + &{...}& + &{{a_{mn}} \cdot {x_n}}& = &{{b_m}} \end{array}\)
Koeffizientenmatrix
Die Koeffizientenmatrix besteht aus den Koeffizienten des linearen Gleichungssystems. Der 1. Spaltenvektor besteht aus den Komponenten von der Variablen x, während die rechte Seite der Gleichungen den 2. Spaltenvektor bildet.
\(\left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{...}&{{a_{1n}}}\\ {{a_{12}}}&{{a_{22}}}&{...}&{{a_{2n}}}\\ {...}&{...}&{...}&{...}\\ {{a_{_{m1}}}}&{{a_{m2}}}&{...}&{{a_{mn}}} \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ {...}\\ {{x_m}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {{b_1}}\\ {{b_2}}\\ {...}\\ {{b_m}} \end{array}} \right) \Leftrightarrow A \cdot \overrightarrow x = \overrightarrow b \)
Wenn die inverse Matrix A-1 existiert, dann kann man nach x wie folgt auflösen: \(\overrightarrow x = {A^{ - 1}} \cdot \overrightarrow b\)
Gleichungsmatrix
Ein lineares Gleichungssystem mit m Gleichungen in n Unbekannten kann aber auch mit Hilfe einer sogenannten Gleichungsmatrix angeschrieben werden. Die Gleichungsmatrix erweitert die Koeffizeintenmatrix um eine zusätzliche, durch einen lotrechten Strich abgetrennte Spalte, in der die Konstanten bi der rechten Seite vom zugrunde liegenden linearen Gleichungssystem stehen
\(\left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{...}&{{a_{1n}}}&{\left| {{b_1}} \right.}\\ {{a_{21}}}&{{a_{22}}}&{...}&{{a_{2n}}}&{\left| {{b_2}} \right.}\\ {...}&{...}&{...}&{...}&{...}\\ {{a_{m1}}}&{{a_{m2}}}&{...}&{{a_{mn}}}&{\left| {{b_m}} \right.} \end{array}} \right)\)
Determinante
Determinanten sind Zahlen(werte) die man (ausschließlich) einer quadratischen Matrix zuordnen kann und die aus deren Komponenten berechnet werden.
Tensor
Ein Tensor ist ein mathematisches Objekt, welches Komponenten hat. Jede Tensorkomponente kann eine Funktion oder eine Zahl sein. Tensoren definieren sich über die Weise, in der ihre Komponenten transformieren.
- Ein Skalar ist ein Tensor der 0. Stufe
- Ein Vektor ist ein Tensor der 1. Stufe
- Eine 3 x 3 Matrix ist ein Tensor der 2. Stufe, dieser besteht also aus 9 Komponenten. Die Komponenten eines Tensors 2. Stufe transformieren
- kontravariant
- kovariant
- gemischt
- Aus der Physik, speziell der allgemeinen Relativitätstheorie, sind uns mehrdimensionale Tupel vertraut.
Geht bei einer Koordinatentransformation die Komponente \({x^a}\) in \({x^{a'}}\) über gemäß
-
kontravariante \({T^{a'b'}} = \dfrac{{\partial {x^{a'}}}}{{\partial {x^a}}}\dfrac{{\partial {x^{b'}}}}{{\partial {x^b}}}{T^{ab}}\)
-
kovariante \({T_{a'b'}} = \dfrac{{\partial {x^a}}}{{\partial {x^{a'}}}}\dfrac{{\partial {x^b}}}{{\partial {x^{b'}}}}{T_{ab}}\)
-
gemischte \({T^{a'}}_{b'} = \dfrac{{\partial {x^{a'}}}}{{\partial {x^a}}}\dfrac{{\partial {x^b}}}{{\partial {x^{b'}}}}{T^a}_b\)
so ist T ein Tensor 2. Stufe.
Schon den nächsten Badeurlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Damit niemand mehr bei Mathe in's Schwimmen kommt!
Matrix (Plural: Matrizen)
Eine (m·n) Matrix ist ein rechteckiges Zahlenschema, von m Zeilen und n Spalten, zwischen großen (runden) Klammern. Die Position der Komponente aik einer Matrix wird mit einem Doppelindex gekennzeichnet. Die Komponente aik steht in der i-ten Zeile und in der k-ten Spalte. Merkregel für die Reihenfolge der Indizes: "Zuerst Zeile - Spalte später"
\(A = \left( {\matrix{ {{a_{11}}} & {{a_{12}}} & {...} & {{a_{1n}}} \cr {{a_{21}}} & {{a_{22}}} & {...} & {{a_{2n}}} \cr {...} & {...} & {...} & {...} \cr {{a_{m1}}} & {{a_{m2}}} & {...} & {{a_{mn}}} \cr } } \right)\)
Ordnung einer Matrix
Die Ordnung einer Matrix ergibt sich aus der Anzahl der Zeilen m und der Anzahl der Spalten n. Die Ordnung einer solchen Matrix ist dann m x n. Sie repräsentiert die Koeffizienten eines linearen Gleichungssystems mit m Gleichungen in n Unbekannten
Einzeilige bzw. einspaltige Matrix
Eine einzeilige bzw. einspaltige Matrix stellt einen Zeilen- bzw. Spaltenvektor dar
- Zeilenvektor \(\left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}} \end{array}} \right){\rm{ bzw}}{\rm{. }}\left( {\begin{array}{*{20}{c}} {{a_{21}}}&{{a_{22}}} \end{array}} \right)\)
- Spaltenvektor \(\left( {\begin{array}{*{20}{c}} {{a_{11}}}\\ {{a_{21}}} \end{array}} \right){\rm{ bzw}}{\rm{. }}\left( {\begin{array}{*{20}{c}} {{a_{12}}}\\ {{a_{22}}} \end{array}} \right)\)
Gleiche Matrizen
Zwei Matrizen sind gleich, wenn sie in der Anzahl der Zeilen und der Spalten übereinstimmen und auch jede einzelne Komponente gleich ist.
\({a_{ij}} = {b_{ij}}\)
Quadratische Matrix
besitzt die gleiche Anzahl an Zeilen und Spalten
\(A = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}\\ {{a_{21}}}&{{a_{22}}} \end{array}} \right)\)
Existiert für eine (quadratische) Matrix A eine inverse Matrix A-1 so nennt man A eine reguläre Matrix, andernfalls nennt man A eine singuläre Matrix.
Hauptdiagonale einer Matrix
Die Komponenten einer Matrix für die m=n gilt, bilden die Hauptdiagonale einer Matrix
\(A = \left( {\begin{array}{*{20}{c}} {{a_{11}}}& \cdot & \cdot \\ \cdot &{{a_{22}}}& \cdot \\ \cdot & \cdot &{{a_{33}}} \end{array}} \right)\)
Diagonalmatrix
Alle Komponenten einer Diagonalmatrix, ausgenommen jene Komponenten die auf der Hauptdiagonalen liegen, sind Null
\(A = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&0&0&0\\ 0&{{a_{22}}}&0&0\\ 0&0&{{a_{33}}}&0\\ 0&0&{...}&{{a_{44}}} \end{array}} \right)\)
Symmetrische Matrix
Eine quadratische Matrix heißt symmetrische Matrix, wenn sie bei Spiegelung an der Hauptdiagonale (links oben → rechts unten) in sich selbst übergeht (d.h. unverändert bleibt). In diesem Sonderfall stimmt die Ausgangsmatrix mit ihrer Transponierten überein.
\(\left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{21}}}&{{a_{31}}}&{{a_{41}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{32}}}&{{a_{42}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}}&{{a_{43}}}\\ {{a_{41}}}&{{a_{42}}}&{{a_{43}}}&{{a_{44}}} \end{array}} \right)\)
Nullmatrix
Bei einer Nullmatrix sind sämtliche Komponenten null.
\(A = \left( {\matrix{ 0 & 0 & {...} & 0 \cr 0 & 0 & {...} & 0 \cr {...} & {...} & {...} & {...} \cr 0 & 0 & {...} & 0 \cr } } \right)\)
Einheitsmatrix
Die Einheitsmatrix ist eine quadratische Diagonalmatrix (m=n), deren „Diagonal-Komponenten“ gleich 1 sind und bei der alle anderen Komponenten gleich 0 sind
\(A = \left( {\matrix{ 1 & 0 & {...} & 0 \cr 0 & 1 & {...} & 0 \cr {...} & {...} & {...} & {...} \cr 0 & 0 & {...} & 1 \cr } } \right)\)
Dreiecksmatrix
Dreiecksmatrizen sind quadratische Matrizen, deren Komponenten entweder oberhalb oder unterhalb der Hauptdiagonalen nur aus Nullen bestehen.
- Damit, insbesondere auf Grund der vielen Nullen, besitzen sie Eigenschaften, die es einfach machen, mit ihnen zu rechnen.
- Jede quadratische Matrix kann mittels einer Permutationsmatrix in das Produkt zweier Dreicksmatrizen zerlegt werden.
- Sind sie invertierbar und die zugehörigen linearen Gleichungssysteme haben genau eine Lösung.
- Die Determinante einer Dreiecksmatrix ist gleich dem Produkt jener Komponenten, die auf der Hauptdiagonalen liegen
\({A_{oben}} = {A_{unten}} = \det {A_{oben}} = \det {A_{unten}} = \prod\limits_i {{a_{ii}}} \)
obere Dreiecksmatrix
Bei einer oberen Dreiecksmatrix sind alle Komponenten die unterhalb der Hauptdiagonalen liegen null \({a_{mn}} = 0{\text{ für }}m > n\)
\(A = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ 0&{{a_{22}}}&{{a_{23}}}\\ 0&0&{{a_{33}}} \end{array}} \right)\)
untere Dreiecksmatrix
Bei einer unteren Dreiecksmatrix sind alle Komponenten die oberhalb der Hauptdiagonalen liegen null \({a_{mn}} = 0{\text{ für }}n > m\)
\(A = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&0&0\\ {{a_{21}}}&{{a_{22}}}&0\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right)\)
Inverse Matrix
Eine inverse Matrix A-1 liegt vor, wenn das Produkt einer Matrix A mit mit einer anderen Matrix A-1 die Einheitsmatrix I ergibt
\(A \cdot {A^{ - 1}} = {A^{ - 1}} \cdot A = I\)
- Eine inverse Matrix ist nur für quadratische Matrizen definiert. Es existiert aber nicht für jede quadratische Matrix eine inverse Matrix.
- Eine Matrix A heißt invertierbar, falls sie eine inverse Matrix A-1 besitzt. Andernfalls heißt sie singulär.
- Existiert eine inverse Matrix, so ist diese ebenfalls invertierbar. Die Inverse der inversen Matrix ist wieder die Matrix selbst \({\left( {{A^{ - 1}}} \right)^{ - 1}} = A\)
- Die inverse Matrix der transponierten Matrix entspricht der Transponierten der inversen Matrix \({\left( {{A^T}} \right)^{ - 1}} = {\left( {{A^{ - 1}}} \right)^T}\)
- Wenn A eine inverse Matrix A-1 besitzt, dann ist die Determinante von A auf jeden Fall ungleich Null.
- Die Berechnung der inversen Matrix ist kompliziert. Bei einer 3x3 Matrix muss man 9 lineare Gleichungen in 9 Unbekannten lösen.
Für die Berechnung der inversen Matrix bietet sich das Gauß-Jordan Algorithmus, Adjunkten oder die Cramersche Regel an.
Gauß-Jordan Algorithmus
Der Gauß-Jordan Algorithmus dient zur Berechnung der inversen Matrix A-1 zu einer gegebenen Matrix A
- Man schreibt wie folgt an: \(A \cdot {A^{ - 1}} = E\)
- Man bildet die Blockmatrix \(\left( {A\left| E \right.} \right) = \left| {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\ {{a_{31}}}&{{a_{32}}}&{{a_{33}}} \end{array}} \right.\left| {\begin{array}{*{20}{c}} 1&0&0\\ 0&1&0\\ 0&0&1 \end{array}} \right|\)
- Anschließend formt man den linken Block der Blockmatrix mit Hilfe vom Gauß-Jordan Algorithmus so um, dass aus der Matrix A die Einheitsmatrix E wird wobei der rechte Block zur inversen Matrix A-1 wird, gemäß \(\left( {E\left| {{A^{ - 1}}} \right.} \right) = \left| {\begin{array}{*{20}{c}} 1&0&0\\ 0&1&0\\ 0&0&1 \end{array}} \right.\left| {\begin{array}{*{20}{c}} {{a_{11}}^{ - 1}}&{{a_{12}}^{ - 1}}&{{a_{13}}^{ - 1}}\\ {{a_{21}}^{ - 1}}&{{a_{22}}^{ - 1}}&{{a_{23}}^{ - 1}}\\ {{a_{31}}^{ - 1}}&{{a_{32}}^{ - 1}}&{{a_{33}}^{ - 1}} \end{array}} \right|\)
Transponierte Matrix
Wenn man in einer beliebigen \(m \times n\) Matrix A die Zeilen und die Spalten vertauscht, so erhält man die transponierte oder gespiegelte oder gestürzte \(n \times m\) Matrix AT.
\(\eqalign{ & A = \left( {\matrix{ {{a_{11}}} & {{a_{12}}} & {...} & {{a_{1n}}} \cr {{a_{21}}} & {{a_{22}}} & {...} & {{a_{2n}}} \cr {...} & {...} & {...} & {...} \cr {{a_{m1}}} & {{a_{m2}}} & {...} & {{a_{mn}}} \cr } } \right) \cr & \cr & {A^T} = \left( {\matrix{ {{a_{11}}} & {{a_{21}}} & {...} & {{a_{m1}}} \cr {{a_{12}}} & {{a_{22}}} & {...} & {{a_{m2}}} \cr {...} & {...} & {...} & {...} \cr {{a_{1n}}} & {{a_{2n}}} & {...} & {{a_{mn}}} \cr } } \right) \cr}\)
Aus der 1. Zeile wird also die 1. Spalte, aus der 2. Zeile wird die 2. Spalte usw.
In der Vektorrechnung wird durch Transposition aus einem Zeilenvektor ein Spaltenvektor und umgekehrt.
Transponierte einer transponierten Matrix
Die Transponierte einer transponierten Matrix ist wieder die Ursprungsmatrix.
\({\left( {{A^T}} \right)^T} = A\)
Matrixalgebra
Matrizen sind zweidimensionale Listen von Zahlen mit denen man rechnen kann
Addition bzw. Subtraktion von Matrizen
Die Addition bzw. Subtraktion von Matrizen (die gleich vielen Zeilen und Spalten haben müssen, die also quadratische Matrizen sind) erfolgt, indem man die Komponenten mit gleichem Index addiert bzw. subtrahiert. Das Resultat ist wieder eine Matrix mit gleich vielen Zeilen und Spalten wie die Summanden bzw. wie Minuend und Subtrahend.
\(A \pm B = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{....}&{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}&{...}&{{a_{2n}}}\\ {...}&{...}&{...}&{...}\\ {{a_{m1}}}&{{a_{m2}}}&{...}&{{a_{mn}}} \end{array}} \right) \pm \left( {\begin{array}{*{20}{c}} {{b_{11}}}&{{b_{12}}}&{....}&{{b_{1n}}}\\ {{b_{21}}}&{{b_{22}}}&{...}&{{b_{2n}}}\\ {...}&{...}&{...}&{...}\\ {{b_{m1}}}&{{b_{m2}}}&{...}&{{b_{mn}}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {{a_{11}} \pm {b_{11}}}&{{a_{12}} \pm {b_{12}}}&{....}&{{a_{1n}} \pm {b_{1n}}}\\ {{a_{21}} \pm {b_{21}}}&{{a_{22}} \pm {b_{22}}}&{...}&{{a_{2n}} \pm {b_{2n}}}\\ {...}&{...}&{...}&{...}\\ {{a_{m1}} \pm {b_{m1}}}&{{a_{m2}} \pm {b_{m2}}}&{...}&{{a_{mn}} \pm {b_{mn}}} \end{array}} \right)\)
Multiplikation einer Matrix A mit einer Zahl k
Eine Matrix A wird mit einer Zahl k multipliziert, indem man jede einzelne Komponente der Matrix mit der Zahl multipliziert.
\(k \cdot A = k \cdot \left( {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{....}&{{a_{1n}}}\\ {{a_{21}}}&{{a_{22}}}&{...}&{{a_{2n}}}\\ {...}&{...}&{...}&{...}\\ {{a_{m1}}}&{{a_{m2}}}&{...}&{{a_{mn}}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {k \cdot {a_{11}}}&{k \cdot {a_{12}}}&{....}&{k \cdot {a_{1n}}}\\ {k \cdot {a_{21}}}&{k \cdot {a_{22}}}&{...}&{k \cdot {a_{2n}}}\\ {...}&{...}&{...}&{...}\\ {k \cdot {a_{m1}}}&{k \cdot {a_{m2}}}&{...}&{k \cdot {a_{mn}}} \end{array}} \right)\)
Multiplikation von Matrizen
- Damit man überhaupt 2 Matrizen mit einander multiplizieren kann, muss die Spaltenanzahl der 1. Matrix gleich groß wie die Zeilenanzahl der 2. Matrix sein. Das Produkt der beiden Matrizen ist wieder eine Matrix, die so viele Zeilen wie die 1. Matrix und so viele Spalten wie die 2. Matrix hat
- Die Komponente cij(also das Element in der i-ten Zeile und der j-ten Spalte) der resultierenden Matrix C errechnet sich aus der Summe aller Produkte der i-ten Zeile von Matrix A und der j-ten Spalte von Matrix B.
- Die Multiplikation von Matrizen ist im allgemeinen nicht kommutativ. \(A \cdot B \ne B \cdot A\)
- Die Einheitsmatrix I ist das neutrale Element der Matrixmultiplikation gemäß: \(A \cdot I = I \cdot A = A\)
- Für 3 Matrizen die man miteinander multiplizieren kann, gilt das Assoziativgesetz gemäß: \(\left( {A \cdot B} \right) \cdot C = A \cdot \left( {B \cdot C} \right)\)
- Es gibt 2 Varianten vom Distributivgesetz:
- links nach rechts: \(A \cdot \left( {B + C} \right) = A \cdot B + A \cdot C\)
- rechts nach links: \(\left( {A + B} \right) \cdot C = A \cdot C + B \cdot C\)
In Matrizenschreibweise ergibt sich:
\(C = A \cdot B = \left( {\begin{array}{*{20}{c}} {{a_{11}}}&{...}&{{a_{1p}}}\\ {...}&{...}&{...}\\ {{a_{i1}}}&{...}&{{a_{ip}}}\\ {...}&{...}&{...}\\ {{a_{m1}}}&{...}&{{a_{mp}}} \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {{b_{11}}}&{...}&{{b_{1j}}}&{...}&{{b_{1n}}}\\ {...}&{...}&{...}&{...}&{...}\\ {{b_{p1}}}&{...}&{{b_{pj}}}&{...}&{{b_{pn}}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {{c_{11}}}&{...}&{{c_{1j}}}&{...}&{{c_{1n}}}\\ {...}&{...}&{...}&{...}&{...}\\ {{c_{i1}}}&{...}&{{c_{ij}}}&{...}&{{c_{in}}}\\ {...}&{...}&{...}&{...}&{...}\\ {{c_{m1}}}&{...}&{{c_{mj}}}&{...}&{{c_{mn}}} \end{array}} \right)\)
mit \(\eqalign{ & {c_{ij}} = {a_{i1}} \cdot {b_{1j}} + {a_{i2}} \cdot {b_{2j}} + ... + {a_{ip}} \cdot {b_{pj}} \cr & {c_{ij}} = \sum\limits_{k = 1}^m {{a_{ik}} \cdot {b_{kj}}} \cr} \)
wobei
A | m x p - Matrix |
B | p x n - Matrix |
C=A•B | m x n - Matrix |
Achtung: Es ist zwar möglich die beiden Matrizen zu multiplizieren, es ist aber nicht möglich A+B oder A-B, also die Summe bzw. die Differenz der beiden Matrizen zu berechnen, da sie unterschiedliche Dimensionen haben.
Potenz einer Matrix
Die n-te Potenz einer Matrix erhält man, indem man die Matrix n mal mit sich selbst multipliziert
\(\eqalign{ & {A^2} = A \cdot A \cr & {A^n} = A \cdot ... \cdot A{\text{ (n - mal multipliziert)}} \cr} \)
Bedarfsmatrizen
Verflechtungsmatrix
Die Verflechtungs- oder Technologie- oder Input-Outputmatrix zeigt die Abhängigkeit von Produkten und Ressourcen.
Für den 1. Zwischenschritt eines zweistufigen Produktionsprozesses stellt man den 1. Teil der Verflechtungsmatrix auf, indem man die Rohstoffe in die Zeilen und die Zwischenprodukte in die Spalten schreibt.
Leseprobe: „Für das Zwischenprodukt Z1 werden x1 Einheiten vom Rohstoff R1 benötigt.
Z1 | Z2 | Z3 | |
R1 | x1 | x2 | x3 |
R2 | x4 | x5 | x6 |
\({V_1} = \left( {\begin{array}{*{20}{c}} {{x_1}}&{{x_2}}&{{x_3}}\\ {{x_4}}&{{x_5}}&{{x_6}} \end{array}} \right)\)
Für den 2. Zwischenschritt eines zweistufigen Produktionsprozesses stellt man den 2. Teil der Verflechtungsmatrix auf, indem man die Zwischenprodukte in die Zeilen und die Endprodukte in die Spalten schreibt.
Leseprobe: „Für das Endprodukt E1 werden x12 Einheiten vom Zwischenprodukt Z1 benötigt.
E1 | E2 | |
Z1 | x12 | x11 |
Z2 | x10 | x9 |
Z3 | x8 | x7 |
\({V_2} = \left( {\begin{array}{*{20}{c}} {{x_{12}}}&{{x_{11}}}\\ {{x_{10}}}&{{x_9}}\\ {{x_8}}&{{x_7}} \end{array}} \right)\)
Somit ergibt sich die Verflechtungsmatrix, welche die Abhängigkeit der Endprodukte von den Rohstoffen angibt - ohne die Zwischenprodukte explizit auszuweisen - durch Matrizenmultiplikation wie folgt:
- Anmerkung: Damit man überhaupt 2 Matrizen mit einander multiplizieren kann, muss die Spaltenanzahl der 1. Matrix gleich groß wie die Zeilenanzahl der 2. Matrix sein. Das Produkt der beiden Matrizen ist wieder eine Matrix, die so viele Zeilen wie die 1. Matrix und so viele Spalten wie die 2. Matrix hat.
Hier sind das jeweils die Zwischenprodukte, daher ist die Verflechtungsmatrix eine quadratische Matrix. - Rechenregel: Das Element in der i-ten Zeile und der j-ten Spalte der resultierenden Verflechtungsmatrix errechnet sich aus der Summe aller Produkte der i-ten Zeile von Matrix A und der j-ten Spalte von Matrix B.
\(\begin{array}{l} V = \left( {\begin{array}{*{20}{c}} {{x_1}}&{{x_2}}&{{x_3}}\\ {{x_4}}&{{x_5}}&{{x_6}} \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {{x_{12}}}&{{x_{11}}}\\ {{x_{10}}}&{{x_9}}\\ {{x_8}}&{{x_7}} \end{array}} \right) = \\ = \left( {\begin{array}{*{20}{c}} {\left( {{x_1} \cdot {x_{12}}} \right) + \left( {{x_2} \cdot {x_{10}}} \right) + \left( {{x_3} \cdot {x_8}} \right)}&{\left( {{x_1} \cdot {x_{11}}} \right) + \left( {{x_2} \cdot {x_9}} \right) + \left( {{x_3} \cdot {x_8}} \right)}\\ {\left( {{x_4} \cdot {x_{12}}} \right) + \left( {{x_5} \cdot {x_{10}}} \right) + \left( {{x_6} \cdot {x_8}} \right)}&{\left( {{x_4} \cdot {x_{11}}} \right) + \left( {{x_5} \cdot {x_9}} \right) + \left( {{x_6} \cdot {x_8}} \right)} \end{array}} \right) \end{array}\)
Verflechtungsdiagramm bzw. Gozintograph
Gozinot steht für „goes into“. Der Gozintograph zeigt, wie viele Rohstoffe man für ein Zwischenprodukt und wie viele Zwischenprodukte man für ein Endprodukt benötigt, indem eine Richtung angegeben ist.
Produktionsprozesse in Matrizenschreibweise
Für ein Leontief Modell *), einem Input-Output Modell für die Planung von Produktionsprozessen, errechnet man die notwendige Produktion x bei vorgegebener Nachfrage n und einer den Produktionsprozess abbildenden Technologiematrix A wie folgt.
\(\begin{array}{l} \overrightarrow x = V \cdot \overrightarrow x + \overrightarrow n \\ \overrightarrow x = {\left( {E - V} \right)^{ - 1}} \cdot \overrightarrow n \end{array}\)
V | Input-Outputmatrix bzw. quadratische Verflechtungsmatrix (hat gleich viele Zeilen wie Spalten), stellt den Zusammenhang zwischen Rohstoffen und den Zwischenprodukten sowie den Endprodukten her; Anzahl der Zeilen = Anzahl der Spalten = Anzahl Rohstoffe + Anzahl Zwischenprodukte + Anzahl Endprodukte |
E | Einheitsmatrix: Eine quadratische Diagonalmatrix deren „Diagonal-Komponenten“ gleich 1 sind und bei der alle anderen Komponenten gleich 0 sind |
\(\overrightarrow x\) | Produktionsvektor: Einspaltenvektor, gibt die Menge an, die im Produktionsprozess hergestellt wird |
\(\overrightarrow n\) | Nachfragevektor: Einspaltenvektor, gibt die nachgefragte Menge an. Hat gleich viel Zeilen wie die Verflechtungsmatrix |
*) Wassily Leontief = Nobelpreisträger