Lineare Gleichungssysteme

Aus GET A
Version vom 4. Juli 2012, 16:21 Uhr von Johanna (Diskussion | Beiträge) (Determinante einer Matrix)

Wechseln zu: Navigation, Suche

Eine Zusammenschaltung von verschiedenen aktiven oder passiven, linearen Zweipolen heißt Lineares Netzwerk. Es lässt sich durch lineare Gleichungssysteme beschreiben.

Datei:Netzwerk.svg
Ein Netzwerk aus linearen Zweipolen

Um solch ein lineares Gleichungssystem aufzustellen, kann man die Kirchhoffschen Gesetze, also Maschen-, und Knotengleichungen verwenden. Dementsprechend wird eine Maschenanalyse angewandt, wenn die Ströme eines Netzwerks in einigen oder allen Zweigen gesucht sind. Sind die Spannungen gesucht, verwendet man die Knotenanalyse. Die Gleichungssysteme erhalten dabei folgende Formen:

\mathbf{R}\cdot\vec{\mathbf{I}}=\vec{\mathbf{U}}

oder


\mathbf{G}\cdot\vec{\mathbf{U}}=\vec{\mathbf{I}}

oder in allgemeiner Form:

\mathbf{A}\cdot\vec{\mathbf{x}}=\vec{\mathbf{b}}

Matrizen werden hier, um sie von anderen, zum Beispiel skalaren Größen zu unterscheiden fett gedruckt. Dabei können Vektoren als Sonderfall von Matrizen aufgefasst werden, die nur eine Spalte besitzen. Ebenfalls sollte beachtet werden, dass hier die gesuchten Größen bei diesen Gleichungen auf der linken Seite stehen, also auf der selben Seite wie die Widerstands- oder Leitwertmatrix.

Beispiel: Knotenanalyse

Einzelteile des Linearen Gleichungssystems

Koeffizientenmatrix

Die Koeffizientenmatrix, oben auch Widerstands-, oder Leitwertmatrix genannt, enthält alle in den Maschen vorkommenden Widerstände oder Leitwerte. Sie ist aus m Zeilen und n Spalten aufgebaut ((m x n )-Matrix). Dabei hat sie immer folgende Form:

\mathbf{A}=
\begin{pmatrix}
 a_{11} & a_{12} & \ldots & a_{1n}\\
 a_{21} & a_{22} & \ldots & a_{2n}\\


 \ldots & \ldots & \ldots & \ldots\\


 a_{m1} & a_{m2} & \ldots &  a_{mn}


 \end{pmatrix}

Die Elemente der Matrix  a_{ij} sollen hier nur rein reelwertig angenommen werden. Man beachte die Reihenfolge, sodass i der Zeilenindex und j der Spaltenindex ist.

Hier werden nur quadratische Koeffizientenmatrixen angenommen, da sie zur Maschen-, oder Knotenanalyse verwendet werden können. Da uns dort die unbekannten Größen interessieren, brauchen wir genausoviele linear unbahängige Gleichungen wie Unbekannte, um das System lösen zu können. In anderen Fällen wäre es sonst über- oder unterbestimmt.

Die Spaltenvektoren

Die Spaltenvektoren \vec{\mathbf{x}} und \vec{\mathbf{b}} entsprechen in den hier betrachteten Fällen immer Strömen und Spannungen. Sie haben folgende Form: \vec{\mathbf{x}}=
\begin{pmatrix}
 x_1\\
 x_2\\
 \ldots\\
 x_n\end{pmatrix} 
\quad
\vec{\mathbf{b}}=\begin{pmatrix}
 b_1\\
 b_2\\


\ldots\\
 b_m
 \end{pmatrix}


Dabei ist zu beachten das der \vec{\mathbf{x}}-Vektor immer die gesuchten Größen enthält.

Matrizenrechnung

Multiplikation zweier Matrizen

Möchte man zwei Matrizen multiplizieren, gibt es ein bestimmtes Rechenschema, dass eingehalten werden muss. Dabei ist es wichtig, dass die Zeilenanzahl der ersten Matrix mit der Spaltenanzahl der zweiten Matrix übereinstimmt. Dies impliziert auch, dass die Matrizenmultiplikation nicht kommuntativ ist, also die Matrizen in einer Rechnung auf keinen Fall getauscht werden dürfen.

Zeilenanzahl~1.Matrix=Spaltenanzahl~2.Matrix

Um nun das erste Element der neuen Matrix zu berechnen, muss man das erste Element der ersten Zeile der ersten Matrix mit dem ersten Element der ersten Spalte der zweiten Matrix multiplizieren und anschließend das zweite Element der ersten Zeile der ersten Matrix mit dem zweiten Element der ersten Spalte der zweiten Matrix multipliziert und die Ergebnisse der Multiplikationen aufaddiert werden. Dies führt man solange durch, bis das letzte Element der ersten Zeile der ersten Matrix und das letzte Element der ersten Spalte der zweiten Matrix erreicht ist. Daraus folgt auch, die Gleichheit der Zeilenanzahl der ersten Matrix mit der Spaltenanzahl der zweiten Matrix, die vorher schon gefordert wurde.

\mathbf{A}\cdot\mathbf{B}=

\begin{pmatrix}
 \sum_{k=1}^n a_{1k}\cdot b_{k1} & \sum_{k=1}^n a_{1k}\cdot b_{k2} & \ldots & \sum_{k=1}^n a_{1k}\cdot b_{kn}\\

 \sum_{k=1}^n a_{2k}\cdot b_{k1} & \sum_{k=1}^n a_{2k}\cdot b_{k2} & \ldots & \sum_{k=1}^n a_{2k}\cdot b_{kn}\\

 \ldots                          & \ldots                          & \ldots & \ldots                         \\
 \sum_{k=1}^n a_{mk}\cdot b_{k1} & \sum_{k=1}^n a_{mk}\cdot b_{k2} & \ldots &\sum_{k=1}^n a_{mk}\cdot b_{kn}
\end{pmatrix}

Einfacher wird es wenn man sich zwei kleine Matrizen, als Beispiel 2 2x2-Matrizen anschaut. Dort lautet das Rechenschema:


\begin{align} 
\mathbf{A}\cdot\mathbf{B} &=
\begin{pmatrix}
 a & b\\
 c & d
\end{pmatrix}
\cdot
\begin{pmatrix}
 e & f\\
 g & h
\end{pmatrix}
 &=
\begin{pmatrix}
 ae+bg & af+bh \\

 ce+dg & cf+dh 
\end{pmatrix}
\end{align}

Eine weitere Merkhilfe bietet das, in der Abbildung an einer 2x2-Matrix gezeigte Falk-Schema. Hier wird die Matrix A links von der zu berechnenden Matrix aufgetragen und die Matrix B über der zu berechnenden Matrix eingezeichnet. Um ein Element in der gesuchten Matrix zu erhalten, betrachtet man nun die Elemente, die bei der Matrix A in der selben Zeile stehen und bei der Matrix B in der selben Spalte, also entlang der eingezeichneten Linien. Nun muss man nur noch das Skalarprodukt aus dem Zeilenvektor von der Matrix A und dem Spaltenvektor aus der Matrix B gebildet werden, um das Element zu berechnen.

Beispiel: Multiplikation zweier Matrizen anhand eines Zahlenbeispiels

In diesem Beispiel sind die zwei Matrizen A und B gegeben: \mathbf{A}=
\begin{pmatrix}
 3 & 5 &-1 \\

 4 & -8 & 2 
\end{pmatrix}
und \mathbf{B}=
\begin{pmatrix}
 0 & 3 & 1 \\

 6 & 5 & 0 \\

 2 & -7& 3 
\end{pmatrix}

wie man sieht sind die beiden Matrizen A und B nicht gleich dimensioniert. Allerdings stimmt die Zeilenanzahl der ersten Matrix mit der Spaltenanzahl der zweiten Matrix überein. Also sind diese beiden Matrizen multiplizierbar. Als Formel kann man sich merken, dass das Produkt der Matrizen die selbe Spaltenanzahl, wie die erste Matrix und die selbe Zeilenanzahl, wie die zweite Matrix besitzen muss. Nutzt man nun die oben genannte Form ergibt sich:

\begin{align}
\mathbf{A}\cdot\mathbf{B} 
& =
\begin{pmatrix}
 3 & 5 &-1 \\

 4 & -8 & 2 
\end{pmatrix}
\cdot
\begin{pmatrix}
 0 & 3 & 1 \\

 6 & 5 & 0 \\

 2 & -7& 3 
\end{pmatrix}\\

 & =
\begin{pmatrix}
3\cdot 0 + 5\cdot 6 + (-1)\cdot 2 & 3\cdot 3 + 5\cdot 5 + (-1)\cdot (-7) & 3\cdot 1 + 5\cdot 0 + (-1)\cdot 3\\

4\cdot 0 + (-8)\cdot 6 + 2\cdot 2 & 4\cdot 3 + (-8)\cdot 5 + 2\cdot (-7) & 4\cdot 1 + (-8)\cdot 0 + 2\cdot 3
\end{pmatrix}\\

 & =
\begin{pmatrix}
 0 + 30 + -2 & 9 + 25 + 7 & 3 +  0 + -3\\

 0 + -48 + 4 & 12 + -40 + -14 & 4 + 0 + 6
\end{pmatrix}\\
 & =
\begin{pmatrix}

28 & 41 & 0\\

-44 & -42 & 10
\end{pmatrix}
\end{align}

Multiplikation von Matrix und Vektor

Vektoren können als Sonderform von Matrizen betrachtet werden, die nur eine Spalte besitzen. Möchte man eine Matrix mit einen Vektor multiplizieren muss also immer zuerst die Matrix stehen und anschließend erst der Vektor und die Zeilenanzahl der Matrix muss der Spaltenanzahl des Vektors entsprechen:

\mathbf{A}\cdot\vec{\mathbf{x}}=

\begin{pmatrix}
  a_{11} & a_{12} & \ldots &  a_{1k}\\

  a_{21} &  a_{22} & \ldots & a_{2k}\\

 \ldots  & \ldots  & \ldots & \ldots\\
 a_{m1}  &  a_{m2} & \ldots & a_{mk}
\end{pmatrix}\cdot
\begin{pmatrix}
 x_1\\

 x_2\\

\ldots\\

 x_k
\end{pmatrix}
=
\begin{pmatrix}
a_{11}\cdot x_1 + a_{12}\cdot x_2 + \ldots + a_{1k}\cdot x_k\\

a_{21}\cdot x_1 + a_{22}\cdot x_2 + \ldots + a_{2k}\cdot x_k\\

 \ldots                                                     \\

a_{m1}\cdot x_1 + a_{m2}\cdot x_2 + \ldots + a_{mk}\cdot x_k
\end{pmatrix}

Einheitsmatrix und Inverse

Der Lösungsvektor x steht in der oben beschriebenen Form immer mit der Koeffizientenmatrix auf einer Seite. Nun soll der Lösungsvektor durch umstellen der Gleichung aber bestimmt werden. Da man aber niemals durch einen Vektor teilen darf, muss man sich einem anderen mathematischen Hilfsmittel bedienen, der Inverse der Matrix \mathbf{A}.

Um die Inverse einer Matrix zu verstehen, betrachtet man zunächst eine andere besondere quadratische Matrix, die Einheitsmatrix \mathbf{E}. In manchen Büchern wird sie auch mit einer \mathbf{1} dargestellt. Sie hat folgende Form:


\mathbf{E}=
\begin{pmatrix}
 1 & 0 & \ldots & 0\\
 0 & 1 & \ldots & 0\\
\ldots & \ldots &\ldots &\ldots\\
 0 & 0 & \ldots & 1
\end{pmatrix}

Dabei ist die Matrix, die Inverse und die Einehitsmatrix in folgender Form verknüpft:


 
\mathbf{A}\cdot\mathbf{A^{-1}}=\mathbf{E}

Dies gilt allerdings nur unter der Vorraussetzung, dass die Inverse von A also \mathbf{A^{-1}} existiert. Dies ist dann der Fall, wenn die Determinante nicht 0 ist. Um also den Lösungsvektor x zu bestimmen,muss die Inverse existieren.


Analog zu der Einheitsmatrix, kann man in den reellen Zahlen die 1 als Eins-Element betrachten. Dort funktioniert dies auf ähnliche Weise mit allen rationalen Zahlen. Es gibt zu jeder Zahl einen Bruch, der mit der Zahl multipliziert wieder 1 ergibt:

\begin{align} a=5 && a^{-1}=\frac{1}{5} && a^{-1}a=1 \end{align}

Um nun die Inverse einer Matrix zu bestimmen benötigt man folgende Rechenvorschrift:

\mathbf{A^{-1}}=\frac{1}{det(\mathbf{A})}\mathbf{A}_{adj}

Hierbei wird auch deutlich, dass die Determinante der Matrix nicht 0 sein darf, wenn die Inverse der Matrix existieren soll. Da sonst bei Bestimmung der Inverse durch 0 geteilt werden müsste und so einen unbestimmten Ausdruck ergäbe.


\mathbf{A}_{adj} heißt die Adjunkte von \mathbf{A}. Für eine 2x2-Matrix, die in dieser Veranstaltung vollkommen ausreicht, ergibt sich dafür folgende Form:

 
\begin{align}
\mathbf{A}=
\begin{pmatrix}
a & b\\
c & d
\end{pmatrix}
 && &&
\mathbf{A}_{adj}=
\begin{pmatrix}
d & -b\\

-c & a
\end{pmatrix}
\end{align}

Determinante einer Matrix

Regel von Sarrus am Beispiel einer 3x3-Matrix

Eine quadratische Matrix \mathbf{A} wird auf eindeutige Weise einer bestimmten Zahl zugeordnet, diese Zahl heißt Determinante der Matrix, oder in mathematischer Schreibweise:

\det{\mathbf{A}}

Die Determinante, ist dabei ein Maß für die Lösbarkeit eines linearen Gleichungssystems. Es gilt, wenn die Determinante ungleich null ist, also:

\det{\mathbf{A}}\not=0


ist das System linear unabhängig und damit eindeutig lösbar. Umgekehrt gilt ebenso: Ist die Determinate gleich 0, gibt es unendlich viele verschiedene Lösungen und das System damit auch nicht linear unabhängig ist.

= Berechnung der Determinante

In diesem Abschnitt sollen zwei Lösungsverfahren, zur Bestimmung der Determinante besprochen werden.


a) Das erste Lösungsverfahren, das Enwickeln der Matrix nach einer beliebigen Zeile oder Spalte ist ein Verfahren das allgemein gilt und immer verwendet werden kann.


b) Das zweite Verfahren die Regel von Sarrus, gilt nur bei 3x3-Matrizen oder kleiner. Es ist allerdings viel weniger aufwendig.

==

Cramersche Regel