Zusammenfassung
Bei linearen Gleichungssystemen dienen Matrizen als Hilfsmittel; durch sie wird das Lösen von großen Gleichungssystemen übersichtlich. Die Entscheidung, ob Spaltenvektoren linear unabhängig sind oder eine Basis bilden, wird oft vorteilhaft mittels einer Matrix gefällt. Und im nächsten Kapitel werden wir sehen, dass man mit Matrizen Abbildungen zwischen Vektorräumen darstellen kann.
Die Menge der Matrizen hat, obwohl Matrizen doch scheinbar eher ein Hilfs- oder Darstellungsmittel für abstrakte Sachverhalte in der linearen Algebra sind, eine Struktur. Nicht nur, dass die Menge aller Matrizen als ein Vektorraum aufgefasst werden kann, es lässt sich auch eine Multiplikation von Matrizen erklären, für die vertraute Regeln wie etwa in der Menge \(\mathbb{Z}\) der ganzen Zahlen gelten. Tatsächlich ist die Multiplikation recht speziell gewählt, den tieferen Hintergrund für diese Wahl erfahren wir in dem Kapitel zu den linearen Abbildungen. In dem vorliegenden Kapitel behandeln wir Matrizen ausführlich als selbstständige Objekte der linearen Algebra und betrachten die wichtigsten Typen von Matrizen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Author information
Authors and Affiliations
Corresponding author
Appendices
Zusammenfassung
Das Produkt \(\boldsymbol{A}\,\boldsymbol{B}\) ist für Matrizen \(\boldsymbol{A}=\smash[t]{\begin{pmatrix}\boldsymbol{z}_{1}\\ \vdots\\ \boldsymbol{z}_{m}\end{pmatrix}}\in\mathbb{K}^{m\times n}\) und \(\boldsymbol{B}=((\boldsymbol{s}_{1},\,\ldots,\,\boldsymbol{s}_{p}))\in\mathbb{K}^{n\times p}\) mit Spaltenzahl von \(\boldsymbol{A}\) gleich Zeilenzahl von \(\boldsymbol{B}\) erklärt.
Das Matrizenprodukt
Man nennt die \(m\times p\)-Matrix
das Matrizenprodukt oder auch nur kurz Produkt von \(\boldsymbol{A}\) und \(\boldsymbol{B}\).
Eine quadratische Matrix \(\boldsymbol{A}\in\mathbb{K}^{n\times n}\) heißt invertierbar, wenn es eine Matrix \(\boldsymbol{A}^{\prime}\in\mathbb{K}^{n\times n}\) mit \(\boldsymbol{A}\,\boldsymbol{A}^{\prime}=\mathbf{E}_{n}\) gibt. Es gilt dann auch \(\boldsymbol{A}^{\prime}\,\boldsymbol{A}=\mathbf{E}_{n}\). Man schreibt \(\boldsymbol{A}^{\prime}=\boldsymbol{A}^{-1}\) und nennt \(\boldsymbol{A}^{-1}\) das Inverse von \(\boldsymbol{A}\).
1.1 Das Inverse einer \(n\times n\)-Matrix bestimmt man durch Lösen von \(n\) linearen Gleichungssystemen
Das Inverse einer \(n\times n\)-Matrix wird nach einem einfachen Schema bestimmt. Dahinter steckt im Wesentlichen das gleichzeitige Lösen von \(n\) Gleichungssystemen.
Das Bestimmen des Inversen einer Matrix \(\boldsymbol{A}\in\mathbb{K}^{n\times n}\)
-
1.
Man schreibe \((\boldsymbol{A}\,|\,\mathbf{E_{n}})\).
-
2.
Mit elementaren Zeilenumformungen bringe man \((\boldsymbol{A}\,|\,\mathbf{E_{n}})\) auf die Form \((\boldsymbol{D}\,|\,\boldsymbol{B})\), mit einer oberen Dreiecksmatrix \(\boldsymbol{D}\).
-
3.
Enthält \(\boldsymbol{D}\) eine Nullzeile, so ist \(\boldsymbol{A}\) nicht invertierbar. Enthält \(\boldsymbol{D}\) keine Nullzeile, so setze man mit elementaren Zeilenumformungen fort, um das Inverse \(\boldsymbol{A}^{-1}\) von \(\boldsymbol{A}\) zu erhalten:
$$\displaystyle(\boldsymbol{A}\,|\,\mathbf{E_{n}})\ \rightarrow\cdots\rightarrow\ (\mathbf{E_{n}}\,|\,\boldsymbol{A}^{-1})$$
Für invertierbare \(2\times 2\)- und Diagonalmatrizen gibt es einfache Formeln zur Bestimmung ihrer Inversen:
1.2 Beim Transponieren vertauscht man Zeilen und Spalten einer Matrix
Eine Matrix, die sich beim Transponieren nicht verändert, nennt man symmetrisch.
Symmetrische Matrizen
Man nennt eine Matrix \(\boldsymbol{A}\in\mathbb{K}^{n\times n}\) symmetrisch, wenn \(\boldsymbol{A}^{\mathrm{T}}=\boldsymbol{A}\) gilt.
Viele Matrizen, die sich aus naturwissenschaftlichen Problemstellungen ergeben, sind symmetrisch.
1.3 Zwei Vektoren stehen genau dann senkrecht aufeinander, wenn ihr Skalarprodukt null ist
Für Vektoren \(\boldsymbol{v}=(v_{i}),\,\boldsymbol{w}=(w_{i})\in\mathbb{\mathbb{R}}^{n}\) nennt man das Produkt
das Standardskalarprodukt oder auch kanonisches Skalarprodukt.
Definition von senkrechten bzw. orthogonalen Vektoren
Sind \(\boldsymbol{v}\) und \(\boldsymbol{w}\) aus \(\mathbb{\mathbb{R}}^{n}\), so sagen wir \(\boldsymbol{v}\) steht senkrecht auf \(\boldsymbol{w}\) oder \(\boldsymbol{v}\) und \(\boldsymbol{w}\) sind orthogonal zueinander, wenn \(\boldsymbol{v}\cdot\boldsymbol{w}=0\) gilt.
Anstelle von \(\boldsymbol{v}\cdot\boldsymbol{w}=0\) schreibt man auch \(\boldsymbol{v}\perp\boldsymbol{w}\).
1.4 Eine Orthonormalbasis ist eine Basis mit normierten, zueinander senkrechten Vektoren
Definition von Orthogonal- und Orthonormalbasis
Eine Basis \(B\) des \(\mathbb{R}^{n}\) heißt Orthogonalbasis, wenn je zwei verschiedene Basisvektoren senkrecht aufeinanderstehen, das heißt:
Eine Orthogonalbasis heißt Orthonormalbasis, wenn jeder Basisvektor zusätzlich normiert ist, also die Länge \(1\) hat, das heißt:
Die Spalten und Zeilen von Orthogonalmatrizen, d. h. von quadratischen Matrizen \(\boldsymbol{A}\in\mathbb{R}^{n\times n}\) mit \(\boldsymbol{A}^{\mathrm{T}}\,\boldsymbol{A}=\mathbf{E}_{n}\), sind Orthonormalbasen des \(\mathbb{R}^{n}\).
1.5 Die Berechnung einer n-reihigen Determinante wird auf die Berechnung von (n \(-\) 1)-reihigen Determinanten zurückgeführt
Definition der Determinante
Gegeben ist eine Matrix \(\boldsymbol{A}=(a_{ij})\in\mathbb{K}^{n\times n}\).
Für \(n=1\), d. h. \(\boldsymbol{A}=(a_{11})\), definieren wir
Für \(n\geq 2\) definieren wir
Für \(\boldsymbol{A}=\begin{pmatrix}a_{11}&a_{12}\\ a_{21}&a_{22}\end{pmatrix}\in\mathbb{K}^{2\times 2}\) bedeutet dies
1.6 Die Determinante eines Produktes von Matrizen ist das Produkt der Determinanten
Determinantenmultiplikationssatz
Sind \(\boldsymbol{A},\,\boldsymbol{B}\in\mathbb{K}^{n\times n}\), so gilt:
1.7 Bei der Berechnung der Determinante kann man nach einer beliebigen Spalte oder Zeile entwickeln
Die Entwicklung nach beliebigen Zeilen und Spalten
Für \(\boldsymbol{A}=(a_{ij})\in\mathbb{K}^{n\times n}\) und beliebige \(r,s\in\{1,\ldots,n\}\) gilt:
Entwicklung nach der \(r\) -ten Zeile:
Entwicklung nach der \(s\) -ten Spalte:
1.8 Eine Matrix ist genau dann invertierbar, wenn ihre Determinante von null verschieden ist
Im Invertierbarkeitskriterium steckt ein wesentlicher Nutzen von Determinanten.
Invertierbarkeitskriterium
Für eine Matrix \(\boldsymbol{A}\in\mathbb{K}^{n\times n}\) sind die folgenden Aussagen gleichwertig:
-
Die Matrix \(\boldsymbol{A}\) ist invertierbar.
-
Es gilt \(\det\boldsymbol{A}\neq 0\).
Bonusmaterial
Im Bonusmaterial untersuchen wir weitere spezielle Arten von Matrizen.
Dabei wird gezeigt, dass die sogenannten Elementarmatrizen die Atome der invertierbaren Matrizen sind: Jede invertierbare Matrix ist ein Produkt von Elementarmatrizen.
Symmetrische und schiefsymmetrische Matrizen hingegen können als Bausteine aller Matrizen aufgefasst werden: Jede Matrix ist auf genau eine Weise als Summe einer symmetrischen Matrix mit einer schiefsymmetrischen Matrix darstellbar.
Vandermonde-Matrizen sind Matrizen von sehr spezieller Bauart. Mit ihrer Hilfe ist die Existenz und Eindeutigkeit von Interpolationspolynomen nachweisbar.
Aufgaben
Die Aufgaben gliedern sich in drei Kategorien: Anhand der Verständnisfragen können Sie prüfen, ob Sie die Begriffe und zentralen Aussagen verstanden haben, mit den Rechenaufgaben üben Sie Ihre technischen Fertigkeiten und die Anwendungsprobleme geben Ihnen Gelegenheit, das Gelernte an praktischen Fragestellungen auszuprobieren.
Ein Punktesystem unterscheidet leichte Aufgaben •, mittelschwere •• und anspruchsvolle ••• Aufgaben. Lösungshinweise am Ende des Buches helfen Ihnen, falls Sie bei einer Aufgabe partout nicht weiterkommen. Dort finden Sie auch die Lösungen – betrügen Sie sich aber nicht selbst und schlagen Sie erst nach, wenn Sie selber zu einer Lösung gekommen sind. Ausführliche Lösungswege, Beweise und Abbildungen finden Sie auf der Website zum Buch.
Viel Spaß und Erfolg bei den Aufgaben!
3.1 Verständnisfragen
16.1
• Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix?
16.2
• Bekanntlich gilt im Allgemeinen \(\boldsymbol{A}\,\boldsymbol{B}\neq\boldsymbol{B}\,\boldsymbol{A}\) für \(n\times n\)-Matrizen \(\boldsymbol{A}\) und \(\boldsymbol{B}\). Gilt \(\det(\boldsymbol{A}\,\boldsymbol{B})=\det(\boldsymbol{B}\,\boldsymbol{A})\)?
16.3
•• Hat eine Matrix \(\boldsymbol{A}\in\mathbb{R}^{n\times n}\) mit \(n\in 2\mathbb{N}+1\) und \(\boldsymbol{A}=-\boldsymbol{A}^{\mathrm{T}}\) die Determinante \(0\)?
16.4
•• Gilt für invertierbare Matrizen \(\boldsymbol{A},\,\boldsymbol{B}\in\mathbb{K}^{n\times n}\)
16.5
•• Ist das Produkt symmetrischer Matrizen stets wieder eine symmetrische Matrix?
16.6
• Ist das Inverse einer invertierbaren symmetrischen Matrix wieder symmetrisch?
16.7
• Folgt aus der Invertierbarkeit einer Matrix \(\boldsymbol{A}\) stets die Invertierbarkeit der Matix \(\boldsymbol{A}^{\mathrm{T}}\)?
16.8
••• Wir betrachten eine Blockdreiecksmatrix, d. h. eine Matrix der Form
wobei \(\mathbf{0}\in\mathbb{K}^{(n-m)\times m}\) die Nullmatrix ist und \(\boldsymbol{A}\in\mathbb{K}^{m\times m}\), \(\boldsymbol{C}\in\mathbb{K}^{m\times(n-m)}\), \(\boldsymbol{B}\in\mathbb{K}^{(n-m)\times(n-m)}\) sind.
Zeigen Sie: \(\det\boldsymbol{M}=\det\boldsymbol{A}\det\boldsymbol{B}\).
3.2 Rechenaufgaben
16.9
• Berechnen Sie alle möglichen Matrizenprodukte mit jeweils zwei der Matrizen
16.10
•• Gegeben sind drei Matrizen \(\boldsymbol{A},\,\boldsymbol{B},\,\boldsymbol{C}\in\mathbb{R}^{3\times 3}\) mit der Eigenschaft \(\boldsymbol{A}\,\boldsymbol{B}=\boldsymbol{C}\), ausführlich
Man ergänze die unbestimmten Komponenten.
16.11
•• Sind die folgenden Matrizen invertierbar? Bestimmen Sie gegebenenfalls das Inverse.
16.12
•• Bestimmen Sie ein lineares Gleichungssystem, dessen Lösungsmenge \(L=\left\langle\begin{pmatrix}1\\ 0\\ -1\end{pmatrix},\,\begin{pmatrix}0\\ 1\\ -1\end{pmatrix}\right\rangle\subseteq\mathbb{R}^{3}\) ist.
16.13
•• Bestimmen Sie eine \(LR\)-Zerlegung der Matrix
und mit deren Hilfe die Determinante \(\det\boldsymbol{A}\).
16.14
•• Vervollständigen Sie die folgende Matrix \(\boldsymbol{A}\) so, dass \(\boldsymbol{A}\in\mathbb{R}^{3\times 3}\) eine orthogonale Matrix ist:
16.15
• Berechnen Sie die Determinanten der folgenden reellen Matrizen:
16.16
••• Berechnen Sie die Determinante der reellen \(n\times n\)-Matrix
3.3 Anwendungsprobleme
16.17
•• Für ein aus drei produzierenden Abteilungen bestehendes Unternehmen hat man durch praktische Erfahrung die folgenden Matrizen \(\boldsymbol{P}\in\mathbb{R}^{3\times 3}\) für die Produktherstellung und \(\boldsymbol{R}\in\mathbb{R}^{3\times 3}\) für die Rohstoffverteilung ermittelt:
-
(a)
Welche Nachfrage \(\boldsymbol{v}\) kann das Unternehmen befriedigen, wenn die Gesamtproduktion \(\boldsymbol{g}\) durch \(\boldsymbol{g}=\begin{pmatrix}150\\ 230\\ 140\end{pmatrix}\) bei Auslastung aller Maschinen vorgegeben ist? Welcher Rohstoffverbrauch \(\boldsymbol{r}\) fällt dabei an?
-
(b)
Durch eine Marktforschung wurde der Verkaufsvektor \(\boldsymbol{v}=\begin{pmatrix}90\\ 54\\ 36\end{pmatrix}\) ermittelt. Welche Gesamtproduktion \(\boldsymbol{g}\) ist nötig, um diese Nachfrage zu befriedigen? Mit welchem Rohstoffverbrauch \(\boldsymbol{r}\) ist dabei zu rechnen?
-
(c)
Nun ist die Rohstoffmenge \(\boldsymbol{r}=\begin{pmatrix}200\\ 100\\ 200\end{pmatrix}\) vorgegeben. Welche Gesamtproduktion \(\boldsymbol{g}\) kann erzielt werden? Welche Nachfrage \(\boldsymbol{v}\) wird dabei befriedigt?
16.18
•• In einer Population von Ameisen kann man Individuen mit drei verschiedenen Merkmalen \(m_{1}\), \(m_{2}\) und \(m_{3}\) unterscheiden. Die Wahrscheinlichkeit dafür, dass das Merkmal \(m_{j}\) auf das Merkmal \(m_{i}\) bei einem Fortpflanzungszyklus übergeht, bezeichnen wir mit \(p_{ij}\). Diese Zahlen sind in der Tab. 16.3 gegeben.
Diese Zahlen bilden eine sogenannte stochastische Matrix \(\boldsymbol{P}=(p_{ij})\in\mathbb{R}^{3\times 3}\).
-
(a)
Wie groß ist der Anteil der drei Merkmale nach einem Zyklus, wenn am Anfang Gleichverteilung vorliegt?
-
(b)
Welche Anfangsverteilung der drei Merkmale ändert sich nach einem Zyklus nicht?
16.19
•• Für die Bewegungsgleichungen der beiden in der Abb. 16.17 skizzierten Massen \(m_{1}\) und \(m_{2}\) gilt
mit den Federkonstanten \(k_{1},\,k_{2},\,k_{3}> 0\).
Bestimmen Sie mit dem Ansatz
eine Matrix \(\boldsymbol{A}\) mittels der sich das Differenzialgleichungssystem \((\ast)\) als Differenzialgleichungssystem \(\dot{\boldsymbol{z}}=\boldsymbol{A}\,\boldsymbol{z}\) 1. Ordnung formulieren lässt.
Antworten der Selbstfragen
Antwort 1
Das geordnete \(n\)-Tupel der Vektoren \(\boldsymbol{s}_{1},\,\ldots,\,\boldsymbol{s}_{n}\). Auf S. 632 werden wir diese Schreibweise für geordnete Basen benutzen.
Antwort 2
Nein. Gleichheit von Matrizen ist nur für Matrizen mit gleicher Zeilen- und Spaltenzahl definiert.
Antwort 3
Nein. Es reicht \(\boldsymbol{A}\in\mathbb{K}^{m\times n}\) und \(\boldsymbol{B}\in\mathbb{K}^{n\times m}\).
Antwort 4
Weil sonst das Produkt nicht definiert ist.
Antwort 5
Für \(n\geq 3\) nehme man irgendwelche Matrizen, deren obere linke \(2\times 2\)-Kästchen die eben angegebenen Matrizen bilden. Im Fall \(n=1\) gilt das nicht, da in Körpern aus \(a\,b=0\) folgt, dass \(a\) oder \(b\) null ist.
Antwort 6
Sind \(\boldsymbol{A}^{\prime}\) und \(\boldsymbol{A}^{\prime\prime}\) zwei Inverse zu \(\boldsymbol{A}\), so gilt mit dem Assoziativgesetz der Matrizenmultiplikation
Also ist das Inverse eindeutig bestimmt.
Antwort 7
Nein. \(\mathbf{E}_{2}\) und \(-\mathbf{E}_{2}\) sind invertierbar, die Summe aber nicht.
Antwort 8
Ja, das folgt aus den obigen Regeln zum Transponieren.
Antwort 9
Ja, das prüft man durch den Nachweis von \(\boldsymbol{A}^{\mathrm{T}}\,\boldsymbol{A}=\mathbf{E}_{3}\) nach.
Antwort 10
Die Matrix \(\smash[t]{\begin{pmatrix}1&2\\ -2&-4\end{pmatrix}}\) ist weder invertierbar noch symmetrisch, insbesondere auch nicht orthogonal. Die Matrix \(\begin{pmatrix}1&2\\ 1&3\end{pmatrix}\) ist invertierbar, aber weder orthogonal noch symmetrisch. Die Matrix \(\smash[t]{\begin{pmatrix}1/2&-1/2\\ 1/2&1/2\end{pmatrix}}\) ist orthogonal, insbesondere invertierbar, aber nicht symmetrisch. Die Matrix \(\smash[t]{\begin{pmatrix}1/2&1/2\\ 1/2&-1/2\end{pmatrix}}\) ist orthogonal, insbesondere invertierbar, und symmetrisch. Die Matrix \(\begin{pmatrix}1&1\\ 1&1\end{pmatrix}\) ist symmetrisch, aber nicht invertierbar, also erst recht nicht orthogonal. Die Matrix \(\smash[t]{\begin{pmatrix}1&2\\ 2&1\end{pmatrix}}\) ist symmetrisch und invertierbar, aber nicht orthogonal.
Antwort 11
Wenn unter den \(\boldsymbol{u},\,\boldsymbol{v},\,\boldsymbol{w}\) nur ein bzw. kein linear unabhängiger Vektor ist. Im zweiten Fall bedeutet dies, dass die drei Vektoren gleich dem Nullvektor sind.
Antwort 12
Ja. Die Determinante ist das Produkt der Diagonalelemente; das folgt aus der Regel von Sarrus.
Antwort 13
\(\det\boldsymbol{A}=0\).
Antwort 14
Nein. Man wähle etwa \(\boldsymbol{A}=\mathbf{E}_{2}\) und \(\boldsymbol{B}=-\mathbf{E}_{2}\).
Antwort 15
Ja, man wende den Determinantenmultiplikationssatz an.
Rights and permissions
Copyright information
© 2018 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature
About this chapter
Cite this chapter
Arens, T., Hettlich, F., Karpfinger, C., Kockelkorn, U., Lichtenegger, K., Stachel, H. (2018). Matrizen und Determinanten – Zahlen in Reihen und Spalten. In: Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-56741-8_16
Download citation
DOI: https://doi.org/10.1007/978-3-662-56741-8_16
Published:
Publisher Name: Springer Spektrum, Berlin, Heidelberg
Print ISBN: 978-3-662-56740-1
Online ISBN: 978-3-662-56741-8
eBook Packages: Life Science and Basic Disciplines (German Language)