Jede Woche ein Moodle Quiz für 0.25 Binus, bei 70% Punkte
Quiz Freitagmorgen freigeschaltet, bis nächsten Donnerstagabend lösen
LGS
Rang und Loesungsdiskussion
Rang Anzahl Element ungleich 0 in der Diagonalen
Rang Anzahl Variablen
Verträglichkeit (KB) erfüllt -> genau eine Lösung
nicht erfüllt -> keine Lösung
Verträglichkeit (KB) erfüllt -> unendlich viele Lösungen
nicht erfüllt -> keine Lösung
Tricks beim Eliminationsverfahren
Zeilen vertauschen
Spalten vertauschen (aufpassen! -> Reihenfolge der Variablen wird vertauscht; ist aber nützlich zur Rangbestimmung)
Matrizen
Matrizen haben 2 Dimensionen
Anzahl Zeilen
Anzahl Spalten/Variablen
Notation:
Bei Vektoren lässt man die zweite Dimension weg
Matrizen addieren:
geht nur wenn Matrizen gleiche Dimension haben
Einträge individuell miteinander addieren
Matrixmultiplikation:
Form: Zeilen mal Spalten
Wir können 2 Matrizen , miteinander multiplizieren, d.h. existiert nur, wenn
nur, wenn anzahl variablen = anzahl zeilen
nicht kommutativ
Matrix-Vektor-Multiplikation:
Matrix in Spalten "aufspalten", jede Spalte mit einem Vektoreintrag multiplizieren, dann Zeilen der Matrixspalten (lineare Kombination) addieren -> Vektor
LGS als Matrixmultiplikation
allgemein in der form , wobei Unbekannte und rechte Seite
LGS kann nur gelöst werden, wenn rechte Seite als lineare Kombination der Spalten von ausgeführt werden kann
Tipp: Überprüfen, ob Ergebnis Vielfaches von einer Spalte ist
Generell lässt sich ein LGS für jede rechte Seite nur dann lösen, wenn .
Transponierte
Die Transponierte ergibt sich durch Spiegelung von an der Hauptdiagonalen
Wenn gilt , dann heisst symmetrisch. ()
-> Dimensionen werden vertauscht
->
Inverse
Eine Matrix besitzt eine Inverse , wenn gilt:
Einheitsmatrix auf Diagonalen sonst
Berechnung in der Serie 2
Inverse existiert nur wenn
voller Rang
Berechnung Matrizen
-> existiert nur wenn Nenner (Determinante)
-> immer überprüfen ()
für Permutationsmatrizen gilt auch
Rechenregeln
ü
Beweis iii):
LU-Zerlegung
Zerlegen matrix in Produkt aus unterer und oberer Dreiecksmatrix
ü
L protokolliert Gauss-Schritte mit negativen Vorzeichen
Zeilenvertauschung in Permutationsmatrix (dort auch entsprechende Zeilen vertauschen)
Zeilenvertauschung darf nur am Anfang stattfinden
am Ende Matrix überprüfen! -> gibt es ?
Achtung!
LU-Zerlegung von
-> immer normalisieren!
Euklidische Norm
Länge eines Vektors
Wichtig für Normalisierung auf Länge 1:
Note
ü
Nützliche Interpretation
Skalarprodukt
Multiplikation zweier Vektoren:
Zweite Interpretation:
Winkel to pi:
z.B. bei 0.64
0°
0
1
0
30°
45°
60°
90°
0
1
Orthogonalität
Zwei Vektoren sind orthogonal, wenn gilt
orthogonale Vektoren finden
Finde , sodass
-> viele Möglichkeiten
Kreuzprodukt (in 3D)
Orthogonale Matrizen
ist orthogonal, wenn gilt
alle Spalten von sind orthogonal zueinander und haben Länge/Norm 1.
orthogonale Matrizen haben immer vollen Rang
orthogonale Matrizen verändern den Betrag von Vektoren nicht
Rotationsmatrizen
Sepzielle orthogonale Matrizen die Vektoren rotieren
in 2D:
Immer, Drehung gegen Uhrzeigersinn
Die Drehungsmatrix ist die Identitätsmatrix, mit der 2D-matrix in der zu drehenden Reihe
In 3D können wir in der x-y, x-z und y-z Ebene drehen, z.B.
ist auch orthogonal
Wenn wir mehrere Rotationen in derselben Ebene hintereinander ausführen, dann können wir die Winkel addieren:
Householder-Matrozen
Spiegelung von Vektoren an einer Hyperebene
Brauchen den Normalvektor der Ebene
QR-Zerlegung
A wird in eine Multiplikation aus orthogonale Matrix
-> wollen durch Spiegelung zwei Nullen in der ersten Spalte erzeugen
-> beide Vektoren haben gleiche Länge, 3 (ausrechnen!)
-> , , spiegeln auf auch möglich
Vektor zwischen x und gespiegelter Vektor:
-> am Schluss überprüfen, ob Matrix stimmen kann
-> noch Berechnen
hier können wir die erste Spalte und Zeile unberührt lassen
AM Ende:
Q berechen
Für Q muss man transponieren
Prüfungsaufgabe:
->
Vektorräume
Menge , abgeschlossen unter Addition und Multiplikation
Tip
Entweder beweisen, oder Gegenbeispiel finden (einfacher)
z.B. Ist ein Vektorraum?
Vektorräme erfüllen 7 zusätzliche Eigenschaften
üüää
Geraden, Ebenen sind Vektorräume wenn sie den Ursprung enthalten
Bsp:
-> Enthält kein Nullvektor, V ist kein Vektorraum
Bsp: Menge aller symmetrischen Matrizen ()
Ist ein Vektorraum?
Addition angeschlossen? -> ✔
Multiplikation abgeschlossen? ✔
Nullelement? Nullmatrix ist symmetrisch ✔
Negatives Element? ✔
-> ist ein Vektorraum
5,6,7 müssen normalerweise nicht gezeigt werden, falls
Bem: Wenn und Vektorräume sind und , dann nennt man einen Unterraum von
ist ein Unterraum von .
Bsp: Vektorraume mit Funktionen als "Vektoren":
(alle Polynome mit Grad 2 oder kleiner)
-> Betrachtung von Funktionen als Vektoren erlaubt Verallgemeinerung von Konzepten wie Orthogonalität, Winkeln,
Lineare Kombination
Summe von mit Skalaren multiplizierten Vektoren:
z.b. Matrix-Vektor-Multiplikation
Dimension Vektorraum
Minimale Anzahl Vektoren mittels der sich der gesamte Vektorraum via Linearkombinationen abbilden lässt
Bsp
Bsp nicht eindeutig
-> eine solche Ansammlung an Vektoren wird auch Erzeugendensystem genannt
Bild einer Matrix
Raum, der durch die Spalten aufgespannt wird
Kern einer Matrix
Der Kern einer Matrix ist die Lösungsmenge der Gleichung
Immer mindestens eine Lösung, den Nullvektor
die Elemente des Kerns sind orhogonal zu den Zeilen von
Bsp:
-> da Rang Matrix und quadratisch => lässt sich eindeutig lösen =>
Bsp
-> Rang 2,
Warning
Wenn , dann haben Elemente des Bilds Dimension und Elemente des Kerns
-> aber taugt nicht, weil möglich ist
-> Brauchen Extremfall, wieviel maximal grösser als sein kann
tritt ein wenn alle Einträge von gleich sind:
Bsp Ist eine Norm?
-> mehrere Elemente können sein, z.B. jedes
Bsp eine Norm?
i)
ii)
iii)
Skalarprodukt
Funktion mit 3 Eigenschaften:
Norm kann aus Skalarprodukt induziert werden:
Bsp euklidische Norm
Bsp Skalarprodukt über Matrix
(A positiv-definit )
Bsp zu Skalarprodukten ()
Ist ein Skalarprodukt?
Positiv definit?
-> kein Skalarprodukt
Note
zuerst überlegen, ob es ein gegenbeispiel gibt
mit kompliziertester eigenschaft anfangen, um Zeit zu sparen
Summen von Skalarprodukten mit Koeffizienten sind Skalarprodukte
Orthogonale Projektionen
orthogonale Projektion von auf :
-> "Punkt auf y am nächsten zu x" -> Projektion auf y zum Punkt
Bsp abstand von funktionen
let
Winkelberechnung über allgemeines Skalarprodukt:
You can't use 'macro parameter character #' in math mode\alpha=\arccos \frac{|<x,y>|}{||x||||y||} $$- Orthogonal wenn $<x,y>=0$ Wenn 2 Vektoren orthogonal sind, dann ergibt $P_{y}x=P_{x}y=\vec{0}$ > #timestamp 2024-11-14 ### Gram-Schmidt Orthogonalisierungsverfahren - Methode zur Erzeugung einer orthonormalen Basis aus einer gewöhnlichen Basis
You can't use 'macro parameter character #' in math mode-> hier ist $Q$ streng genommen keine orthogonale Matrix ### Projektoren - lineare Abbildung $P:V\to V$, für die gilt:
P^2=P
P=P^\top\quad (\text{Matrix muss symmetrisch sein})
You can't use 'macro parameter character #' in math modeP Projektion orthogonal? $P=P^\top$ -> stimmt nicht ($1$ oben rechts verschiebt sich) -> nicht orthogonal #### Berechnung orthogonaler Projektoren #todo --- - Wenn $U.V$ zwei Matrizen mit $\underbrace{ V^\top U = I }_{ \text{spalten U orthonormal} }$, dann:
P=UV^\top\quad (\text{ist schiefe Projektion auf Spaltenraum von U})
You can't use 'macro parameter character #' in math mode> [!warning] Ansonsten gibt es $\infty$ Lösungen > Normalengleichung hat niemals keine Lösung # Determinanten - Zahl, welche die Invertierbarkeit von quadratischen Matrizen charakterisiert: - $A \in ^{n\times n}$, $A^{-1}$ existiert genau dann wenn $\det(A)\neq0$ - Konsequenz: Für alle quadratischen Matrizen, die nicht vollen Rang haben, gilt $\det(A)=0$ **Bsp** 1. Determinante für $2\times2$ Matrizen
A=\begin{bmatrix}
a & b\c & d
\end{bmatrix}, \det(A)=ad-bc
B=\begin{bmatrix}
1 & -2\-3 & 6
\end
You can't use 'macro parameter character #' in math mode-> $\det(B)=0$ -> $A^{-1}$ existiert nicht ## Regel von Sarrus für $3\times3$ Matrizen
C = \begin{bmatrix}
a & d & g\b & e & h\c & f & i
\end{bmatrix}, \det(C) = aei+bfg+cdh-gec-hfa-idb
You can't use 'macro parameter character #' in math mode-> genauso aufwendig wie Regel 11 (entwicklung nach Spalte/Reihe), aber im gegensatz zu 11 nicht nützlich zur Berechnung vom charakteristischen Polynom ### Laplacescher Entwicklungssatz - Methode zur Berechnung der Determinante in beliebigen Dimensionen Für $n \times m$ Matrix, Entwicklung nach z.b. Spalte $m$:
You can't use 'macro parameter character #' in math mode- $\det(A-\lambda I)$ gibt uns ein Polynom (in $\lambda$) von Grad $n$ und wird **charakteristisches Polynom** genannt ## Eigenräume Zu jedem Eigenwert $\lambda i$ gibt es einen zugehörigen Eigenraum $E_{\lambda i}$, der durch seine Eigenvektoren aufgespannt wird. **Bsp:** eigenwert $-6$ eigenvektor $\begin{bmatrix}24\\-3\\7\end{bmatrix}$ -> $E_{-6}=span(\begin{bmatrix}24\\-3\\7\end{bmatrix})$ -> Dimensionalität 1 ### Algebreische Vielfachheit eines Eigenwertes "wie oft der Eigenwert als Nullstelle des charakteristischen Polynoms vorkommt" - bei einer $A\in \mathbb{R}^{n\times n}$ maximal $n$ EW, ein Eigenwert hat algebraische Vielfachheit max $n$ **Bsp**
A = \begin{bmatrix}
2 & 1\0 & 2
\end
You can't use 'macro parameter character #' in math mode$\det(A-\lambda I) = (2-\lambda)(2-\lambda)$ -> EW 2 hat algebraische Vielfachheit $2$ ### Geometrische Vielfachheit eines Eigenwertes = dimension des zugehörigen Eigenraums
1\leq \text{geometrische V.} \leq \text
You can't use 'macro parameter character #' in math mode-> zu jedem $EW$ gibt es mindestens ein Eigenvektor ## Diagonalisierbarkeit $A \in \mathbb{R}^{n\times n}$ und sei $D \in \mathbb{R}^{n\times n}$