Organisation

LGS

Rang und Loesungsdiskussion

Rang = Anzahl Element ungleich 0 in der Diagonalen

nR=^ Rang
nv=^ Anzahl Variablen

nR=nV

Tricks beim Eliminationsverfahren

Matrizen

Matrizen addieren:

Matrixmultiplikation:

Matrix-Vektor-Multiplikation:

[147258369][123]=[123]1+[456]2+[789]3==[303642]

LGS als Matrixmultiplikation

[1342][x1x2]=[45]

LGS Ax=b kann nur gelöst werden, wenn rechte Seite als lineare Kombination der Spalten von A ausgeführt werden kann

[1000]x1[10]+x2[00]=[x10]

Tipp: Überprüfen, ob Ergebnis Vielfaches von einer Spalte ist

Generell lässt sich ein LGS für jede rechte Seite b nur dann lösen, wenn r=n=m.

Transponierte

Die Transponierte A ergibt sich durch Spiegelung von A an der Hauptdiagonalen

A=[123456],A=[142536]A=[133],A=[123]

Wenn gilt A=A, dann heisst A symmetrisch. (n=m)

aRm×nARn×m

-> Dimensionen werden vertauscht
-> (A)=A

Inverse

Eine Matrix ARn×n besitzt eine Inverse A1Rn×n, wenn gilt:

AA1=A1A=IEinheitsmatrix A2×2=[1001] A1=1adbc[dbca]

-> existiert nur wenn Nenner adbc0 (Determinante)
-> immer überprüfen (AA=I)

I3×3=[100010001]I3×31=I3×3

Rechenregeln

i)(AB)=BA(ABC)=C(AB)wegen i)=CBAnochmals i)ii)(AB)1=B1A1falls A1,B1 existierenA,B müssen quadratisch seiniii)(A1)=(A)1
A(A1)=(A1A)Rechenregel i)=(I)I1=I,I=I=I

LU-Zerlegung

PA=LUP:Permutationsmatrixx für vertauschen von ZeilenL:Protokollmatrix, untere DreiecksmatrixU:Dreiecksmatrix, Resultat aus Gaussverfahren PA=LUARm×nLRm×mURm×nPRm×m

Achtung!

LU-Zerlegung von

[2334]

2II3I -> II32I immer normalisieren!

L=[10321],U=[23012]

Euklidische Norm

||x||=x12+x22++xn2 x^=x||x||
Note

||ax||=|a|||x||FüraR,xRn

Nützliche Interpretation

||x||=x12++xn2xx

Skalarprodukt

<x,yxy=x1y1+x2y2++xnyn <x.y>=||x||||y||cos(α)α=^ Winkel zwischen x und ycos(α)=xy||x||||y||
Winkel to pi:

Winkel in π=πwinkel
z.B. bei 0.64 π0.64π5

α cosα sinα
0 1 0
30° π6 32 12
45° π4 22 22
60° π3 12 32
90° π2 0 1

Orthogonalität

xy=0
orthogonale Vektoren finden

Finde y0, sodass xy=0
-> viele Möglichkeiten

Kreuzprodukt (in 3D)

[121]×[101]=[x2y3x3y2x3y1x1y3x1y2x2y1]

Orthogonale Matrizen

AA=I ||Qx||=(Qx)Qx=xQQIx=xx=||x||

Rotationsmatrizen

R(α)=[cosαsinαsinαcosα] Rxy(α)=[cosαsinα0sinαcosα0001]

Householder-Matrozen

Spiegelung von Vektoren an einer Hyperebene

H=I2nn

QR-Zerlegung

#todo fertigschreiben

QR-Zerlegung mit householder Matrizen

A=[221]

-> wollen durch Spiegelung zwei Nullen in der ersten Spalte erzeugen

[221]zu[a00]transformieren

-> beide Vektoren haben gleiche Länge, 3 (ausrechnen!)
-> a=3, [300], spiegeln auf [300] auch möglich

x[300]=[221][300]=[121]n=[121]||[121]||=16[121]H1=I2nn=[100010001]13[121242121]=[232313231323132323]=13[221212122]

-> am Schluss überprüfen, ob Matrix stimmen kann

H1A=[3002. Schritt: hier 0 erzeugen]

-> noch H2 Berechnen

H2=[10000]

AM Ende:

A=QRR=H2H1AQ=H1H2QR=H1H2H2H1A=A
Q berechen

Für Q muss man transponieren

Prüfungsaufgabe:

A=[1111110021]A=QR||a1||=3||a2||=6||a3||=3

->

Q=[12161312161302613]R=[200060003]

Vektorräume

Tip

Entweder beweisen, oder Gegenbeispiel finden (einfacher)

z.B. Ist V=[1,2] ein Vektorraum?
x=1V,y=2V,x+y=3V

Vektorräme erfüllen 7 zusätzliche Eigenschaften

i) a+b=b+aa,bVkommutativii) (a+b)+c=a+(b+c)a,b,cVassoziativ einfach zu überprüfeniii) a+0=a0,aVVektorraum enthält Nullelementiv) aVa:a+(a)=0enthält negatives Elementv) α(βx)=(αβ)xvi) (α+β)x=αx+βxvii) 1x=x

Bsp:

V={[123]+x[721]|xR}

-> Enthält kein Nullvektor, V ist kein Vektorraum

Bsp: Menge aller symmetrischen 2×2 Matrizen (A=A)

V={[abbc]|a,b,cR}

Ist V ein Vektorraum?

  1. Addition angeschlossen? [b1+b2b1+b2] -> ✔
  2. Multiplikation abgeschlossen? ✔
  3. Nullelement? Nullmatrix ist symmetrisch ✔
  4. Negatives Element? ✔

-> V ist ein Vektorraum

5,6,7 müssen normalerweise nicht gezeigt werden, falls

Bem: Wenn A und B Vektorräume sind und BA, dann nennt man B einen Unterraum von A

V={t[123]|tR}

ist ein Unterraum von R3.

Bsp: Vektorraume mit Funktionen als "Vektoren":

P2={ax2+bx+c|a,b,cR2}

(alle Polynome mit Grad 2 oder kleiner)
-> Betrachtung von Funktionen als Vektoren erlaubt Verallgemeinerung von Konzepten wie Orthogonalität, Winkeln,

Lineare Kombination

i=1kaixiaiR,xiRn

Dimension Vektorraum

Bsp R3

v1=e1,v2=e2,v3=e3

Bsp v1,v2,v3 nicht eindeutig

v1=[111],v2=[110],v3=[100]

-> eine solche Ansammlung an Vektoren wird auch Erzeugendensystem genannt

Bild einer Matrix

A=[a1a2an]Rm×n

Im(A)=span(a1,,an)

={i=1nαiai|αiR,aiRm}

Kern einer Matrix

Der Kern einer Matrix ARm×n ist die Lösungsmenge der Gleichung Ax=0

ker(A)={xRn|Ax=0}

Bsp:

[1002]

-> da Rang Matrix =2 und A quadratisch => Ax=b lässt sich eindeutig lösen => ker(A)={0}

Bsp

A=[102000100]

-> Rang 2, ker(A)={a[010]|aR}

Warning

Wenn ARm×n, dann haben Elemente des Bilds Dimension Rm und Elemente des Kerns Rn

#timestamp 2024-10-24
Serie 5 letzte Aufgabe:

Serie 4, Aufgabe 11

Fixiere zker(M), fixiere x
-> vker(M)
x=v+cz
Was sind v und c?


Trick: nutzen, dass Vektor(M) (Mv=0)
-> x von links mit M muliplizieren

Mx=M(v+cz)=Mv0+Mcz(wobei c ist Skalar)=cMzc=MxMz

MR1×m,zRM×1
Mz ein Skalar, Mx auch

-> setzen

x=v+MxMzz

M=[m]
da Mx=0
dim(ker(M))m1
M=[0 00]ker(M)=Rm
-> x=v+MxMzcz eindeutig

Lineare Unabhängigkeit

a1v1+a2v2++anvn=0a1=a2==an=0

Lineare unabhängigkeit lässt isch durch das Lösen eines homogenen LGS überprüfen:

[v1v2vn][a1a2an]=[000]

nur wenn a=[000] eindeutig, dann sind v1,,vn linear unabhängig

Dimensionen

Es kann nicht mehr linear unabhängige Vektoren als die Dimension des Raumes geben

Wann sind 2 Vektoren linear abhängig?

-> wenn sie dieselbe "Richtung haben"

Bsp: x=[123],y=[102030]
-> x+y=[000]


ARm×n

Spalten, Zeilen, Rang

  • Anzahl linear unabhägiger Spalten A
    • = Rang A=r
    • = Anzahl linear unabhängiger Zeilen A

Bsp

[123444]

-> Rang =2, da 2 Zeilen unabhängig

Basis

Bsp

x=[101],y=[100]

-> z muss in zweiten Eintrag 1 enthalten, um linear unabhängig zu sein und Basis mit x,y zu bilden, z.B. z=[111].

Fundamentalsatz der linearen Algebra

Recap (ARm×n)

Bild A=span(a1,,an)={i=1nxiai|xiR,aiRm}Kern A={xRn|Ax=0}

daher:

dim(Bild A)mdim(Kern A)n
  1. dim(Bild A)=r, dim(Kern A)=kr
    • kr freie Variablen für LGS mit rang r
    • dim(Bild A)=r, dim(Kern A)=nr
  2. dim(Kern A)+dim(Bild A)=k
    • dim(Kern A)+dim(Bild A)=n
  3. Kern ABild A
    • Bild AKern A

-> Orthogonalität impliziert lineare Unabhängigkeit
-> daraus folgt

-> Kern(A)dim krBild(A)dim rRk
unterschiedliche Dimensionen der Vektorelemente

Bsp:

[110011110000]

rang=2
dim(Bild A)=2
dim(Kern A)=kr=32=1

Welche Dimensionan haben die Elemente von Bild(A)?
-> Spalten haben 4 Komponenten
-> Dimension 4
-> Spaltenraum spannt 2D Ebene in R4 auf

Welche Dimensionen haben die Elemente von Kern(A)?
-> Ax=0
-> λR3 -> 3 Dimensionen

#timestamp 2024-10-31

Koordinaten

Basiswechsel

kB~(v)=TkB(v) T=[kB~(b1)kB~(bn)]

-> wir repräsentieren die Basisvektoren von B in B~ um die Spalten zu berechnen

Bsp:

B={[11],[10]}B~={[12],[21]}

Wir wandeln wie Koordinaten von B nach B~>
-> T spaltenweise berechen

b1=a[12]+b[21]

-> a=13,b=13

kB~(b1)=[1313]

genau gleich:
-> a=13,b=23

kB~(b2)=[1323]

die Übergangsmatrix:

T=13[1112]

-> am Ende: Sanity check

Basiswechsel einer Matrix

Gegeben Matrix A mit Basis B, wie sieht die Matrix in der Basis B~ aus?

(Annahme, V,W gleiche Basis)

Pasted image 20241031105217.png|400

-> Pfad enthält 3 Matrixen, die miteinander multiplizieren

A~=A1

Die Matrix, die zuerst angewendet wird, ist ganz rechts!

Lineare Abbildungen

F:VW,xF(x)

Bsp:

  1. v=P2={ax2+bx+c|a,b,cR}

pV:F(p(x))=δδxp(x)
F linear?

-> überprüfen, ob addition, multiplikation von skalar stimmt
-> Ableitung ist eine lineare Abbildung


  1. v=P2, F(p(x))=δδxp(x)

FInde Matrix, die F beschreibt!

BV={1,x,x2}

Wie wirkt F auf Basisvektoren?

1[100]x[010]x2=[001]

-> F(1) = δδx1=0
-> F(x) = ...= 1
-> F(x2)=δδxx2=2X

ARm×n

dim(V)=n=3
dim(W)=m=2

A[100]=[00]A[010]=[10]A[001]=[02]A=[010002]

Vorgehen:

  1. Wie wirkt F auf jeden Basisvektor?
  2. Spaltenweise A aufstellen

p(x)P2:F(p(x))=δδxp(x)

ker(F)={a|aR}

-> Ableitung von Konstanten ist 0

dim(ker(F))=1

A=[010002]R2×3

3=dim(ker(F))+dim(im(F))

-> dim(im(F))=2

Prüfung HS 2024 Aufgabe

a)...
b)...
c) Gegeben seien im Urbildraum die Basis 1x,2x,4x2 und im Bildraum die Basis 2,x4,x23. Welches ist die neue Matrix B, die F nach dem Basiswechsel beschreibt:

Aus b):

A=[10003200073]A~=KAT1

Einheitsbasis:

B={[110],[020],[004]}

Wie stellen wir die Basisvektoren von B in der EInheitsbasis dar?

T1=[100120004]

k ist Übergang von EInheitsbasis zu B~

B~={[200],[0140],[0013]}

-> Vektoren der Einheitsbasis in B~ darstellen:

[100]=12[200]+0[0140]+0[0013][010]=[001]=K=[1200040003]      aus skalaren der lin. Komb.A~=KAT1==[120061200028]

#timestamp 2024-11-07

Norm und Skalarprodukt in linearen Räumen

Norm

  1. ||v||=0v=0
  2. aR,vinV:||av||=|a|||v||
  3. ||v+w||||v||+||w||
  4. (||v||0 !!)

Bsp: p-Normen

||x||p=(|x1p++|xn|p)1/p ||x||=limp(|x1p++|xn|p)maxi{1,,n}|xn|p1/p=maxi{1,,n}|xi| ||x||1=|x1|++|xn|

Äquivalenz der Normen

Wenn |||| und |||| zwei Normen sind und xRn, dann gilt:

1C||x||||x||C||x||

-> C ist eine Konstante

Bsp:
Was ist C für ||x||2 und ||x||

1C||x||2||x||C||x||2||x||2=x12++xn2Summe unter Wurzel ||x||2||x||=maxi{1,,n}|xi|||x||||x||2

-> aber C=1 taugt nicht, weil ||x||2>||x|| möglich ist
-> Brauchen Extremfall, wieviel ||x||2 maximal grösser als ||x|| sein kann

x=[x1x1]||x||2=x12++x12n=nx12=n|x1|

||x||=|x1|
nc|x1||x1|
c=n1

1n||x||2||x||n||x||2

Bsp Ist ||x||=|xi| eine Norm?
-> mehrere Elemente können 0 sein, z.B. jedes ||[nn]|| nN=0

Bsp ||x||=|xi| eine Norm?
i) ||x||=0x=0
ii) ||ax||=i|axi=|a|||x||
iii) ||x+y||=i|xi+yi|i|xi|+|yi|=||x||+||y||

Skalarprodukt

Funktion <.,.>:V×VR mit 3 Eigenschaften:

  1. <x,ay+bz>=a<x,y>+b<x,z>
  2. <x,y>=<y,x>
  3. <x.x>≥0
    • <x,x>=0x=0

Norm kann aus Skalarprodukt induziert werden:

||x||=<x,x>

Bsp euklidische Norm

||x||2=x12++xn2=xx=<x,x>

Bsp Skalarprodukt über Matrix A
(A positiv-definit xAx0)

<x,y>A=xAy

Bsp zu Skalarprodukten (xR3)
Ist <x,yx1y1+2x2y23x3y3 ein Skalarprodukt?

  1. <x,y>=<y,x>
  2. <x,ay+bz>=x1<ay1+bz1>==a<x,y>+b<x,z>
  3. Positiv definit?

<x,x>≥0

<[001],[001]>=00+200311=3<2

-> kein Skalarprodukt

Note

  • zuerst überlegen, ob es ein gegenbeispiel gibt
  • mit kompliziertester eigenschaft anfangen, um Zeit zu sparen

Summen von Skalarprodukten mit Koeffizienten 0 sind Skalarprodukte

Orthogonale Projektionen

Pxx=<y,x><x,x>y

-> "Punkt auf y am nächsten zu x" -> Projektion auf y zum Punkt

Bsp abstand von funktionen

F,g{ax2+bx+c|a,b,cR}<F,g>=01F(x)g(x)dx

let

PgF=<F,g><g,g>g=01F(x)g(x)dx01g(x)g(x)dxg(x)==4916(x2+2x) \alpha=\arccos \frac{|<x,y>|}{||x||||y||} $$- Orthogonal wenn $<x,y>=0$ Wenn 2 Vektoren orthogonal sind, dann ergibt $P_{y}x=P_{x}y=\vec{0}$ > #timestamp 2024-11-14 ### Gram-Schmidt Orthogonalisierungsverfahren - Methode zur Erzeugung einer orthonormalen Basis aus einer gewöhnlichen Basis

\begin{align}
B & = { b_{1},b_{2},b_{3} } & (\text{reihenfolge nicht eindeutig;}\
& & \text{Vektor auswählen, der am einfachsten ist})\
q_{1} & = \frac{b_{1}}{||b_{1}||} & (||q_{1}||=1) \
\
c_{2} & =b_{2} -b \left< b_{2},q_{1} \right> q_{1} \
q_{2} & =\frac{c_{2}}{||c_{2}||} & (\text{Komponente in Richtung q1 abgezogen}\to q_{1}\bot q_{2}) \
\
\dots \
\
c_{n} & = b_{n}-\sum_{i=1}^{n-1}\left< b_{n},q_{1} \right>q_{i} & \to q_{n}\bot q_{n-1},\dots,q_{1} \
q_{n}&=\frac{c_{n}}{||c_{n}||} \
\
\tilde{B}&={ q_{1},q_{2},\dots,q_{n} } & \text{(ist eine orthonrmale Basis)}
\end

Bsp:QRZerlegungmitGramSchmidt

\begin{align}
A & = \begin{bmatrix}
1 & 1 \ 2 & 0 \ 0 & 2
\end{bmatrix} & A=QR
\end

1.GramSchmidtaufSpaltenvektoren

\begin{align}
q_{1}&=\frac{1}{\sqrt{ 5 }}\begin{bmatrix}1\2\0\end{bmatrix} \
c_{2}&=a_{2}-\left< a_{2},q_{1} \right>q_{1} \
& = \begin{bmatrix}
1\0\2
\end{bmatrix} - \left< \begin{bmatrix}
1\0\2
\end{bmatrix}, \frac{1}{\sqrt{ 5 }}\begin{bmatrix}
1\2\0
\end{bmatrix} \right>\frac{1}{\sqrt{ 5 }}\begin{bmatrix}
1\2\0
\end{bmatrix} \
& = \begin{bmatrix}
1\0\2
\end{bmatrix} - \frac{1}{5}\cdot 1 \cdot \begin{bmatrix}
1\2\0
\end{bmatrix} \
& = \frac{1}{5} \begin{bmatrix}
4\-2\10
\end{bmatrix} \
||c_{2}|| & =\frac{1}{5}\sqrt{ 4^2+2^2+10^2 } = \frac{1}{5}\sqrt{ 120 } \
& = \frac{1}{5}\sqrt{ 4\cdot 30 } = \frac{2}{5} \sqrt{ 30 } \
q_{2}&=\frac{c_{2}}{||c_{2}||} = \frac{1}{2\sqrt{ 30 }} \begin{bmatrix}
4\-2\10
\end{bmatrix} \
& = \frac{1}{\sqrt{ 30 }}\begin{bmatrix}
2\-1\5
\end{bmatrix} \
\
Q & = \begin{bmatrix}
q_{1} & q_{2}
\end{bmatrix} = \begin{bmatrix}
\frac{1}{\sqrt{ 5 }} & \frac{2}{\sqrt{ 30 }} \
\frac{2}{\sqrt{ 5 }} & -\frac{1}{\sqrt{ 30 }} \
0 & \frac{5}{\sqrt{ 30 }}
\end{bmatrix}
\end

2.Berechnung$R$($A=QR$)$R=[q1a1q1a20q2a2]$$=[51501230]$3.Überprüfen

\begin{bmatrix}
1 & 1\2 & 0\0 & 2
\end{bmatrix} = \begin{bmatrix}
\frac{1}{\sqrt{ 5 }} & \frac{2}{\sqrt{ 30 }} \
\frac{2}{\sqrt{ 5 }} & -\frac{1}{\sqrt{ 30 }} \
0 & \frac{5}{\sqrt{ 30 }}
\end{bmatrix} \begin{bmatrix} \sqrt{ 5 } & \frac{1}{\sqrt{ 5 }}\0 & \frac{12}{\sqrt{ 30 }} \end

-> hier ist $Q$ streng genommen keine orthogonale Matrix ### Projektoren - lineare Abbildung $P:V\to V$, für die gilt:

P^2=P

[bild]orthogonalerProjektor

P=P^\top\quad (\text{Matrix muss symmetrisch sein})

(danngilt$xPx  Bild P$)Bsp$[100010]$>$P2=P$Projektion?>$P2$existiertnurwenn$P$quadratisch>nichtProjektorBsp

\begin{bmatrix}
0 & 0 & 1 \ 0 & 1 & 0 \ 0 & 0 & 1
\end{bmatrix}\quad \text

P^2 = \begin{bmatrix}
0 & 0 & 1 \ 0 & 1 & 0 \ 0 & 0 & 1
\end{bmatrix}\begin{bmatrix}
0 & 0 & 1 \ 0 & 1 & 0 \ 0 & 0 & 1
\end{bmatrix} = \begin{bmatrix}
0 & 0 & 1 \ 0 & 1 & 0 \ 0 & 0 & 1
\end{bmatrix} = P ~\checkmark

P Projektion orthogonal? $P=P^\top$ -> stimmt nicht ($1$ oben rechts verschiebt sich) -> nicht orthogonal #### Berechnung orthogonaler Projektoren #todo --- - Wenn $U.V$ zwei Matrizen mit $\underbrace{ V^\top U = I }_{ \text{spalten U orthonormal} }$, dann:

P=UV^\top\quad (\text{ist schiefe Projektion auf Spaltenraum von U})

Bsp(vorherigesBeispiel)

U=\begin{bmatrix}
\frac{1}{\sqrt{ 2 }} & 0 \ 0 & 1 \ \frac{1}{\sqrt{ 2 }} & 0
\end

Suchen$V$mit$VU=I$mehrereMöglichkeiten

V=\begin{bmatrix}
0 & 0 & \sqrt{ 2 } \
0 & 1 & 0
\end

V^\top U = \begin{bmatrix}
1 & 0 \ 0 & 1
\end

P=UV^\top = \dots=\begin{bmatrix}
0 & 0 & 1 \
0 & 1 & 0 \
0 & 0 & 1
\end

$P^2=P~\checkmark$ $P^\top=P~\times$ -> schiefe Projektion --- #todo ### Riesz Theorem Sei $F:V\to \mathbb{R}$ ein lineares FUnktional und $V$ Vektorraum - Funktional $\hat{=}$ von Vektorraum auf $\mathbb{R}$ 1. $\exists$ eindeutiges $w \in V$: $F(v)=\left< w,v \right>~~~\forall v \in V$ 2. Sei $b_{1}, b_{2},\dots,b_{n}$ ONB in $V$, dann $w=\overline{F(b_{1})}b_{1}+\dots$ **Bsp** $L(x.y)=2x+3y$ $L(x,y)=\left< \begin{bmatrix}x\\y\end{bmatrix},\begin{bmatrix}2\\3\end{bmatrix} \right>$ -> $w=\begin{bmatrix} 2 \\ 3\end{bmatrix}$ beschreibt $L$ eindeutig > #timestamp 2024-11-21 ## Ausgleichsrechung (Linear Regression) - Finde Funktion die Fehlersumme minimiert

F^*(t)=\arg\min_{F} \sum_{i=1}^n (F(t_{i})-y_{i})^2

FürunsereZweckeist$F(t)$meistlinearin$t$

F(t)=x_{0}+x_{1}t~(+x_{2}t^2+x_{3}t^3+\dots)

>$x0,x1$sindgesuchteParameterProblemeinMatrixVektorformbringen:

\vec{x}=\begin{bmatrix}
x_{0}\x_{1}
\end{bmatrix}, A=\begin{bmatrix}
1 & t_{1}\1 & t_{2}\\dots\1 & t_{n}
\end{bmatrix}, b = \begin{bmatrix}
y_{1}\y_{2}\\dots\setminus y_{n}
\end

A\vec{x}=\begin{bmatrix}
x_{0}+x_{1}t_{1} \
\dots \
x_{0}+x_{1}t_{n}
\end{bmatrix} = \begin{bmatrix}
F(t_{1})\\dots\F(t_{n})
\end

NunkönnenwirdieFehlersummeumschreiben:

\sum_{i=1}^n (F(t_{i})-y_{i})^2 = ||Ax-b||^2

Zielfindeoprimales$x^$

\hat{x} = \arg\min_{x \in \mathbb{R}^n} ||Ax-b||^2

optimale$x^$erfüllenNormalengleichung(HerleitungimSkript)

A^\top A \hat{x} = A^\top b

eindeutigeLösungwenn$A$vollenSpaltenranghat=>$AA$invertierbar:

\hat{x} = (A^\top A)^{-1} A^\top b

> [!warning] Ansonsten gibt es $\infty$ Lösungen > Normalengleichung hat niemals keine Lösung # Determinanten - Zahl, welche die Invertierbarkeit von quadratischen Matrizen charakterisiert: - $A \in ^{n\times n}$, $A^{-1}$ existiert genau dann wenn $\det(A)\neq0$ - Konsequenz: Für alle quadratischen Matrizen, die nicht vollen Rang haben, gilt $\det(A)=0$ **Bsp** 1. Determinante für $2\times2$ Matrizen

A=\begin{bmatrix}
a & b\c & d
\end{bmatrix}, \det(A)=ad-bc

>$A1$existiert2.$2×2$ohnevollenRang

B=\begin{bmatrix}
1 & -2\-3 & 6
\end

-> $\det(B)=0$ -> $A^{-1}$ existiert nicht ## Regel von Sarrus für $3\times3$ Matrizen

C = \begin{bmatrix}
a & d & g\b & e & h\c & f & i
\end{bmatrix}, \det(C) = aei+bfg+cdh-gec-hfa-idb

-> genauso aufwendig wie Regel 11 (entwicklung nach Spalte/Reihe), aber im gegensatz zu 11 nicht nützlich zur Berechnung vom charakteristischen Polynom ### Laplacescher Entwicklungssatz - Methode zur Berechnung der Determinante in beliebigen Dimensionen Für $n \times m$ Matrix, Entwicklung nach z.b. Spalte $m$:

\det(A) = \sum_{i = 1}^n (-1)^{i+m} \cdot a_{im} \cdot \det(A_{im})

## rechenregeln Determinante 1. $A \in \mathbb{R}^{n\times n}, B \in \mathbb{R}^{n\times n}: \det(AB)=\det(A)\det(B)$ 2. $\det(A^{-1})=\frac{1}{\det(A)}$ 3. $A \in \mathbb{R}^{n\times n}, \alpha \in \mathbb{R}: \det(\alpha A)=\alpha^n\det(A)$ 4. $\det(A^\top)=\det(A)$ 1 -> orthogonale Matrix $Q^{-1}=Q^\top$ $\det(I)=1$ $\det(Q^\top Q)=\det(I)=1$ 1-> $\det(Q^\top)\det(Q)=1$ 4-> $\det(Q)\det(Q)=1$ $\det(Q)^2=1$ $\det(Q)=1$ oder $\det(Q)=-1$ > #timestamp 2024-11-28 # Eigenwerte und Eigenvektoren $A \in R^{n\times n}, x \in \mathbb{R}^n$ (quadratische Matrix): x ist Eigenvektor von $A$ mit Eigenwert $\lambda \in \mathbb{R}$, wenn gilt:

Ax=\lambda x

$0$istkeinEigenvektor>trivialeLösungeinEigenvektorhatnureinenEigenwert/einEigenwertkannmehrereEigenvektorenhabenBerechnung:

\begin{align}
& Ax-\lambda x = \vec{0} \
& (A-\lambda I)x = \vec{0} \
\iff~ & \det(A-\lambda I) = 0
\end

- $\det(A-\lambda I)$ gibt uns ein Polynom (in $\lambda$) von Grad $n$ und wird **charakteristisches Polynom** genannt ## Eigenräume Zu jedem Eigenwert $\lambda i$ gibt es einen zugehörigen Eigenraum $E_{\lambda i}$, der durch seine Eigenvektoren aufgespannt wird. **Bsp:** eigenwert $-6$ eigenvektor $\begin{bmatrix}24\\-3\\7\end{bmatrix}$ -> $E_{-6}=span(\begin{bmatrix}24\\-3\\7\end{bmatrix})$ -> Dimensionalität 1 ### Algebreische Vielfachheit eines Eigenwertes "wie oft der Eigenwert als Nullstelle des charakteristischen Polynoms vorkommt" - bei einer $A\in \mathbb{R}^{n\times n}$ maximal $n$ EW, ein Eigenwert hat algebraische Vielfachheit max $n$ **Bsp**

A = \begin{bmatrix}
2 & 1\0 & 2
\end

$\det(A-\lambda I) = (2-\lambda)(2-\lambda)$ -> EW 2 hat algebraische Vielfachheit $2$ ### Geometrische Vielfachheit eines Eigenwertes = dimension des zugehörigen Eigenraums

1\leq \text{geometrische V.} \leq \text

-> zu jedem $EW$ gibt es mindestens ein Eigenvektor ## Diagonalisierbarkeit $A \in \mathbb{R}^{n\times n}$ und sei $D \in \mathbb{R}^{n\times n}$

D = \begin{bmatrix}
\lambda_{1} & & 0 \
& \dots & \
0 & & \lambda_{n}
\end

MannenntAdiagonalisierbar,wenngilt

A = SDS^

wobeidieSpaltenvonSdurchdie(geordneten)Eigenvektorengegebensind:

S = \begin{bmatrix}
v_{1} & v_{2} & \dots & v_{n}
\end

"geordnet":ReihenfolgeEigenwerteinD$=^$ReihenfolgeEVinSSkannnuraufgestelltwerden,wenn$n$EigenvektorenEVmüssennichtnormalisiertseinAistgenaudanndiagonalisierbar,wennfürjedenEigenwertdiealgebraischeVielfachheitgleichdergeometrischenVielfachheit

A = \begin{bmatrix}
2 & 1\0 & 1
\end{bmatrix}, \lambda_{\frac{1}{2}}=2

>$dim(Eλ12)=1$>AV=2,GV=1>nichtdiagonalisierbar>[!note]>HäufigerFehlschluss:InvertierbarkeitundDiagonalisierbarkeithängenmiteinanderzusammen>$$[1000]

-> diagonalisierbar, aber nicht invertierbar

[1101]

-> invertierbar, aber nicht diagonalisierbar
Diaogonalisierbarkeit von A lässt keinen Schluss auf die Invertierbarkeit zu, umgekehrt genauso

Charakteristisches Polynom lösen

Bsp

det(AλI)=λ3+4λ2+λ6

-> oftmals ist eine Nullstelle gegeben durch 0,1 oder -1
-> einsetzen: (1) 1+4+16=0

λ1=1
Grad des Polynoms durch Polynomdivision reduzieren

(x3+4x2+x6):(x1)=x2+5x+6

-> det(AxI)=(x1)(x2+5+6)

quadratische Funktion:
-> Nullstellen 2,3

det(AxI)=(x1)(x+3)(x+2)

Nützliches zu Eigenwerten

det(A)=i=1nλi

=> det(A)=0 wenn 0 ein Eigenwert ist

[12340567008900010]λ1=1,λ2=5,λ3=8,λ4=10 A=[1423]det(AλI)=(1λ)(3λ)8=λ24λ5=(λ1)(λ4)

λ1=5,λ2=1
λ1λ2=5
det(A)=38=5


λ1+λ2=4
A=[1423]1+3=4

#timestamp 2024-10-05

Serie 10: Letzte Aufgabe

Normale Matrizen (AA=AA) haben orthogonale Eigenvektoren
Bedeutet:

Av1=λ1v1Av2=λ2v2λ1λ2v1v2=0

Beweisidee: Zeigen, das A und A gleiche EW mit gleichen EV haben.
-> dann gilt:

(Av1)v2=λ1v1v2(Av1)v2=v1Av2=v1λ2v2λ1v1v2=λ2v1v2v1v2=0

Wie zeigen, dass A und A gleiche EW und EV haben?
-> Für EW einfach:

det(AλI)=det((AλI))=det(AλI)

-> Für gleiche EV:

(AλI)Bv=0und(AλI)Bv=0

Beide LGS müssen gleiche Lösung haben!
B ist normal:

BB=BBselbst überprüfen

-> Hinweis: für normale Matrizen haben B, B den gleichen Kern
(Beweis in der Musterlösung)

also haben Bv=0 und Bv=0 gleiche Lösung -> A und A haben gleiche EV

Spektralsatz

Symmetrische Matrizen (können immer diag.) haben orthogonale Eigenvektoren und lassen sich durch orthogonale Matrizen diagonalisieren:

A=UDU U=[u1,u2,,un],D=[λ100λn] A=i=1nλiuiui

Bsp
Orthogonalität ausnutzen

A=[1441]relativ einfach: v1=[11]EV mit EW λ1=5

v2=[11] -> weil A symmetrisch v1v2

Av2=[33] -> λ2=3


Für Diagonalisieren: EV normieren

A=12[1111][5003]12[1111]=5u1u13u2u2=52[11][11]32[11][11]=[1441] 

Definitheit

Eine symmetrische Matrix ARn×n ist positiv definit, wenn gilt:

  1. xAx0, xRn
  2. xAx=0x=0
xAx=i=1nj=1nxiAijxjauch möglich:yAx=i=1nj=1nyiAijxj

Proof
Für symmetrische Matrizen bilden die Eigenvektoren eine orthonormale Basis

A=k=1nλkvkvk

-> jede xRn kann als lin.komb. von v1,,vn gebildet werden

x=i=1naiviAx=i=1naiAvi=i=1naiλivixAx=(j=1naivi)(i=1naiλivi)=j=1ni=1najaiλivjvi EV sind orthogonal=i=1nai2λi

-> x:xAx0λi0 i


Bsp

[3333]

positiv definit?

nicht invertierbar -> mind. 1x eigenwert u
-> A hat Rang 1 -> also det(A)=1
-> λ1=0

v1=[11]v2v1v2=[11]

Av2=[66]λ2=6
-> A positiv semi-definit


Prüfungsaufgabe HS 18

[211112121]

-> symmetrisch -> EW orthogonal

Zeilensumme 4 überall λ1=4


Musterlösung:

det(AλI)=det[2λ1111λ2121λ]=(2λ)(1λ)2+2+2(1λ)4(2λ)(1λ)=(2λ)(1λ)2+6λ6=(2λ)(1Λ)26(1λ)=(1λ)((2λ)(1λ)6)λ1=1=(1λ)(λ23λ+26)=(1λ)(λ23λ4)Trick: λ2+λ3=(3)λ2λ3=4

-> λ2=1, λ3=4 (indefinit)

EV berechnen:

[211111121211]

- Matrix muss Rang 2 haben, weil nur eine freie Variable möglich
- x3 ist frei

II x1=2x3
II in I: x2=x3
v1=[211]

λ2=1 -> v2=[011]
λ3=4 -> v3=[111]
evtl: v1,v2v3 über kreuzprodukt

b) Bestimme eine orthonormale Basis aus den EV
-> Eigenvektoren normieren
b1=16[211],b2=12[011],b3=13[111]

c) berechne

eA=limnn=0N1n!An

-> A symm., daher:

A=UDUA2=UDUUDU=UD2UAn=UDnUD=[100010004],Dn=[1n000(1)n0004n]eA=limNn=0N1n!An=limNn=1N1n!UDnU=U(limNn=0NDnn!)U=U(limN[n=0N1nn!000n=0N(1)nn!000n=0N4nn!])U

da: ex=limNn=0Nxnn!

=U([e1000e1000e4])U

#timestamp 2024-12-12

Singulärwertszerlegung (SVD)

A=UΣV

wobei Σ=diag(σ1,σ2,,σp)Rm×n

Bsp

[111111]=16[230231202][600000]12[1111]

wobei σ1=6,σ2=0

Berechnung SVD

  1. Singulärwerte sind Wurzeln der EW von AA und AA
    • immer Matrix auswählen, die kleiner ist

Bsp

[111111]

-> AAR2×2, AAR3×3
-> EW von AA sind einfacher zu berechnen

AA=[3333]

-> da symmetrisch, sind eingenvektoren orthogonal (?)

det(AAλI)=(3λ)29=λ(λ6)

λ1=0,λ2=6
σ1=6,σ2=0 -> nach Grösse ordnen!

Σ=[6..0..]

-> hat immer gleiche Dimensionen wie A!

  1. Spalten von U sind EV von AA, Spalten von V sind EV von AA
    • Nützlich:
uiAvi=σiui=Aviσivi=Auiσi AA=[3333]

-> Spalten von V (=EV von AA) sind einfacher zu berechnen, weil VR2×2, und UR3×3

Vorsicht: λi=σi2

Berechnung V

(AAλ1I)x=0
-> Rang 1 -> x1=x2
-> Normierter EV: v1=12[11]

-> da AA symmetrisch: v2v1

v2=12[11]

V=12[1111]

-> muss noch transponiert werden, in unserem Beispiel schon symmetrisch

Berechnung U

u1=Av1σ1=16[111111]12[11]==16[222]u2=12[110]=16[330]u3=16[112]

-> v3 hier von der Norm her geraten
#todo: üben, orthogonale Vektoren von Hand erkennen

U=16[231231202]

Ergebnis:

[111111]=16[230231202][600000]12[1111] A=i=1nσiuivi A=6v1v1=616[222]12[11]=[111111]

Bsp 2: SVD von A=[123]R1×3

UR1×1, VR3×3

det(AAλI)=14λσ1=14

Σ=[1400]

U trivial: U=1 ( oder 1)


Berechnung V:

v1=Au1σ1=114[123]v2=15[210]v3=[1253]=170[365]1,2 um orthogonal zu v2,53 für v1(v3=13normiert[365])

für v3: erste zwei Einträge, um orthogonal zu v2. Für 3. kreuzprodukt:
11+22+z3=0 -> z=53

V=[11425370214156703140570]
nicht vergessen, V zu transponieren
A=UΣV
Wenn A eine quadratische Matrix ist, dann sind die Singulärwerte von A gleich den Beträgen der Eigenwerten von A.

Ausgleichsrechnung mit SVD

||Axb||2 AAx=Ab ||Axb||22=||UΣVxUUb||22||Ux||22=||x||22 für U orthogonal=||ΣVxUb||22

Zerlegung in Untermatrizen!

=||[Σr000][v1v2]x[U1U2]b||22=||Σrv1xU1b||22+||U2b||22

-> minimal für ΣrV1x=U1b

x=V1Σr1U1b

Bsp:

[111111]=16[230231202][600000]12[1111]b=[121]

Finde x, sodass ||Axb||2 minimal:

Σr=6,v1=12[11],u1=16[222],Σr1=16x=v1Σr1U1b==23[11]
Note

Lösung x=V1Σr1U1b ist nicht unbedingt einzige Lösung, aber hat minimale euklidische Norm unter allen Lösungen ||x||2 minimal.

Vergleich mit Normalengleichung:

AA=[3333],Ab=[44]

Normalengleichung: AAx=Ab

[3333][x1x2]=[44]

3x13x2=4x1=43x2

x=[43tt]=[430]+t[11]

||x||2=(43t)2+t2=2t2+83t+169

δδt||x||2=4t84=!0

für minimale Form
=> t=23

x=23[11]
-> liefert gleiche Lösung

Moore-Penrose Pseudoinverse

A=UΣVA=VΣU

wobei

Σ=[1σ10001σ2000]

-> wenn σi=0, dann 1σ1=0 einfach bei 0 lassen

  1. AAA=A
  2. AAA=A
AA=I gilt aber nicht!

Falls A1 existiert: A=A1


Bsp

[111111]=16[230231202][600000]12[1111]A+=VΣ+U=12[1111][1600000]16[222330112]==16[111111]
x=Ab

-> Lösung hat minimale (euklidische) Norm unter allen Lösungen


Bsp (vorheriges:)

A=16[111111],b=[121]x=Ab=23[11]

Matrixnormen mit SVD:

||A||2=maxx0||Ax||||x||=σ1

-> grösster Singulärwert