LGS

1.1 Matrizen

Note

Matrizen sollen nicht unter dem Bruchstrich geschrieben werden

Lineare Kombination

c1v1++cnvn

Standardbasis

Standardbasis von n-dimensionalem Koordinatensystem bestehet aus n Vektoren der Form:

e1=[1000],,en=[0001]

Sie bilden die Identitätsmatrix I

1.2 Gauss-elimination

Note

  • Die Eliminationsschritte machen nur lineare Kombinationen von Gleichungen

Protokollmatrix

Bildet die Operationen der Gauss-elimination ab. Ist am Anfang eine Diagonalmatrix.

Rang einer Matrix

Der Rang r einer Matrix A, notiert als Rang(A), ist die Anzahl der Pivote der Matrix nach der
Gauss-Elimination.

Lösungsdiskussion

nR=^ Rang
nv=^ Anzahl Variablen

Note

Verträglichkeit =^ Kompatibilitätsbedinungen

nR=nV

Alle KB müssen erfüllt sein, damit das LGS mindestens eine Lösung hat

Satz 1.2.0.20.

Für ein lineares Gleichungssystem mit Matrix ARm×n und Rang(A)=𝑟 gilt:
Falls es eine Lösung gibt, ist diese eindeutig dann und nur dann, wenn 𝑟=𝑛.

Homognes LGS

Ax=0

Ein homogenes LGS hat genau dann nicht triviale Lösungen (x0) wenn Rang(A)=r<n

Reguläre/Singuläre Matrix

AR𝑛×𝑛 heisst

1.3 Operation mit Matrizen

(Hermite) transponierte Matrix

für ARm×n

Matrixaddition

alle Einträge der Matrizen an gleicher Position werden addiert

Eigenschaften:

Matrixmultiplikation

Seien

ARm×nXRn×p

multiplication-of-matrices.png|300

So ist die Multiplikation der Matrix A ×B die ZUsammenstellung der Multiplikation von A mit jedem Spaltenvektor von X zu B

BRm×p

Eigenschaften:

spezielle Fälle:
Pasted image 20241007210817.png

Matrixpotenz

Sei k>0,kN

A0=I,A1=A0A,,Ak+1=AkA

LGS

Ein lineares Gleichungssystem (LGS) wird kurz geschrieben als:

Ax=b

wobei A die Koeffizientenmatrix, x die Unbekannte und b die rechte Seite ist

1.4 Inverse matrix

A×A1=I

Eigenschaften:

1.6 LU-Zerlegung

Note

  • Das Gauss-Jordan-Verfahren wandelt
    • Protokollmatrix (Diagonalmatrix) L (untere Dreiecksmatrix)
    • AU (obere Dreiecksmatrix)
    • wobei
A=LU
  • Falls bei der Gauss-elimination auch Zeilen vertauscht wurden, bekommt man noch P, die Permutationsmatrix, und es gilt:
PA=LUAx=bP|PAx=PbLUx=Pb

Determinante

Produkt der Diagonalelemente nach der Gauss-Elimination der quadratischen Matrix A

Eliminationsmatrix

Eij ist die Matrix, welche man aus der Identitätsmatrix I mit Iij an der Stelle ij in erhält.

EjiA realisiert den Schritt in der Gauss-Elimination, in welchem die j-te Gleichung mit Iij
multipliziert wird und zur i-ten Gleichung hinzuaddiert wird.

sparsame LU-Zerlegung

Die Gauss-Elimination von einer beliebigen Matrix A (m×n) lässt sich als LU-Zerlegung schreiben, falls

Blockweise Gauss-Elimination

#todo

LDU-Zerlegung

Pasted image 20240927194938.png|400
Da U beliebige Werte auf der Diagonale hat, führen wir D ein, welche die Diagonalwerte von U auf der Diagonale hat. Ausserdem führen wir U~ ein, sodass

U=DU~A=LU=LDU~

(falls die Diagonaleinträge 0)

Cholesky-Zerlegung

Zerlegen man D in zwei Matrizen

D=DD

Kombiniert mit der [[#LDU-Zerlegung]]:

A=LDL=LDRDLR=RR

Das R ist eine obere Dreiecksmatrix

1.7 Orthogonale Matrizen

euklidische Form

xRn,||x||=x12+x22++xn2

  • die Länge der Matrix

Skalarprodukt

x,yRn,<x,y>=x1y1++xnyn=xy

Winkel

(x,y)^=arccos<x,y>||x||||y||

Orthogonalität

<x,y>=0 AA=I

- alle Spalten stehen aufeinander und haben Länge 1.
- Orthogonale Matrizen verändern Länge und Winkel nicht.

Orthogonale Operationen zweier Matrizen A,BRn×n

Bsp:

Drehmatrizen

Matrix, welche einen Vektor um ϕ dreht (abbildet).

D(ϕ)=[cosϕsinϕsinϕcosϕ]

Die Drehung in der Ebene ij ist:
Pasted image 20241007215050.png|200
wobei

r=xi2+xj2cosϕ=xirsinϕ=xjr

Spiegelung mittels Householder-Matrix

Pasted image 20241007215447.png|300
Der Skalar a=ux. Mit ihm berechnet ist Qx (und auch Q alleine)

Q=I2uu

falls ||u||1 (nicht Norm 1), dann muss mit u||u|| gerechnet werden.

QR-Zerlegung

Um Rundungsfehler zu vermeiden, braucht es eine neue Zerlegungsart. Die QR-Zerlegung ist die Zerlegung einer Matrix A in eine orthogonale Matrix Q und eine obere
Dreiecksmatrix R, so dass A=QR.

Ax=bQRx=bRx=Qb

Dabei muss die Drehmatrix für jede 0 einzeln angewendet werden.
Die Zerlegung mit Spiegelung erzeugt alle Nullen in einer Spalte gleichzeitig.

#todo Satz 1.8.0.6

2 Lineare Räume/Vektorräume

2.1 Raum und Unterraum

Def Vektorraum

Ein reeller Vektorraum / linearer Raum V ist eine Menge mit zwei Operationen:

  • Addition von Elementen aus V
a,bV:a+bV
  • Multiplikation mit Skalaren
    αR,aV:αaV

Eigenschaften:

Funktionen in linearen Räumen

Bsp: Der Raum der s-Mal stetig differenzierbaren Funktionen im Intervall [a,b].

V=Cs[a,b]={f:[a,b]R,f ist s-mal stetig differenzierbar}

Mit dieser C-Notation können verschiedene Mengen, deren Elemente Funktionen sind, definiert werden. Die Mengen sind ineinander verschachtelt:

CCs=1CsC1C0

"+" von Funktionen:
Für f,gV, f,g:[a,b]R, wobei f,g k-mal differentierbar und stetig

f+g:[a,b]R,(f+g)(t)=f(t)+g(t)für allet[a,b]

"*" von Funktionen:
Für αR, aV:

αf:[a,b]R,(αf)(t)=αf(t)für alle t[a,b]
Beweis Linearer Raum

Überprüfen, ob addition und multiplikation erfüllt ist (in derselben Menge bleibt) -> linearer Raum

Beispiele

Räume von Polynomen

Pn={p Polynome vom Grad n1}pP0:p(t)=a0+a1t+a2t2++an1tn1mit a0,,an1R

Raum der quadratisch integrierbaren Funktion L2

L2[0,1]={f:[0,1]R,01|f(t)|2dt existiert}

wobei C0L2, da die Mitglieder von L2 weniger Glattheit haben müssen

Unterraum

Def. Unterraum

Sei V ein linearer Raum mit UV,U. Dann heisst U Unterraum von V, falls gilt:

  • wenn x,yU, dann auch x+yU
  • wenn αR,xU, dann auch αxU
P1PnPn+1CCs1CsC0L2
Untervektorraum prüfen

  1. gibt es einen Nullvektor
  2. ist U abgeschlossen unter Addition
  3. ist U abgeschlossen unter Multiplikation (mit Skalar)

alternativ: Falls U die Lösungsmenge eines homogenen LGS ist, ist es ein Unterraum, z.B.

U={xRn|Ax=0}

2.2 Erzeugendensystem

Def Lineare Kombination

Eine lineare Kombination der Elemente v1,v2,vn eines lineares Raumes V ist

x1v1+x2v2++xnvnV

mit Skalaren x1,x2,xn.
Eine lineare Kombination bV lässt sich mithilfe der Elemente von V und gewählten Skalaren darstellen.

Def Span

Wir bezeichnen die Menge aller linear Kombinationen von Elementen {v1,v2,,vn}V mit

U=Span{v1,v2,,vn}={x1v1+x2v2++xnvnVmitx1,x2,,xn Skalare}

Wir sagen, dass U aufgespannt/erzeugt wird von v1,v2,,vnV

Bild einer Matrix

eine Matrix × Vektor Multiplikation ist eine lineare Kombination der Spaltenvektoren der Matrix:
ARm×n, xRn

Ax=x1a1++xnanRm

wir können es auch als Abbildung betrachten:

A:RnRnxAx
Def Bild

Die Menge aller Bildelemente einer Abbildung heisst Bild der Abbildung.

  • Die Abbildung A ist das Bild der Matrix A
Bild A={yRm:y=Ax,xRn}={yRm:y=x1a1++xnan}=Span{a1,an}

-> Das Bild von A wird von deren Spalten erzeugt

Erzeugendensystem

Def Erzeugendensystem

Falls sich jedes bV eines linearen Raumes als lineare Kombination von v1,vn schreiben lässt, ist diese Menge das Erzeugendensystem von V:

{v1,v2,,vn}V

Kern einer Matrix

Def Kern einer Matrix

Der Kern einer Matrix A (m×n) ist die Menge der Vektoren xRn, sodass

Kern A={xRn sodass Ax=0}

Pasted image 20241012175206.png|200

#todo Berechnung von Bild, Kern im Skript anschauen
-> zu lang zum übertragen in Zusammenfassung
https://moodle-app2.let.ethz.ch/pluginfile.php/2131293/mod_resource/content/7/LAVG.pdf#section.2.3

endlichdimensionale lineare Räume

Def Endlichdimensionale lineare Räume

Ein linearer Raum V heisst endlichdimensional wenn es eine endliche Menge {v1,,vn}V gibt, die erzeugend für V ist.

2.3 Lineare Unabhängigkeit und Basis

Für {v1,v2,,vn}V linearer Raum, möchten wir die Menge haben, mit der sich alle anderen Elemente erzeugen lassen. Falls sich ein Element durch andere Elemente erzugen lässt, liefert es keine neuen Information, weshalb wir es ausschliessen können.

Def Lineare Unabhängigkeit

Die elemente v1,v2,,vn eines linearen Raumes sind lineare unabhängig, falls

x1v1+x2v2++xnvn=0x1=x2==xn=0

Das gegenteil ist linear abhängig.

Durch die Gauss-elimination lässt sich herausfinden, ob die Spalte n einer Matrix linear (un)abhängig sind. Nur ween der Rang der Matrix voll ist, ist sie linear unabhängig.

Satz 2.3.0.4. Linear unabhängige Spalten einer Matrix

Die Spaltenvektoren a1,a2,,akRn einer n×k Matrix A sind linear unabhängig genau dann wenn der Rang der Matrix kn ist.

Def 2.3.0.5 Basis

Eine linear unabhängiges Erzeugendensystem eines linearen Raumes V heisst Basis von V.

Bsp

Def 2.3.0.7. Dimension linearer Raum / Grösse Basen

dim(V)=Anzahl Elementen in Basis

  • verschiedene Basen haben gleich viele Vektoren
  • Wenn eine Basis in V viele Elemente hat, dann ist V dimensional!

#todo beweis anschauen, zusammenfassen

Satz 2.3.0.10. Grösse von erzeugenden Systemen in einem endlichdimensionalen Raum

Sei V ein linearer Raum mit Dimension n, dann:

  1. sind mehr als n Elemente von V linear abhängig.
  2. sind weniger als n Elemente von V nicht erzeugend.
  3. sind n Elemente von V linear unabhängig genau dann, wenn sie auch erzeugend sind.

2.4 Fundamentalsatz der linearen Algebra - Teil 1

Pasted image 20241018101335.png|600

Satz 2.4.0.1 Basis im Bild A

Sei A=LU die LU-Zerlegung der Matrix A=[a1,a2,,ak]Rn×k. Wir notieren die Indizes der Pivotspalten in U mit i1,i2,,ir. Die dazugehörigen Spalten a11,ai2,,air aus A linear unabhängig. Alle anderen Spalten von A lassen sich als lineare Kombinationen von a11,ai2,,air schreiben, welche somit eine Basis im Bild A bilden.

-> Oder: a11,ai2,,air sind linear unabhängig

Bem:

dim(A)=dim(U)=r=Rang(A)Bild(A)Bild(U)
Satz 2.4.0.4 Dimension von Kern A

Sei die n×k Matrix A, k×n Matrix A von Rang r. Dann:

dim(Kern A)=krdim(Kern A)=nr,dim(Bild A)=r
Def 2.4.0.6 Orthogonalität von Unterräumen

Seien U und V Unterräume von Rk. Wir sagen, dass U orthogonal auf V stehe, notiert mit UB, falls beliebige Vektoren u aus U und v aus V orthogonal sind (uv), d.h. mit Skalarprodukt in Rk:

<u,v>=uv=0

Pasted image 20241026201529.png|500

Satz 2.4.0.7 Fundamentalsatz der linaren Algebra - Teil I.

Sie A eine n×k Matrix vom Rang r. Dann hat die k×n Matrix A auch Rang r und:

  1. Dimensionen der Unterräume:
dim(Bild A)=r,dim(Kern A)=kr,dim(Bild A)=r,dim(Kern A)=nr
  1. Dimensionssatz:
dim(Kern A)+dim(Bild A)=kdim(Kern A)+dim(Bild A)=n

orthogonale Unterräume:

Kern ABild A,Bild AKern A

Bem: Zudem kann jedes xRk eindeutig in zwei orthogonale Komponenten zerlegt werden:

x=u+v,uKern A,vBild A,uv

Theorem:

  1. Kern (AA)=Kern A
  2. Bild (AA)=Bild (A)
Bestimmung von lin. Abhängigkeit

Jede Matrix kann durch Gauss-Elimination (und vertauschung von Zeilen und Spalten) in die folgende Form gebracht werden:

PZAPS[100100]

PZ ist dabei die Zeilen-Prozessmatrix, und PS die Spalten-Prozessmatrix

2.5 Koordinaten und Basiswahl

Satz 2.5.0.1: Jedes element eines linearen Raumes xV lässt sich als lineare Kombination der Basis von V eindeutig darstellen.

Def 2.5.0.2 Koordinatenabbildung und Koordinaten

Sei V ein linearer raum mit dim(V)=n, B dessen Basis

kB:VRnx=x1v1++xnvnkB:=[x1xn]

kB ust die Koordinatenabbildung in der Basis B, x1,,xn sind die Koordinaten von x inder Basis B.

#todo Beispiele in Aufschrieb W5, letzte zwei Seiten

3 Lineare Abbildungen

Def 3.1.0.1 Lineare Abbildung

X,Y lineare Räme, F:XY
F ist linear, falls

  1. F(x1+x2)=F(x1)+F(x2) für alle x1,x2X
  2. F(ax)=aF(x) für xX, a Skalar

-> ein linearer raum ist abgeschlossen unter Addition und Multiplikation

Bsp Matrixabbildung

A:RkRn mit A(x)=Ax

A: k×n Matrix

#todo fetigschreiben

Bem Bei Aufgaben mit Isomorphismen/Automorphismen erkennen muss man vor allem (einzig) die Dimensionen anschauen!

4 Norm und Skalarprodukt in linearen Räumen

4.1 Normierte lineare Räume

Def 4.1.0.1. Norm

Sei 𝑉 ein linearer Raum. Die Funktion ||||:V[0,[ heisst Norm in 𝑉, falls sie folgende Eigenschaften erfüllt:

  1. Aus ||v||=0 folgt v=0.
    -> Der Einzige Vektor von Länge 0 is der Nullvektor
  2. Sei a ein Skalar und vV beliebig. Dann gilt: ||av||=|a|||v||.
  3. Für beliebige v,wV gilt: ||v+w||||v||+||w|| (Dreiecksungleichung).
Def 4.1.0.2 Normierte Lineare Räume

Ein linearer Raum V, welcher eine Norm |||| besitzt, heisst normierter linearer Raum

Bsp

Die Bedeutung der Norm eines Vektors ist die Länge. Ein Ball sieht in den verschiedenen Normen anders aus, weil die jede Norm eine andere Länge des Vektors hat:

B(0,r)={xV;||x||r}

Pasted image 20241102130511.png|300

Satz 4.1.0.4 Cauchy-Bunjakowski-Schwarz Ungleichung

vw||v||||w||

Satz 4.1.0.6 Äquivalenz der Normen

Alle Normen in Rd sind äquivalent. In anderen Worten:
Seien |||| und |||||| Normen in Rd, dann gibt es eine Konstante C1 (bem: C=C(d)), abhängig von der Dimension d, so dass

1C||v|||||v|||<C||v|| für alle vRd
Def 4.1.0.8 Matrixnorm aus der Vektornorm

DIe Vektornorm |||| in Rn induziert im linearen Raum der m×n Matrizen eine Norm:

||A||=max||x||=1||Ax||

Bsp Matrixnormen:

||A||=max||x||=1||Ax||=maxi=1,,nj=1n|aji| ||A||1=max||x||1=1||Ax||1=maxj=1,,ni=1n|aji| ||A||F=i,j=1n|aji|2 ||A||2=max||x||2=1||Ax||2=λmax(AHA)

4.2 Skalarprodukt in linearen Räumen

Def 4.2.0.1 Skalarprodukt

Sei V ein inearer Raum.
EIn Skalarprodukt <.,.> ist eine FUnktion von zwei Variablen in diesem Raum V

<.,.>:V×VR

welche die folgenden drei Eigneschaften erfüllt.:

  1. Die funktion ist linear im zweiten Argument:
<x,ay+bz=a<x.y>+b<x,z>

für alle x.y.zV und a,b Skalare
2. Die Funktion ist Symmetrisch:

<x,y>=<y,x>über R<x,y>=<y,x>über C
  1. Die funktion ist positiv definit:
<x,x>≥0 für alle xV<x,x0x=0

falls von (3) nur ein punkt erfüllt ist positiv semi-definit

Def 4.2.0.4 Norm aus einem Skalarprodukt

Man sagt, dass eine Norm |||| aus einem Skalarprodukt <.,.> kommt, falls

||x||=<x,x>

für alle Elemente x eines linearen Raumes X.

Def 4.2.0.5 Orthogonalität von Elementen eines linearen Raumes mit Skalarprodukt

Sei x,yV, wobei V ein linearer Raum mit einem Skalarprodukt <.,.> ist. Wir sagen, dass x und y orthogonal (xy) sind, falls <x,y>=0

Bsp: A-Skalarprodukt

<u,v>A=defuAvR

wobei A=QΛQ, Λ eine Diagonalmatrix ohne 0 in der Diagonale und Q eine orhogonale quadratische Matrix.

Orthogonale Projektionen

Bem: Siehe Def 4.2.0.5 für orthogonalität

Def 4.2.0.9 Orthogonale Projektion auf einen Vektor

Sei V ein linearer Raum mit einem Skalarprodukt <.,.>. So ist die orhogonale Projekiton Pyx von xxV auf yV, für y0, definiert als

Pyx=<y,x><y,y>y

Bem:

Bild (Py)=Span {y}
Satz 4.2.0.11 Schwarz'sche Ungleichung

Sei V ein linearer Raum mit einem Skalarprodukt <.,.>, dann gilt folgende Ungleichung für alle Elemente x.yV:

|<x,y>|<x,x><y,y>

Dies kann alternativ auch mit der aus dem Skalarprodukt kommenden Norm |||| geschrieben werden:

|<x.y>|||x||||y||
2.0.12 Winkel in einem linearen Raum

Der Winkel .,.^zwischen zwei Elementen 𝑥 und 𝑦 eines linearen Raumes 𝑉 mit Skalarprodukt <.,.> ist definiert als

x,y^=arccos|<x,y>|||x||||y||
Satz 4.2.0.13. Pythagoras

Sei V ein linearer Raum mit Skalarprodukt <.,.> und einer aus diesem Skalarprodukt kommende Norm ||||.
Für zwei Elemente 𝑥 und 𝑦, welche orthogonal aufeinander stehen (xy d.h. <x,y>), gilt

||x+y||2=||xy||2=||x||2+||y||2

Einheitsvektor und orthonormale Basen

Def. 4.2.0.14 Einheitsvektor

Sei vV, mit V ein linearer Raum mit der Norm ||||. Falls ||v||=1, heisst v Einheitsvektor.

Satz 4.2.0.15 Orthogonale Vektoren sind linear unabhängig

Seien e1,e2,,en Einheitsvektoren in einem linearen Raum 𝑉 mit einer Norm ||||, die aus dem Skalarprodukt <.,.> kommt.
Falls die Einheitsvektoren e1,e2,,en paarweise orthogonal sind, so sind sie auch linear unabhängig.

Als direkte Konsequenz davon:

Satz 4.2.0.16 Orthonormale Basis

n paarweise orthogonale Einheitsvektoren in einem linearen Raum der Dimension n bilden eine orthonormale Basis in diesem Raum.

Bem 4.2.0.17 (Berechnung der Koordinaten in einer orthonormalen Basis)
#todo aufschreiben

Bem 4.2.0.19 (Projektoren auf die Elemente einer orthonormalen Basis)

v=Pe1v+Pe2v++Penvv=j=1n<bj,v>bjv=j=1nPbjv
Satz 4.2.0.20 Parseval

Das Skalarprodukt in V lässt sich über das euklidischen Skalarprodukt in Rn berechnen:

<x,yxHy=<x,y>

Bem 4.2.0.21 (Projektion auf einen Unterraum)
#todo fertigschreiben

4.3 Gram-Schmidt-Algorithmus

Satz 4.3.0.1. Gram-Schmidt

Wenn 𝑉 ein linearer Raum mit Basis {v1,v2,,vn} und Skalarprodukt <.,.> ist, dann gibt es eine orthonormale Basis (ONB) {q1,q2,,qn} für V, so dass Span{q1,q2,,qn}=Span{v1,v2,,vn} für 1,2,,n ist.

d.h.

#todo: Der Beweis zum Gram-Schmidt-Algorithmus zeigt, wie man orthogonale Vektoren berechnet -> anschauen

Beweis
Bedignungen für q1 sind, dass es Norm 1 haben muss, und den gleichen Unterraum wie v1 aufspannen muss, d.h.

q1=1||v1||v1v1=||v1||q1=<q1,v1>q1

Pasted image 20241110133922.png
Nun für q2:

c2=v2Pq1v2=v2<q1,v2>q1q2=c2||c2c2=||c2||q2=q2,v2q2v2=q1,v2q1+q2,v2q2

Und so auch für qn:

ck=vkPSpan{q1,,qk1}vk=vkq1,vkq1qk1,vkqk1qk=ck||ck||ck=||ck||qk=qk,vkqkvk=q1,vkq1++qk1,vkqk1

QR-Zerlegung mittels Gram-Schmidt
Sei A eine Matrix mit der Basis {v1,v2,,vn}. Dann können wir vk als lineare Kombination schreiben:

vk=(q1Hvk)q1+(q2Hvk)q2++(qkHvk)qk

Für alle Elemente v in der Basis können wir dann schreiben:

[v1v2vk]Ak (n×k)=[q1q2qk]Qk (n×k)=[q1Hv1q1Hv2q1Hvk0q2Hv2q2Hvk00qkHvk]Rk (k×k)

Dann ist A=QR, wobei Q orthogonal und R obere Dreiecksmatrix.

Vorzeitiges Ende des Gram-Schmidt-Algorithmus

Falls ||ck||=0, bricht der ganze Algorithmus zusammen, weil eine lineare Kombination von v1,,vk1 nicht linear abhängig ist.
-> weg, um lineare Unabhängigkeit einfach zu überprüfen

Bem:
Bei numerischen Berechnungen hat Gram-Schmidt ab n5 erhebliche Rundungsfehler (float). Es gibt einen modifizierten Gram-Schmid-Algorithmus, bei dem der Rundungsfehler nur linear zunimmt.

4.4 Projektoren

Aus Kapitel 4.2 wissen wir, was ein orhogonaler Projektor ist:

Py:VV;Pyx=y,xy,yy

Den wir als Matrix Py schreiben können, falls der lineare Raum Rn oder Cn:

Py=y||y||yh||y||
Def 4.4.0.1. Projektor

Sei 𝑉 ein linearer Raum. Eine lineare Abbildung P:VV heisst Projektor falls

P2=P
Def 4.4.0.2. Orthogonale und schiefe Projektoren

Der Projektor P:VV im linearen Raum 𝑉 mit dem Skalarprodukt .,. heisst orthogonaler Projektor, falls

xPxBild P für allexV

sonst heisst er schiefer Projektor.

Satz 4.4.0.3. Orthogonale und schiefe Projektoren

Der Projektor P:VV im linearen Raum V mit dem Skalarprodukt .,. ist ein orthogonaler Projektor genau dann, wenn

x,Py=Px,y für alle x,yV

d.h. wenn der Projektor V ein selbstadjungierter Operator ist.

Satz 4.4.0.4. Orthogonale und schiefe Projektoren

Die Matrix P ist ein orthogonaler Projektor genau dann, wenn

P2=P und PH=P

Falls nur die Bedingung P2=P erfüllt ist, so ist P ein schiefer Projektor.

Bsp
#todo anschauen, wie man skizze von schiefem Projektor aussieht

Def 4.4.0.7. Orthogonaler Projektor auf einen Unterraum

Sei U eine n×k Matrix mit orthogonalen Spaltenvektoren q1,,qk welche Norm 1 haben. Der orthogonale Projektor P welche auf den Unterraum Span{q1,,qk} projiziert ist

P=UUH

die folgenden Definition wurden nicht behandelt:

Def 4.4.0.7. Orthogonaler Projektor auf einen Unterraum

Sei U eine n×k Matrix mit orthogonalen Spaltenvektoren q1,,qn welche Norm 1 haben. Der orthogonale Projektor P welche auf den Unterraum Span{q1,,qk} projiziert ist

P=UUH
Def 4.4.0.9. Schiefer Projektor auf einen Unterraum

Wenn U und V zwei Matrizen mit der Eigenschaft VHU=I sind, dann kann ein schiefer Projektor P, welcher auf den Unterraum der Spaltenvektoren von U projiziert, definiert werden als

P=UVH

Zusatz: Lineares Funktional

Lineares Funktional

Sei V lin. Raum über R/C. Das lineare Funktional ist dann

φ:VR/C(linear)

Bsp V=C[0,1]
φ:C[0,1]R, φ(f)=f(12)

Theorem (Riesz)

V, <.,.>, dim V<. Sei φ:VR/C ein lineares Funktional.

  1. Es gibt ein eindeutiges wV sodass φ(w)=<w,v> für alle vV
  2. Sei b1,b2,,bn ONB in V. Dann
w=i=1nφ(bi)bi

-> w hängt nicht von der Wahl der Basis ab, da es dann nicht eindeutig wäre

Bsp

v=[v1v2v3]R3,φ(v)=v1

ONB: {e1,e2,e3}

w=φ(e1)e1+φ(e2)e2+φ(e3)e3=e1

#todo andere Beispiele im Aufschrieb Woche 8 anschauen

Zusatz: Die adjungierte Abbildung

Seien V,<.,.>v, W,<.,.>w lineare Räume über R/C mit s.p.

Def adjurgierte Abbildung

f:WV ist die adjungierte Abbildung einer Abbildung T:VW, wenn

<Tv,w>w=<v,f(w)>v

für alle vV, wW

Bem f,g:WV und <v,f(w)>=<v,g(w)> für alle vV,wW, dann
f=g

Konsequenz: T:VW lin. Abbildung
=> es gibt maximal eine adj. Abbildung!

#todo beispiele im Aufschrieb W8 anschauen

Theorem

Wenn T:VW lin. Abbildung hat eine adjungierte T:
dann ist T linear.

Theorem

V,<.,.>v,W,<.,.>w,dimV=n,dimW=m
{v1,,vn} ONB in V, {w1,,wn} ONB in W

F:VWlim.F=[<Fvj,wj]
  1. F hat eine adj. Abbildung
  2. F ist von FH representiert

5 Ausgleichsrechnung

Berechnen der bestmöglichen Approximation von komplexen Systemen

5.1 Least Squares

Def 5.1.0.2. Lineare Ausgleichsrechnung als lineares Gleichungssystem

Sei eine m×n Matrix A und der Vektor b mit m einträgen. Gesucht ist ein x^, sodass

||Ax^=b||2=minxRn||Axb||2

Bsp lineares Modell

Bei 1 Dimension: bk=dtk+c
mit Messfehlern: rk=dtk+cbk

According to def 5.1.0.2, we want to minimize the euclidean norm of the residuum:

minpRn,qR{|r1|2++|rm|2}=minpRn,qRi=1s|pti+qbi|2=minpRn,qRi=1s|1q+tip+qbi|2

we can also write the equations as Axb=r, where

x=[qp]RnA=[1t11t21tm],b=[b1b2bm]

which can be minimized:

minpRn,qR||Axb||2

5.2 Lösung mit der Normalengleichung

#todo herleitung lesen

Das LGS aus 5.1 kann folgendermassen mit der Normalengleichung gelöst werden.

Def 5.2.0.1 Normalengleichung

AAx=Ab

Satz 5.2.0.2. Lösung der Ausgleichsrechnung mit der Normalengleichung

Sei eine Matrix SRm×n gegeben. Falls der Rang dieser Matrix gleich n ist, so ist AA invertierbar.
In diesem Fall hat die Normalengleichung also genau eine Lösung, die die Lösung des linearen Ausgleichsproblems ist.

Probleme mit der Normalengleichung

-> Stattdessen wird normalerweise die Singulärwertszerlegung benutzt
#todo link einfügen

5.3 Lösung mit der QR-Zerlegung

Alternativ zur Normalengleichung kann man die QR-Zerlegung verwenden:

A=QR=Q[R^0]

Wenn ARm×n Rang n hat, hat R gleichen Rang -> R^ ist invertierbare obere Dreiecksmatrix mit ersten n Zeilen. Q ist orthogonal, m×m . Dann haben wir:

minxRn||Axb||22=minxRn||QRxQQHb||22=minxRn||RxQHb||22

da QHQ=I.
Nun können wir ausrechnen:

R^x=QHb

#todo ausführlichere Erklärung lesen

???

orthogonale Matrizen haben die Eigenschaft

||Qx||2=||x||2 (?)

6 Determinanten

Deteminante von einer 2×2 Matrix:

det(A)=adbc

Eigenschaften von (2×2):

  1. det(I)=1
  2. det([abcd])=det([badc])(1)=det([cdab])(1)
  3. det(λA)=λdet(A)
  4. det([a+αb+βcd])=det([abcd])+det([αβcd])

6.1 Definition und Eigenschaften

Def 6.1.0.1. Multilineare Abbildung

Seien 𝑉 und 𝑊 zwei lineare Räume.
f:VW ist eine lineare Abbildung falls f(λx+μy)=λf(x)+μf(y).
g:V×VW ist eine bilineare Abbildung falls g linear in jedem der beiden Argumente ist.
h:V×V××VW ist eine multilineare Abbildung falls h linear in jedem Argument ist.

Def 6.1.0.3 Determinante

Die Determinante ist eine Funktion

det:Rn×Rn××RnnR

mit folgenden Eigenschaften

  • (D1) det(In)=1
  • (D2) det wechselt das Vorzeichen, wenn zwei Zeilen oder Spalten vertauscht werden (Antisymmetrie)
  • (D3) det ist linear in jeder Zeile und Spalte:
det[tatbcd]=t[abcd]det[a+a~b+b~cd]=det[abcd]+det[a~btildecd]

Bem

  1. zwei Spalten/Zeilen von A identisch det(A)=0
  2. lin.Komb. von Zeilen von Matrix A ändern die Determinante dieser Matrix nicht.
  3. A hat Nullzeilen/Nullspalten det(A)=0
  4. A Dreiecksmatrix det A ist Produkt der Diagonaleinträge
  5. A singulär (keine Inverse #todo überprüfen) durch Gauss-elimination entsteht Nullzeile wegen (6) det(A)=0
    • wenn A inv.bar det(A)0
  6. det(AB)=det(A)det(B)
  7. det(A)1=1det(A)
  8. Entwicklung der ersten Zeile:
    • wächst exponentionell für n -> Gauss-elimination wächst schlimmstenfalls mit 3n -> Eigenschaft nur für Handrechung gedacht (oder Theorie)

det A=a11det A11a12det A12++a1ndet A1n

Bsp

A=[abcdefghj]det(A)=|A|=a[efhj]b[dfgj]+c[degh]
Determinante mit Gauss berechnen

Sei A die obere/untere Diagonalmatrix, die mit Gauss-elimination aus A hervorgeht.
Dann ist das Produkt der Diagonaleinträge = det(A)

  • ist wegen (5) möglich
  • vertauschen von Zeilen/Spalten wechselt das Vorzeigen (G2)

7 Eigenwerte

7.1 Motivation

emptiness

7.2 Eigenwerte und Eigenvektoren

Bem In diesem Kapitel arbeiten wir mit A n×n (quadratischen) Matrizen.

Sei V ein linearer Raum und A:VV lineare Abbildung.

Def 7.2.0.2. Eigenwertproblem

λC heisst Eigenwert der Matrix A, falls es ein x0 gibt, sodass Ax=λx.
x heisst dann Eigenvektor von A zum Eigenwert λ.

#todo diagonalmatrix

Def. 7.1.0.4 Diagonalisierung

A diagonalisierbar falls es gibt S invertierbar sodass

A=SDS1

Satz 7.2.0.3. Wenn eine Matrix diagonalisierbar ist, dann sind die Elemente auf der Diagonale von D Eigenwerte und die Spalten von S sind die entsprechenden Eigenvektoren.

Am=(SDS1)m=SDS1SDS1SDS1=SDmS
Def. 7.1.0.5 Ähnlichkeit

Zwei Matrizen A,B sind ähnlich, falls eine invertierbare Matrix S existiert, sodass

A=SBS1

#todo

Bem Wenn A diagonalisierbar mit A=SDS1, D=diag(λ1,λ2,,λn) dann:

A=SDS1AS=DSS=[s1,s2,,sn]{As1=s1λ1As2=s2λ2Asn=snλn

Dann sind λ1,,λn EW von A und s1,,sn EV von A

Theorem

Sei A n×n Matrix mit n lin. unabhängigen EV und seien diese als Spalten einer Matrix geschrieben: S=[s1,s2,,sn]. Dann ist

S1AS=[λ10λ20λn]=D

mit λ1,λ2,,λn EW von A.

#todo

Theorem

  • Sei A mit λ1,λ2,,λk EW, die sich alle unterscheiden. Dann sind die entsprechenden EV linear unabhängig.
  • Konsequenz: Wenn A n×n Matrix hat n unterschiedliche EW, dann ist A diagonalisierbar.

Bem #todo
|λ|||A|| fü jede ||A|| aus einer Vektornorm!
(später:) maxλ EW|λ|=||A||2
#todo

Def Gershgorin-Kreis

Für A n×n Matrix, i=1,2,,n"

Di={zC mit |z0aii|ri}

wobei #todo

Def Gershgorin-Gebiet

D_{A}=#todo

Theorem

Alle EW von A liegen in DA.

Bem: Es gibt für LGS Ax=0 nicht-triviale Lösungen (x0)0 EW von A.

Bem: Wenn 0 EW ausschliessen können, dann ist A invertierbar.
-> 0DAA ist invertierbar

Def strikt diagonaldominant

n×n Matrix A heisst strikt diagonaldominant, wenn

|a_{ii}|> |a_{i1}|+|a_{i2}|+\dots+ #todo
Theorem

A strikt diagonaldominant (0DA) A invertierbar.

  • gilt nicht in andere Richtung

Bsp #todo (?)

komplexe EW

reele Matrizen knnen echt komplexe EW haben. Diese kommen immer paarweise: λ,λ sind beide EW.

Bem EV ist nicht eindeutig
Sei λ,x EW,EV von A
=> αx mit α beliebig auch EV von A

#todo

Def 7.2.0.7. Charakteristische Gleichung

Um die Eigenwerte einer Matrix A auszurechnen, bedienen wir uns der Gleichung

det(AλI)=0

#todo

Theorem

Jedes Polynom von Grad n hat n Nullstelle in C (mehrfache Nullstellen auch gezählt).

#todo

Satz 7.2.0.9. Existenz und Anzahl der Eigenwerte einer Matrix

Jede n×n Matrix hat mindestens einen Eigenwert und kann maximal n verschiedene Eigenwerte haben.

#todo

Bem das Produkt der Pivote ist auch das Produkt der Eigenverte

Bem für n5 gibt es keine geschlossene Formel für die Nullstellen
-> die Eigenwerte müssen approximiert werden

#todo

Satz 7.2.0.26. Ähnliche Matrizen haben gleiche Eigenwerte

Ähnliche Matrizen haben das gleiche charakteristische Polynom. Sie haben also die gleichen Eigenwerte mit den gleichen algebraischen Multiplizitäten.

#todo

Satz 7.2.0.27. Multiplizitätsregel

Für die verschiedenen Multiplizitäten eines Eigenwerts gilt:

1GMAM

#todo