B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

2
B.Sc. Matthias Schulte, 175888 06.02.2018 Numerik I Klausurzettel zum Ersttermin WiSe 17/18 Kapitel 1 GL LinA Vektorr¨ aume. V VR, dim V < , K ∈{R, C} . {ϕn} N n=1 Basis, v V . Dann v = N n=1 vnϕn, vn K, eindeutig. [v 1 , . . . , vn] T Koordinatenvektor. v * =[ v 1 ,..., vn]. Skalarprodukt und Orthogonalit¨ at. , ·i : V × V K, hv, wi V := N n=1 vnwn. hv, wi V = v * w = w * v. v, w V orth. :⇔hv, wi V = 0. W UVR von V . v orth. auf W :⇔hv, wi = 0w W. V 0 := {v 1 , . . . , vm} V orth. : v i ,v j = 0i 6= j, D v i ,v i E 6= 0. V 0 ortho- normal : v i ,v j = δ ij . Lineare Abbildungen. V, W K-VRe. L(V, W): Menge der linearen und beschr¨ ankten Abbildungen von V nach W. {ϕn} N n=1 Basis von V , {ψm} M m=1 Basis von W, A ∈L(V, W): !A ∈M(M, N): Aϕn = M m=1 amnψmn. Spezielle Matrizen I. A K M×N . A * = [ amn] Adjungiert. F¨ ur K = R: A * = A T (Transponierte). Quadratische Matrizen. (M = N) A K N×N invertierbar, falls A -1 mit AA -1 = A -1 A = I. Schreiben A ∈ GLn(K). (AB) -1 = B -1 A -1 (A * ) -1 =(A -1 ) * (A T ) -1 =(A -1 ) T Spezielle Matrizen II. A K N×N . A hermitesch, falls A = A * . A symmetrisch, falls K = R und A = A T . A normal, falls A * A = AA * . A unit¨ ar, falls A * A = AA * = I. A orthogonal, falls A unit¨ ar und K = R. A spd, falls A sym. und hAv, vi > 0v R * . Spur und Determinante: Wie immer. Eigenwerte: Nullstellen des char.Pol. spec(A) Menge aller EWe. Betragsm. gr. EW: Spektralradius ρ. Eigenvektor und Eigenraum wie immer. tr(A)= λ 1 + ... + λn. det(A)= λ 1 · . . . λn. Normen. ||·|| : V R, positiv definit, homo- gen, Dreiecksungleichung. Vektornormen: ||v|| p := N 1 |vn| p 1/p . p = : Maximumsnorm. ¨ Aquivalenz von Normen: Zwei Normen ¨ aquivalent, falls 0 <c<C< : c ||v|| ≤ ||v|| 0 C ||v|| v V . Zug. Matrixnorm: A K M×N , X = K N , Y = K M . |||A||| := sup ||x|| X =1 ||Ax|| Y . SSN:|||A||| 1 := max n=1,...,N M m=1 |amn| SpN: |||A||| 2 = q ρ(A * A)= A * 2 ZSN:|||A||| 1 := max m=1,...,M N n=1 |amn| Kapitel 2 LGS direkt 2.1 osbarkeit LGS 2.1: Ax = b eind. l¨ osbar, falls det A 6= 0. Verl¨ asslichkeit: Es wird nur dann eine Lsg. ber., wenn eine ex. (keine Selbstver.) 2.2 Gestaffelte Systeme Idee: Schreibe A = LR mit intendierter Be- deutung und l¨ ose x =(LR) -1 b in zwei Schrit- ten: Vorw¨ arts- und uckw¨ artssubst. Annah- me: det A 6= 0, also rnn 6=0 n. uckw¨ artssubstitution: Rx = z: x N = z N /r NN ,x N-1 =(z N-1 - r N-1,Nx N )/r N-1,N-1 usw. Vorw¨ artssubstitution: Lz = b: z 1 = b 1 , z 2 = b 2 -l 21 b 1 (b 1 = z 1 )... 2.3 Gaußelimination Idee: wie immer. Durchf¨ uhrbar, falls a 11 (Pivotel.) nicht Null. Erste Zeile Pivotzeile. Dann: Rekursive Anwendung auf die Restma- trix Folge A (k) R. El.schritt im k-ten Schritt: Vor.: a (k) kk 6= 0. l mk = a (k) mk /a (k) kk , m = k +1,...N. a (k+1) mn = a (k) mn - l (k) mk a (k) kn , m,n=k+1,...,N. b (k+1) m = b (k) m - l mk b (k) k , m=k+1,...,N. Frobenius-Matrizen: El.schritt ist Op. auf Zeilen. A (k+1) = L k A (k) , b (k+1) = L k b (k) . Die L k sind Frobeniusmatrizen. Hauptdiago- nale 1, Oben 0, Unten 0 außer k-te Spalte. L k ist invertierbar, die Eintr¨ age in der k-tem Spalte sind die El.eintr¨ age und L = L -1 1 · ... · L -1 N-1 mit den zugeh¨ origen Eintr¨ agen. Algorithmus: 1. LR-Zerl. 2. VS 3. RS. Aufwand: N 3 /3+ O(N 2 ). Speicheraufwand: O(N 2 ). 2.4 Cholesky-Zerlegung 2.5: A R N×N symmetrisch. !N reelle EWe. O orth. mit A = O · diag(λ 1 , ..., λ N ) · O T . A zus. pos. def.: A 1/2 = O·diag(λ 1/2 1 , ..., λ 1/2 N )·O T ebf. spd. mit A 1/2 A 1/2 = A. 2.6: A R N× spd. A invertierbar, spec(A) R + , max m,n=1,...,N |amn| = max n=1,...N |ann|. 2.7: A R N×N spd. Dann sind die Restma- trizen bei Gauß-El. wieder spd. 2.8: A R N×N spd. L, D : lnn =1n, D> 0, A = LDL T . (Rationale Cholesky-Zerlegung) 2.9: A R N×N spd. L unt. Dr.mat. mit A = LL T (Setze L 0 = LD 1/2 wie vorher.). Rechenaufwand: N 3 /6 Multiplikationen, N Quadratwurzeln. 2.5 Pivotstrategien 2.12: Spaltenpivotisierung: k-ter El.schr. W¨ ahle m 0 {k, ..., N}, s.d. a (k) m 0 k das betr.m. gr¨ oßte El. in Spalte k von A (k) ist. Vertausche Zei- le k und m 0 und uhre El.schritt aus. [O(N 2 )] Zeilenpivotisierung analog. Vollst¨ andige Pivotisierung: Beides gleichzeitig. [O(N 3 )] Algorithmus: Gauß mit Spaltenpiv. ahle m 0 wie oben und vertausche die ent- sprechenden Zeilen. Dann El.schritt. Permutationsmatrizen: π Π N . ZVert. mit PMat. =[e π(1) ,...,e π(n) ]. PMen sind orthogonal. Zeilenperm. Op. im Bildbereich, Mult. von links. Spaltenperm. Op. im Urbildbereich, Mult. von rechts. 2.14: Gauß mit Pivotisierung. A ∈ GL N (R) PMP : PA = LR. P kann so gew¨ ahlt werden, dass alle El. von L betragsm. kleiner oder gleich 1 sind. Die LR-Z. von PA ist eindeutig. Wichtige Bemerkungen: Gauß+Pivot. = verl¨ asslicher Algo. osungsalgo: LR-Z. von PA, dann Lz=Pb (VS), dann Rx=z (RS). P kann als Vektor gespeichert werden. Zeilenpiv.: AP=LR, LRy=b, x=Py. Einfache Det.berechnung m¨ oglich. 2.6 Nachiteration 2.15: Ax=b, yR N . r(y):=Ay-b = A(y-x) Re- siduum. r(y)=0 gdw. Ay=b, also y=x. Residuum ist berechenbare Gr¨ oße. Absoluter Fehler: Δx 0 :=x 0 -x gen¨ ugt AΔx 0 = r(x 0 ). Exakte L¨ osung: x= x 0 -Δx 0 . Fehlerhafte Korrektur: d Δx 0 6= Δx 0 bei num. Lsg. x 1 :=x 0 - d Δx 0 erster Schritt der Nachite- ration. Wdh. bis zufrieden. Meist nur einmal otig (Skeel). Kapitel 3 Numerische Fehleranalyse Fehlerarten: Exakt: Daten, Algo, Resultat OK. Gest. Daten: Ex. Algo Gest. Resultat Gest. Real.: Eingabefehler, Ex. Algo, Fehler im Resultat. 3.1 Zahldarstellung und Rundungsfehler 3.1: x=σab e , σ 1}, B Basis (2erpot.), e Exponent, e{α, . . . , β} Z, a Mantisse mit Mantissenl¨ ange l (a = 0 oder B -1 a<1, a 1 6= 0, a j ∈{0,...,B - 1}). a= l j=1 a j B -j . 3.2: Normweiser Fehler. ||y - ˆ y|| bzw. ||y - ˆ y|| / ||y||. Komponentenweiser Fehler. y j - ˆ y j bzw. y j - ˆ y j / y j , j =1, ..., N. Exponenten¨ uber(unter)lauf: |x| <B α-1 : Exponentenunterlauf. |x|≥ B β (1 - B -l ) Exponenten¨ uberlauf. Runden: Gerichtetes Runden: x R. bxc gr. Masch.zahl ˆ x mit ˆ x x. dxe kl. Masch.zahl ˆ x mit x ˆ x. Korrektes Runden: rd(x)= $ x B e + B -e 2 % B e bxc : |x| >B β dxe : |x| <B α Ad F1: B e-1 ≤|x|≤ B e , e ∈{α, ..., β} Relative Rundungsfehler: B α ≤|x|≤ B β (1 - B -l ). Gerichtet: |x-rd(x)| |x| 2eps. Korrekt: |x-rd(x)| |x| eps. eps:= B 1-l 2 , rel. Masch.gen. Fehlerarten, genau: Eingabefehler Rundungsfehler: El.op. werden durch Gleitk.op. ersetzt. xˆ y = rd(x y). xˆ y =(x y)(1 + ε), ε = ε(x, y), |ε|≤ eps f¨ ur alle Gleitkommazahlen. Approximationsfehler: (z.B. Diskretis.) Fehler durch Approx. bis auf Rd.fehler. Messfehler: 10e - 2, 10e - 3. 3.2 Kondition eines Problems Zentrale Frage: St¨ orung Eingabe Ex.Alg. ??? 3.8: Landausche Symbole. f, g : R N R M . f = O(g) f¨ ur x x 0 : C> 0,δ > 0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x - x 0 || ≤ δ. f = O(g) f¨ ur ||x|| → ∞: C> 0,R > 0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x|| ≥ R. f = o(g) f¨ ur x x 0 : ε> 0δ> 0: |f(x)|≤ ε |g(x)| ∀ ||x - x 0 || ≤ δ. f = o(g) f¨ ur ||x|| → ∞: ε> 0R> 0: |f(x)|≤ ε |g(x)| ∀ ||x|| ≥ R. 3.9: h, g : R N R M gleich bzw. kleiner gleich in erster N¨ aherung f¨ ur x x 0 ( ||x|| → ∞): g(x)= h(x)+ o(||h(x)||) bzw. g(x) h(x)+ o(||h(x)||) f¨ ur x x 0 (||x|| → ∞). Kondition: Normweise abs. Kond.: κ abs [0, ]: ||fx) - f(x)|| ˙ κ abs ||ˆ x - x|| , ˆ x x. Normweise rel. Kondition: κ rel [0, ]: ||fx)-f(x)|| ||f(x)|| ˙ κ rel ||ˆ x-x|| ||x|| , ˆ x x. Gut gestellt: Werte < . κ rel = ||x|| ||f(x)|| κ abs Addition und Subtraktion: Add. zw. Zahlen mit gl. Vorz: gut kond. Subtr. zw. etwa gl. gr. Zahlen: schlecht kond. (Ausl¨oschungf¨ uhrender Ziffern) Matrixkondition: A invertierbar. κ(A)= A -1 · |||A||| Nun: A R M×N . κ(A)= max||Ax|| min||Ax|| [0, uber ||x|| = 1. Eigenschaften Kondition: κ(A) 1 κ(A)= κ(αA)α R * A 6= 0 singul¨ ar κ(A)= Rel. normweise Kond. im Urbild: (f,x) ||fx)-f(x)|| ||f(x)|| ˙ ˆ κ rel max j=1,...,n ˆ x j -x j x j , ˆ x x. Dies ist submultiplikativ: ˆ κ rel (g h, x) ˆ κ rel (g, h(x)) · κ rel (h, x). Skeelsche Kondition: κ S (A) := A -1 ·|A| . (Betragsw. Matr.) Charakterisiert die komp.weise Kond. ur alle m¨ ogl. rechten Seiten b mit St¨ orungen in A und b. 3.3 Stabilit¨ at eines Algorithmus Ist das Resultat von ( ˆ f,x) akzeptabel anstelle des Resultats von (f, x)? Vorw¨ artsanalyse: Eingabemenge E. Vergleich von R=f(E) mit R’= ˆ f(E). 3.21: ˆ f Gleitk.real. zu (f,x) mit κ rel und ˆ κ rel . Stavilit¨atsindikator normweise: Kleinstes σ 0: ˆ fx)-fx) ||fx)|| ˙ σκ rel eps ˆ x E und eps 0. Stavilit¨atsindikator komponentenweise: Kleinstes ˆ σ 0: max j=1,...,m ˆ f j x)-f j x) f j x) ˙ ˆ σˆ κ rel eps ˆ x E und eps 0. ˆ f stabil im Sinne der Vorw.an., falls σσ kleiner als Anzahl hinterein. ausg. El.op. 3.22: El.op. sind stabil mit σκ◦≤ 1. Idee: An. des Ges.algo. durch An. der Teilalg: f = h g ersetzt durch ˆ f = ˆ h ˆ g. 3.23: F¨ ur ˆ f = ˆ h ˆ g mit Problem (f = h g, x) gilt σ f κ f σ h κ h + κ h σg κg. Unverm. Subtr. m¨ogl. an den Anf. stellen. Sum. und SP. sind stabil in diesem Sinne. 3.26: (f,x) Probl. ˆ f = ˆ h ˆ g Real. Alle Fkten. skalar und diffbar. Dann gilt: σ f σ h /κg + σg. Abschlussbemerkungen: Kleine Kondition Stabilit¨ at. Kleine Kondition = Informationsverlust. And. in Eing. kaum Ausw. aufs Resultat) Kapitel 4 Numerische Interpolation 4.1 Allgemeines Interpolationsproblem 4.1: X norm. Raum, V X, dim V =N, l 1 , ..., ln ∈L(X) lineare Funktionale. Finde zu f X ein u V : l j (u)= l j (f) j.(I) (I) wohlgestellt: f X genau eine Lsg. n v 1 , ..., v N o Basis von V , N j=1 a j v j Lsg. ose [l i (v j )] i,j=1,...,N · [a 1 , ..., a j ] T = [l1(f), ..., l N (f)] T . (I) wohlgestellt gdw. es eine Basis von V wie oben gibt mit [l i (v j ) wie oben regul¨ ar. (I) h¨ ochstens dann wohlgestellt, wenn die l i linear unabh¨ angig. Lagrangeinterpolation: X=C[a, b], V =Pn, N=n+1, l i (f)=f(x i )(0-n). WG gdw. x i pw. ver. Hermiteinterpolation: X=C 1 [a, b], V =P 2n+1 , N=2n+2, l 2i (f)=f(x i ),l 2i+1 (f)=f 0 (x i )(von0-n). WG gdw. x i pw. ver. Kubische Splineinterpolation: X=C 2 [a, b], V speziell, N=n+1, l i (f)=f(x i )(0-n). WG. 4.2 Lagrangeinterpolation I =[a, b] R, a x 0 < . . . < xn b. Darstellungsmatrix Monombasis. V= 1 x 0 x 2 0 ... x n 0 ... ... ... ... ... 1 xn x 2 n ... x n n det V 6=0 Berechnung teuer (n 2 ), schlechte Kondition. 4.4: x i , i =0,...,n pw. versch. L n j (x)= Q 0i6=jn x-x i x j -x i = ω(x) (x-x j )ω 0 (x) , ω(x)= Q n i=0 (x - x i ) P n+1 \ Pn. 4.5: n L n 0 ,...,L n n o Basis von Pn. Lagrange-(I) gel¨ ost durch p(x)= n i=0 f(x i )L n i (x). (Koeff. umsonst, Auswertung teuer (n 2 )) Newtonpolynome ω j (x) = Qj-1 i=0 (x - x i ), ω 0 (x) = 1. Darst.mat. ist unt. Diag: W = 1 0 0 ... 0 1 ω 1 (x 1 ) 0 ... 0 ... ... ... ... ... 1 ω 1 (xn) ω 2 (xn) ... ωn(xn) ose W · ~a =[f 0 , . . . , fn] T . Rekursion: ω j (x i )= ω j-1 (x i )(x i - x j-1 ). Dividierte Differenzen: f[x j ,...,x k ] := f[x j+1 ,...,x k ]-f[x j ,...,x k-1 ] x k -x j ,f[x j ]=f(x j ). Daraus bek. Schema aufb., Ob. Diag. ablesen. p(x)= n i=0 a i ω i (x), a i = f[x 0 ,...,x i ] (Einmalige Koeff.best. (n 2 ), Ausw. linear m¨oglich) (Keine Neuber. der Koeff. bei neuem Dat. n¨otig.: p n+1 (x)= pn(x)+ a n+1 ω n+1 (x).) Kondition: Φ: C 0 [a, b] Pn, f 7pn, pn(x i )= f(x i ) κ abs n := max x[a,b] n j=0 L n j (x) . Restglieddarstellung/Interpolationsfehler: Frage: Wie gut ist die Approx. von f durch pn? 4.11: f C n+1 [a, b]. x Iξ I : Rn(x)=f(x) - pn(x)= f (n+1) (ξ) (n+1)! ω n+1 (x). 4.12: fC n+1 (I). xIξI[x 0 , . . . , xn , x] f[x 0 , . . . , xn , x]= f (n+1) (ξ) (n+1)! 4.13: f C n+1 (I): ||f - pn|| ,I f (n+1) (n+1)! ω n+1 in -Norm. auf I. f (n+1) ω n+1 ,I = o((n + 1)!): Fehler geht gegen 0. I.A. ω n+1 ,I →∞. 4.17: Tschebyscheffpolynome: T 0 (x)=1, T 1 (x)=x,T k+1 (x)=2xT k (x)-T k-1 (x),k 1. Eigenschaften: 1. T k P k , LK 2 k-1 , T k+1 =1 (un.-1,1) 2. T k (x) = cos(k · arccosx), x [-1, 1] 3. T k (x)=0.5((x+ q x 2 -1) k +(x- q x 2 -1) k ) 4. T k (x) = 1 gdw. x = cos k ,m=o...k 5. T k (x)=0gdw. x= cos 2m+1 2k π m=0...k-1 4.18: Min-Max-Eigenschaft: Sk. Tsch.pol. (LK 1) hat kleinste Maxnorm: min pP n+1 ||p|| ,[-1,1] = 2 -n T n+1 ,[-1,1] Transformation auf [a, b]: L :[a, b] [-1, 1],L(x)=2 x-a b-a - 1. L -1 (x)= b+a+(b-a)x 2 , T I k := T k (L(x)). 4.19: ˆ p ˇ P n+1 (LK 1) p p L hat grad n+1 und LK c n+1 := 2 n+1 (b - a) -(n+1) . p = p L -1 hat LK c -1 n+1 . Das sk. und transf. Tsch.pol. 2 -n c n+1 T I n+1 hat min. Max.norm. 4.3 Hermite-Interpolation 2 St¨ utzst. id. Fktsw. + Abl. notw. 4.20: a=x 0 <. . . <xm=b Zerlegung, n i N, n 0 +. . . nm=n+1, f (v) i R, i=0,. . . ,m, v=0,. . . , n i -1. Zu diesen Daten: !p Pn mit p (v) (x i )= f (v) i , i=0,. . . ,m, v=0,. . . ,n i -1. 4.21: Vor. wie oben, f C n+1 [a, b], f (v) i = f (v) (x i ), i=0,. . . ,m, v=0,. . . ,n i -1 und p Pn die Hermite-Interpol. x [a, b] ξ (a, b): Rn(x)= f (n+1)(ξ) (n+1)! ω n+1 (x). Normieren liefert dann Fehlerabsch¨ atzung. 4.4 St¨ uckweise Polynominterpolation St¨ uckweise Hermite-Interpolation: Δ := {a = x 0 < . . . < xn = b}, k N. H (k) Δ :={p C k-1 [a, b]: p | [x j-1 ,x j ] P 2k+1 ,j=1,...,n}. Zu f (v) j R,j=0, ..., n, v=0, ..., k-1 suche pH (k) Δ : p (v) (x j )=f (v) j . 4.27: fC 2k [a, b], pH (k) Δ , I=[a, b]. ||f - p|| ,I f (2k) ,I (2k)!2 2k ·h 2k Δ , mit h 2k Δ := max j=1,...n h j := max j=1,...n (x j - x j-1 ). 4.28: max j=1,...n f (v) - p (v) h 2k-v Δ f (2k) 2 2k-2v -v!(2k-v)! in der , [x j-1 ,x j ]-Norm. ur diese Interp. ussen die Abl. an den St.stellen bek. sein. Oft schlecht ermittelbar. 4.5 Splineinterpolation Δ wie oben, I j :=[x j-1 ,x j ], j=1,...,n. 4.30: k N. Splineraum: S (k) Δ :={pC k-1 [a, b]:p | I j =p j P k ,j=1,...,n} 4.31: dimS (k) Δ =n+k. Hier: k=3, kubische Splines. (2 Bed. zu wenig) 4.32: Δ Zerl. von [a,b], f 0 ,...,fnR geg. Daten. Ges.: pS (3) Δ :p(x j )= f j ,j=0,...,n. Nicht eind. l¨ osbar, da nur n + 1 Daten vorg. 4.33: Satz von Holladay. fC 2 [a, b], pS (3) Δ , p(x j )=f(x j ), j=0,...,n. Dann gilt: f 00 - p 00 2 = f 00 2 - p 00 2 -2((f’(x)- p’(x))p”(x))| b a in der Eukl.N. auf [a,b]. Letzer Summ. =0: p 00 f 00 wie oben. ||p|| 2 2 min. unter all. Fkt. f durch ob. Pkte. Kubische Splinetypen: Der k.Sp. pS (3) Δ zu f 0 , ..., fn heißt – nat¨ urlich: p”(a)=p”(b)=0. – vollst¨ andig: p’(a)=α, p’(b)=β. – periodisch: p’(a)=p’(b), p”(a)=p”(b). 4.35: ! vollst./nat. Spl. zu den ob. Daten. 4.37: fC 0 [a, b], p k S (3) Δ k , k N, Δ k ={a = x (k) 0 , ..., x (k) n k = b} mit max j=1,...,n k (x (k) j -x (k) j-1 )δ min x (k) j -x (k) j-1 ur alle kN und ein fixes δR, p k zug. Spline. max x (k) j - x (k) j-1 gegen 0: f –> p k , -N. Kapitel 5 Numerische Integration Problem: [a,b] Int., f st. diff. Gesucht: I(f)= R b a f(x)dx. (Num. Approx.) Ziel: Konstr. num. Quadr. Q:C 0 [a, b] R, f 7Q(f) mit |Q(f) - I(f)| ogl. klein. 5.1 Allgmeine Quadraturformeln 5.1: x 0 ,...,xn[a, b] St¨ utzstellen, pw. versch. w 0 ,...,wnR \{0} Gewichte. Q b a (f) := Q(f) := n j=0 w j f(x j ). Q ex. v.Grad m: Q(p)=I(p)p Pm. Q pos. falls Q(f)0 f.a. pos. f. Minimalforderung: Konstante Funktionen exakt integr.: Summe Gew. gleich Eins. Mittelpunktsformel: Q(f)=(b-a)f( b-a 2 ). Trapezregel: Q(f)= 1 2 (b-a)(f(a)+f(b)). Beide exakt vom Grad 1. Die Gewichte onnen immer so gew¨ ahlt werden, dass Q exakt vom Grad mn ist. 5.3: Q Q.for. auf [a, b] ex. v.G. mn, f C m+1 [a, b]. Dann gibt es ω m+1 P m+1 : |Q(f) - I(f)| ω m+1 1 f (m+1) (m+1)! auf [a,b], ω m+1 1 = R b a ω m+1 dx. Ferner: (m + 1)!cm:= ω m+1 1 ·(b - a) -2-m 1. 1

Transcript of B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

Page 1: B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

B.Sc. Matthias Schulte, 175888 06.02.2018

Numerik I – Klausurzettel zum Ersttermin WiSe 17/18

Kapitel 1 – GL LinA

Vektorraume. V VR, dimV < ∞, K ∈ {R, C} .{ϕn}Nn=1 Basis, v ∈ V .

Dann v =∑Nn=1 vnϕn, vn ∈ K, eindeutig.

[v1, . . . , vn]T Koordinatenvektor.

v∗ = [v1, . . . , vn].Skalarprodukt und Orthogonalitat.

〈·, ·〉 : V × V → K, 〈v, w〉V :=∑Nn=1 vnwn.

〈v, w〉V = v∗w = w∗v.

v, w ∈ V orth. :⇔ 〈v, w〉V = 0.

W UVR von V . v orth. auf W :⇔ 〈v, w〉 =0∀w ∈ W .

V ′ := {v1, . . . , vm} ⊂ V orth. :⇔⟨vi, vj

⟩= 0∀i 6= j,

⟨vi, vi

⟩6= 0. V ′ ortho-

normal :⇔⟨vi, vj

⟩= δij .

Lineare Abbildungen.

V,W K-VRe. L(V,W ): Menge der linearen undbeschrankten Abbildungen von V nach W .

{ϕn}Nn=1 Basis von V , {ψm}Mm=1 Basis von

W , A ∈ L(V,W ): ∃!A ∈ M(M,N): Aϕn =∑Mm=1 amnψm∀n.

Spezielle Matrizen I.

A ∈ KM×N . A∗ = [amn] Adjungiert. Fur

K = R: A∗ = AT (Transponierte).Quadratische Matrizen. (M = N)

A ∈ KN×N invertierbar, falls ∃ A−1 mit

AA−1 = A−1A = I. Schreiben A ∈ GLn(K).

• (AB)−1 = B−1A−1

• (A∗)−1 = (A−1)∗

• (AT )−1 = (A−1)T

Spezielle Matrizen II. A ∈ KN×N .

• A hermitesch, falls A = A∗.

• A symmetrisch, falls K = R und A = AT .

• A normal, falls A∗A = AA∗.• A unitar, falls A∗A = AA∗ = I.

• A orthogonal, falls A unitar und K = R.

• A spd, falls A sym. und 〈Av, v〉 >

0∀v ∈ R∗.Spur und Determinante: Wie immer.

Eigenwerte: Nullstellen des char.Pol.

spec(A) Menge aller EWe.Betragsm. gr. EW: Spektralradius ρ.Eigenvektor und Eigenraum wie immer.tr(A) = λ1 + . . . + λn.det(A) = λ1 · . . . λn.Normen. ||·|| : V → R, positiv definit, homo-

gen, Dreiecksungleichung.Vektornormen:

||v||p :=(∑N

1 |vn|p)1/p

.

p = ∞: Maximumsnorm.

Aquivalenz von Normen: Zwei Normen

aquivalent, falls ∃0 < c < C < ∞:

c ||v|| ≤ ||v||′ ≤ C ||v|| ∀v ∈ V .

Zug. Matrixnorm: A ∈ KM×N , X = KN ,

Y = KM . |||A||| := sup||x||X=1

||Ax||Y .

• SSN:|||A|||1 := maxn=1,...,N

M∑m=1

|amn|

• SpN: |||A|||2 =√ρ(A∗A) =

∣∣∣∣∣∣∣∣∣A∗ ∣∣∣∣∣∣∣∣∣2

• ZSN:|||A|||1 := maxm=1,...,M

N∑n=1

|amn|

Kapitel 2 – LGS direkt2.1 – Losbarkeit LGS2.1: Ax = b eind. losbar, falls detA 6= 0.

Verlasslichkeit: Es wird nur dann eine Lsg.

ber., wenn eine ex. (keine Selbstver.)2.2 – Gestaffelte SystemeIdee: Schreibe A = LR mit intendierter Be-

deutung und lose x = (LR)−1b in zwei Schrit-ten: Vorwarts- und Ruckwartssubst. Annah-me: detA 6= 0, also rnn 6= 0 ∀n.Ruckwartssubstitution:

Rx = z: xN = zN/rNN ,xN−1 = (zN−1 −rN−1,NxN )/rN−1,N−1

usw.

Vorwartssubstitution:

Lz = b: z1 = b1, z2 = b2−l21b1 (b1 = z1)...2.3 – GaußeliminationIdee: wie immer. Durchfuhrbar, falls a11(Pivotel.) nicht Null. Erste Zeile Pivotzeile.Dann: Rekursive Anwendung auf die Restma-trix ⇒ Folge A(k) → R.

El.schritt im k-ten Schritt:

Vor.: a(k)kk 6= 0.

lmk = a(k)mk/a

(k)kk , m = k + 1, . . . N.

a(k+1)mn = a

(k)mn − l

(k)mka

(k)kn , m,n=k+1,...,N.

b(k+1)m = b

(k)m − lmkb

(k)k , m=k+1,...,N.

Frobenius-Matrizen:

El.schritt ist Op. auf Zeilen. A(k+1) =

LkA(k), b(k+1) = Lkb(k).

Die Lk sind Frobeniusmatrizen. Hauptdiago-nale 1, Oben 0, Unten 0 außer k-te Spalte.Lk ist invertierbar, die Eintrage in der k-tem

Spalte sind die El.eintrage und L = L−11 ·. . .·

L−1N−1 mit den zugehorigen Eintragen.

Algorithmus:

1. LR-Zerl. 2. VS 3. RS.Aufwand: N3/3 + O(N2).

Speicheraufwand: O(N2).2.4 – Cholesky-Zerlegung

2.5: A ∈ RN×N symmetrisch. ∃!N reelle EWe.

∃O orth. mit A = O · diag(λ1, ..., λN ) · OT .A zus. pos. def.:

A1/2 = O·diag(λ1/21 , ..., λ

1/2N )·OT ebf. spd.

mit A1/2A1/2 = A.

2.6: A ∈ RN× spd. A invertierbar, spec(A) ⊂R+, max

m,n=1,...,N|amn| = max

n=1,...N|ann|.

2.7: A ∈ RN×N spd. Dann sind die Restma-

trizen bei Gauß-El. wieder spd.

2.8: A ∈ RN×N spd. ∃L,D : lnn = 1∀n,

D > 0, A = LDLT .(Rationale Cholesky-Zerlegung)

2.9: A ∈ RN×N spd. ∃L unt. Dr.mat. mit

A = LLT (Setze L′ = LD1/2 wie vorher.).

Rechenaufwand: N3/6 Multiplikationen, NQuadratwurzeln.2.5 – Pivotstrategien2.12:

• Spaltenpivotisierung:

k-ter El.schr. Wahle m′ ∈ {k, ..., N},

s.d. a(k)m′k das betr.m. großte El. in

Spalte k von A(k) ist. Vertausche Zei-

le k und m′ und fuhre El.schritt aus.

[O(N2)]

• Zeilenpivotisierung analog.

• Vollstandige Pivotisierung: Beides

gleichzeitig. [O(N3)]

Algorithmus: Gauß mit Spaltenpiv.

Wahle m′ wie oben und vertausche die ent-sprechenden Zeilen. Dann El.schritt.

Permutationsmatrizen: π ∈ ΠN .

ZVert. mit PMat. Pπ = [eπ(1), . . . , eπ(n)].

PMen sind orthogonal. Zeilenperm. Op. imBildbereich, Mult. von links. Spaltenperm.Op. im Urbildbereich, Mult. von rechts.2.14: Gauß mit Pivotisierung.

∀A ∈ GLN (R) ∃PMP : PA = LR. P kann sogewahlt werden, dass alle El. von L betragsm.kleiner oder gleich 1 sind. Die LR-Z. von PAist eindeutig.Wichtige Bemerkungen:

Gauß+Pivot. = verlasslicher Algo.Losungsalgo: LR-Z. von PA, dann Lz=Pb(VS), dann Rx=z (RS).P kann als Vektor gespeichert werden.Zeilenpiv.: AP=LR, LRy=b, x=Py.Einfache Det.berechnung moglich.2.6 – Nachiteration

2.15: Ax=b, y∈ RN . r(y):=Ay-b = A(y-x) Re-

siduum. r(y)=0 gdw. Ay=b, also y=x.Residuum ist berechenbare Große.Absoluter Fehler: ∆x0:=x0-x genugt A∆x0 =r(x0). Exakte Losung: x= x0-∆x0.

Fehlerhafte Korrektur: ∆x0 6= ∆x0 bei num.

Lsg. x1:=x0-∆x0 erster Schritt der Nachite-ration. Wdh. bis zufrieden. Meist nur einmalnotig (Skeel).Kapitel 3 – Numerische FehleranalyseFehlerarten:

Exakt: Daten, Algo, Resultat OK.Gest. Daten: Ex. Algo → Gest. ResultatGest. Real.: Eingabefehler, Ex. Algo, Fehlerim Resultat.3.1 – Zahldarstellung und Rundungsfehler

3.1: x=σabe, σ ∈ {±1}, B Basis (2erpot.),

e Exponent, e∈ {α, . . . , β} ⊂ Z, a Mantisse

mit Mantissenlange l (a = 0 oder B−1 ≤a<1,a1 6= 0, aj ∈ {0, . . . , B − 1}).

⇒ a=∑lj=1 ajB−j . 3.2: Normweiser Fehler.

||y − y|| bzw. ||y − y|| / ||y||.Komponentenweiser Fehler.∣∣∣∣yj − yj

∣∣∣∣ bzw.∣∣∣∣yj − yj

∣∣∣∣ / ∣∣∣∣yj∣∣∣∣, j = 1, ..., N.

Exponentenuber(unter)lauf:

|x| < Bα−1: Exponentenunterlauf.

|x| ≥ Bβ(1 − B−l) Exponentenuberlauf.Runden: Gerichtetes Runden: x ∈ R.

bxc gr. Masch.zahl x mit x ≤ x.dxe kl. Masch.zahl x mit x ≤ x.Korrektes Runden:

rd(x) =

⌊xBe

+ B−e2

⌋Be

bxc : |x| > Bβ

dxe : |x| < Bα

Ad F1: Be−1 ≤ |x| ≤ Be, e ∈ {α, ..., β}Relative Rundungsfehler:

Bα ≤ |x| ≤ Bβ(1 − B−l).

Gerichtet:|x−rd(x)||x| ≤ 2eps.

Korrekt:|x−rd(x)||x| ≤ eps.

eps:= B1−l2

, rel. Masch.gen.

Fehlerarten, genau:

• Eingabefehler

• Rundungsfehler:El.op. werden durch Gleitk.op. ersetzt.x◦y = rd(x ◦ y).x◦y = (x ◦ y)(1 + ε), ε = ε(x, y), |ε| ≤eps fur alle Gleitkommazahlen.

• Approximationsfehler: (z.B. Diskretis.)Fehler durch Approx. bis auf Rd.fehler.

• Messfehler: ≈ 10e − 2, 10e − 3.

3.2 – Kondition eines Problems

Zentrale Frage: Storung EingabeEx.Alg.→ ???

3.8: Landausche Symbole.

f, g : RN → RM .

• f = O(g) fur x → x0: ∃C > 0, δ > 0:||f(x)|| ≤ C ||g(x)|| ∀ ||x − x0|| ≤ δ.

• f = O(g) fur ||x|| → ∞: ∃C > 0, R >0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x|| ≥ R.

• f = o(g) fur x → x0: ∀ε > 0∃δ > 0 :

|f(x)| ≤ ε |g(x)| ∀ ||x − x0|| ≤ δ.• f = o(g) fur ||x|| → ∞: ∀ε > 0∃R >

0 : |f(x)| ≤ ε |g(x)| ∀ ||x|| ≥ R.

3.9: h, g : RN → RM gleich bzw. kleiner gleich

in erster Naherung fur x → x0 ( ||x|| → ∞):g(x) = h(x) + o(||h(x)||) bzw. g(x) ≤ h(x) +o(||h(x)||) fur x → x0 (||x|| → ∞).Kondition:

• Normweise abs. Kond.: κabs ∈ [0,∞]:

||f(x) − f(x)|| ≤κabs ||x − x|| , x → x.

• Normweise rel. Kondition: κrel ∈ [0,∞]:

||f(x)−f(x)||||f(x)|| ≤κrel

||x−x||||x|| , x → x.

• Gut gestellt: Werte < ∞.

• κrel =||x||||f(x)||κabs

Addition und Subtraktion:

Add. zw. Zahlen mit gl. Vorz: gut kond.Subtr. zw. etwa gl. gr. Zahlen: schlecht kond.(Ausloschung fuhrender Ziffern)

Matrixkondition: A invertierbar.

κ(A) =∣∣∣∣∣∣∣∣∣∣∣∣A−1

∣∣∣∣∣∣∣∣∣∣∣∣ · |||A|||Nun: A ∈ RM×N .

κ(A) =max||Ax||min||Ax|| ∈ [0,∞] uber ||x|| = 1.

Eigenschaften Kondition:

• κ(A) ≥ 1

• κ(A) = κ(αA)∀α ∈ R∗

• A 6= 0 singular ⇔ κ(A) = ∞Rel. normweise Kond. im Urbild: (f,x)

||f(x)−f(x)||∞||f(x)||∞

≤κrel maxj=1,...,n

∣∣∣∣∣xj−xj∣∣∣∣∣∣∣∣∣∣xj

∣∣∣∣∣,

x → x. Dies ist submultiplikativ:κrel(g ◦ h, x) ≤ κrel(g, h(x)) · κrel(h, x).Skeelsche Kondition:

κS(A) :=∣∣∣∣∣∣∣∣∣∣∣∣ ∣∣∣∣A−1

∣∣∣∣ · |A| ∣∣∣∣∣∣∣∣∣∣∣∣∞. (Betragsw.

Matr.) Charakterisiert die komp.weise Kond.fur alle mogl. rechten Seiten b mit Storungenin A und b.3.3 – Stabilitat eines Algorithmus

Ist das Resultat von (f, x) akzeptabel anstelle desResultats von (f, x)?Vorwartsanalyse: Eingabemenge E. Vergleich

von R=f(E) mit R’=f(E).

3.21: f Gleitk.real. zu (f,x) mit κrel und κrel.

Stavilitatsindikator normweise:

Kleinstes σ ≥ 0:

∣∣∣∣∣∣∣∣∣∣f(x)−f(x)

∣∣∣∣∣∣∣∣∣∣

||f(x)|| ≤σκreleps ∀x ∈E und eps → 0.Stavilitatsindikator komponentenweise:Kleinstes σ ≥ 0:

maxj=1,...,m

∣∣∣∣∣fj(x)−fj(x)∣∣∣∣∣∣∣∣∣∣fj(x)

∣∣∣∣∣≤σκreleps ∀x ∈ E

und eps → 0.

f stabil im Sinne der Vorw.an., falls σ/σkleiner als Anzahl hinterein. ausg. El.op.3.22: El.op. sind stabil mit σ◦κ◦ ≤ 1.

Idee: An. des Ges.algo. durch An. der Teilalg:

f = h ◦ g ersetzt durch f = h ◦ g.

3.23: Fur f = h◦ g mit Problem (f = h◦g, x)

gilt σfκf ≤ σhκh + κhσgκg .

Unverm. Subtr. mogl. an den Anf. stellen.Sum. und SP. sind stabil in diesem Sinne.3.26: (f,x) Probl. f = h ◦ g Real. Alle Fkten.

skalar und diffbar. Dann gilt:σf ≤ σh/κg + σg .

Abschlussbemerkungen:

Kleine Kondition → Stabilitat.Kleine Kondition = Informationsverlust.(And. in Eing. kaum Ausw. aufs Resultat)Kapitel 4 – Numerische Interpolation4.1 – Allgemeines Interpolationsproblem4.1: X norm. Raum, V ⊂ X, dim V=N,

l1, ..., ln ∈ L(X) lineare Funktionale.Finde zu f ∈ X ein u ∈ V : lj(u) = lj(f) ∀j.(I)

(I) wohlgestellt: ∀f ∈ X genau eine Lsg.{v1, ..., vN

}Basis von V ,

∑Nj=1 ajvj Lsg.

→ Lose [li(vj)]i,j=1,...,N · [a1, ..., aj ]T =

[l1(f), ..., lN (f)]T .

(I) wohlgestellt gdw. es eine Basis von V wieoben gibt mit [li(vj) wie oben regular.

(I) hochstens dann wohlgestellt, wenn die lilinear unabhangig.Lagrangeinterpolation:

X=C[a, b], V=Pn, N=n+1,li(f)=f(xi)(0-n). WG gdw. xi pw. ver.Hermiteinterpolation:

X=C1[a, b], V=P2n+1, N=2n+2,

l2i(f)=f(xi), l2i+1(f)=f′(xi)(von0-n).

WG gdw. xi pw. ver. Kubische

Splineinterpolation:

X=C2[a, b], V speziell, N=n+1,li(f)=f(xi)(0-n). WG.4.2 – Lagrangeinterpolation

I = [a, b] ⊂ R, a ≤ x0 < . . . < xn ≤ b.Darstellungsmatrix Monombasis.

V=

1 x0 x20 . . . xn0

. . . . . . . . . . . . . . .

1 xn x2n . . . xnn

detV 6= 0

Berechnung teuer (n2), schlechte Kondition.4.4: xi, i = 0, . . . , n pw. versch.

Lnj (x) =∏

0≤i6=j≤nx−xixj−xi

=ω(x)

(x−xj)ω′(x),

ω(x) =∏ni=0(x − xi) ∈ Pn+1 \ Pn.

4.5:{Ln0 , . . . , L

nn

}Basis von Pn. Lagrange-(I)

gelost durch p(x) =∑ni=0 f(xi)L

ni (x).

(Koeff. umsonst, Auswertung teuer (n2))

Newtonpolynome ωj(x) =∏j−1i=0 (x − xi),

ω0(x) = 1. → Darst.mat. ist unt. Diag:

W =

1 0 0 ... 01 ω1(x1) 0 ... 0. . . . . . . . . ... . . .1 ω1(xn) ω2(xn) ... ωn(xn)

Lose W · ~a = [f0, . . . , fn]T .Rekursion: ωj(xi) = ωj−1(xi)(xi − xj−1).

Dividierte Differenzen: f[xj, . . . , xk] :=

f[xj+1,...,xk]−f[xj,...,xk−1]

xk−xj,f[xj ]=f(xj).

Daraus bek. Schema aufb., Ob. Diag. ablesen.p(x) =

∑ni=0 aiωi(x), ai = f[x0, . . . , xi]

(Einmalige Koeff.best. (n2), Ausw. linear moglich)(Keine Neuber. der Koeff. bei neuem Dat. notig.:pn+1(x) = pn(x) + an+1ωn+1(x).)

Kondition:

Φ : C0[a, b] → Pn, f 7→ pn, pn(xi) = f(xi)

⇒ κabs = Λn := maxx∈[a,b]

∑nj=0

∣∣∣∣Lnj (x)∣∣∣∣.

Restglieddarstellung/Interpolationsfehler:

Frage: Wie gut ist die Approx. von f durch pn?

4.11: f ∈ Cn+1[a, b]. ∀x ∈ I∃ξ ∈ I :

Rn(x)=f(x) − pn(x)=f(n+1)(ξ)

(n+1)!ωn+1(x).

4.12: f∈Cn+1(I). ∀x∈I∃ξ∈ I[x0, . . . , xn, x]

f[x0, . . . , xn, x] =f(n+1)(ξ)

(n+1)!

4.13: f ∈ Cn+1(I): ||f − pn||∞,I ≤∣∣∣∣∣∣∣∣∣∣∣∣f(n+1)

∣∣∣∣∣∣∣∣∣∣∣∣

(n+1)!

∣∣∣∣∣∣∣∣ωn+1

∣∣∣∣∣∣∣∣ in ∞-Norm. auf I.

∣∣∣∣∣∣∣∣f(n+1)ωn+1

∣∣∣∣∣∣∣∣∞,I = o((n + 1)!): Fehler

geht gegen 0. I.A.∣∣∣∣∣∣∣∣ωn+1

∣∣∣∣∣∣∣∣∞,I → ∞.

4.17: Tschebyscheffpolynome: T0(x)=1,

T1(x)=x,Tk+1(x)=2xTk(x)-Tk−1(x),k ≥ 1.

Eigenschaften:

1. Tk∈Pk, LK 2k−1,∣∣∣∣∣∣∣∣Tk+1

∣∣∣∣∣∣∣∣=1 (un.-1,1)

2. Tk(x) = cos(k · arccosx), x ∈ [−1, 1]

3. Tk(x)=0.5((x+√x2-1)k+(x-

√x2-1)k)

4.∣∣∣Tk(x)

∣∣∣ = 1 gdw. x = cos mπk

,m=o...k

5. Tk(x)=0gdw. x= cos 2m+12k

π m=0...k-1

4.18: Min-Max-Eigenschaft:

Sk. Tsch.pol. (LK 1) hat kleinste Maxnorm:

minp∈Pn+1

||p||∞,[−1,1] =∣∣∣∣∣∣∣∣2−nTn+1

∣∣∣∣∣∣∣∣∞,[−1,1]

Transformation auf [a, b]:

L : [a, b] → [−1, 1], L(x) = 2 x−ab−a − 1.

L−1(x) =b+a+(b−a)x

2, TIk := Tk(L(x)).

4.19: p ∈ Pn+1 (LK 1)

p = p ◦ L hat grad n+1 und LK

cn+1 := 2n+1(b − a)−(n+1). p = p ◦ L−1

hat LK c−1n+1. Das sk. und transf. Tsch.pol.

2−ncn+1TIn+1 hat min. Max.norm.

4.3 – Hermite-Interpolation2 Stutzst. id. → Fktsw. + Abl. notw.4.20: a=x0<. . . <xm=b Zerlegung, ni ∈ N,

n0+. . .nm=n+1, f(v)i ∈R, i=0,. . . ,m,

v=0,. . . , ni-1. Zu diesen Daten: ∃!p ∈ Pn mit

p(v)(xi) = f(v)i , i=0,. . . ,m, v=0,. . . ,ni-1.

4.21: Vor. wie oben, f ∈ Cn+1[a, b],

f(v)i = f(v)(xi), i=0,. . . ,m, v=0,. . . ,ni-1

und p ∈ Pn die Hermite-Interpol. ∀x ∈ [a, b]

∃ξ ∈ (a, b): Rn(x) = f(n+1)(ξ)

(n+1)!ωn+1(x).

Normieren liefert dann Fehlerabschatzung.4.4 – Stuckweise PolynominterpolationStuckweise Hermite-Interpolation:

∆ := {a = x0 < . . . < xn = b}, k ∈ N.

H(k)∆ :={p ∈ Ck−1[a, b] : p |[xj−1,xj ] ∈

P2k+1, j=1, . . . , n}. Zu f(v)j ∈ R,j=0, ..., n,

v=0, ..., k-1 suche p∈H(k)∆ : p(v)(xj)=f

(v)j .

4.27: f∈C2k[a, b], p∈H(k)∆ , I=[a, b].

||f − p||∞,I≤

∣∣∣∣∣∣∣∣∣∣∣∣f(2k)

∣∣∣∣∣∣∣∣∣∣∣∣∞,I

(2k)!22k ·h2k∆ , mit

h2k∆ := max

j=1,...nhj := max

j=1,...n(xj − xj−1).

4.28: maxj=1,...n

∣∣∣∣∣∣∣∣f(v) − p(v)∣∣∣∣∣∣∣∣≤ h

2k−v∆

∣∣∣∣∣∣∣∣∣∣∣∣f(2k)

∣∣∣∣∣∣∣∣∣∣∣∣

22k−2v−v!(2k−v)!in der ∞, [xj−1, xj ]-Norm.

Fur diese Interp. mussen die Abl. an denSt.stellen bek. sein. Oft schlecht ermittelbar.4.5 – Splineinterpolation

∆ wie oben, Ij :=[xj−1, xj ], j=1,...,n.

4.30: k ∈ N. Splineraum:

S(k)∆ :={p∈Ck−1[a, b]:p |Ij=pj∈Pk,j=1,...,n}

4.31: dimS(k)∆ =n+k.

Hier: k=3, kubische Splines. (2 Bed. zuwenig)4.32: ∆ Zerl. von [a,b], f0,...,fn∈R geg.

Daten. Ges.: p∈S(3)∆ :p(xj) = fj ,j=0,...,n.

Nicht eind. losbar, da nur n + 1 Daten vorg.

4.33: Satz von Holladay. f∈C2[a, b], p∈S(3)∆ ,

p(xj)=f(xj), j=0,...,n. Dann gilt:∣∣∣∣∣∣f′′ − p′′ ∣∣∣∣∣∣2=∣∣∣∣∣∣f′′ ∣∣∣∣∣∣2-

∣∣∣∣∣∣p′′ ∣∣∣∣∣∣2-2((f’(x)-

p’(x))p”(x))|ba in der Eukl.N. auf [a,b].

Letzer Summ. =0:∣∣∣∣∣∣p′′ ∣∣∣∣∣∣ ≤ ∣∣∣∣∣∣f′′ ∣∣∣∣∣∣ wie oben.

||p||22 min. unter all. Fkt. f durch ob. Pkte.

Kubische Splinetypen:

Der k.Sp. p∈S(3)∆ zu f0, ..., fn heißt

– naturlich: p”(a)=p”(b)=0.– vollstandig: p’(a)=α, p’(b)=β.– periodisch: p’(a)=p’(b), p”(a)=p”(b).4.35: ∃! vollst./nat. Spl. zu den ob. Daten.

4.37: f∈C0[a, b], pk∈S(3)∆k

, k ∈ N,

∆k={a = x(k)0 , ..., x

(k)nk

= b} mit

maxj=1,...,nk

(x(k)j -x

(k)j−1)≤δmin

∣∣∣∣∣x(k)j -x

(k)j−1

∣∣∣∣∣fur alle k∈N und ein fixes δ∈R, pk zug. Spline.

max

∣∣∣∣∣x(k)j − x(k)

j−1

∣∣∣∣∣ gegen 0: f –> pk, ∞-N.

Kapitel 5 – Numerische Integration

Problem: [a,b] Int., f st. diff. Gesucht:

I(f) =∫ba f(x) dx. (Num. Approx.)

Ziel: Konstr. num. Quadr. Q:C0[a, b] → R,

f 7→ Q(f) mit |Q(f) − I(f)| mogl. klein.5.1 – Allgmeine Quadraturformeln

5.1: x0,...,xn∈[a, b] Stutzstellen, pw. versch.

w0,...,wn∈R \ {0} Gewichte.

Qba(f) := Q(f) :=∑nj=0 wjf(xj).

Q ex. v.Grad m: Q(p)=I(p)∀p ∈ Pm.Q pos. falls Q(f)≥0 f.a. pos. f.Minimalforderung: Konstante Funktionen

exakt integr.: Summe Gew. gleich Eins.

Mittelpunktsformel: Q(f)=(b-a)f( b−a2

).

Trapezregel: Q(f)= 12

(b-a)(f(a)+f(b)).

Beide exakt vom Grad 1. Die Gewichtekonnen immer so gewahlt werden, dass Qexakt vom Grad m≥n ist.5.3: Q Q.for. auf [a, b] ex. v.G. m≥n,

f ∈ Cm+1[a, b]. Dann gibt es ωm+1∈Pm+1:

|Q(f) − I(f)| ≤

∣∣∣∣∣∣∣∣∣∣ωm+1

∣∣∣∣∣∣∣∣∣∣1

∣∣∣∣∣∣∣∣∣∣∣∣f(m+1)

∣∣∣∣∣∣∣∣∣∣∣∣∞

(m+1)!auf

[a,b],∣∣∣∣∣∣∣∣ωm+1

∣∣∣∣∣∣∣∣1

=∫ba

∣∣∣∣ωm+1

∣∣∣∣ dx. Ferner:

(m + 1)!cm:=∣∣∣∣∣∣∣∣ωm+1

∣∣∣∣∣∣∣∣1·(b − a)−2−m ≤ 1.

1

Matthias
Stempel
Page 2: B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

Damit:|Q(f) − I(f)|≤cm(b-a)m+2∣∣∣∣∣∣∣∣f(m+1)∣∣∣∣∣∣∣∣∞,[a,b]. (Q Ordnung m+2)

5.2 – Newton-Cotes-FormelnIdee: Ersetze Funktion durch Interpolierende:

Integral einfach. Quadraturformel:

Q(f)=I(pn)=∫ba pn(x) dx.

Lagr.basisfkt.: pn(x)=n∑j=0

f(xj)Lj(x)

Gewichte: wj :=∫ba Lj(x) dx, somit

Q(f)=I(pn)=n∑j=0

wjf(xj).

Mit y = x−ab−a kann man die Gewichte bis auf

Skalierung auf [0,1] berechnen.Fur den Sp.fall aquidist. Stutzst. xj=a + jh,

j=0,...,n, h= b−an

, heißen die so kon-

str. Qu.formeln Newton-Cotes-Formeln.

5.3 – Zusammengesetzte Quadraturen

5.4: ∆m={a = z0<...<zm = b}. Dann:

Qba(f)=m∑j=1

Qzjzj−1

(f).

MP. und T.regel durch Einsetzen.Idee: Lege einmal QF mit Gewichten und

St.stellen auf [0, 1] fest und transf. dies aufdie einzelnen Teilintervalle.Gewichte: wj = (b − a)wjStutzstellen: xj = xj(zj − zj−1)

5.5: Q QF auf [0,1] ex. auf Pk fur ein k≥0.

∆ wie oben Zerl. von [a,b], hj :=zj -zj−1,

h∆ = maxhj , Qba die auf ∆ zsges. QF,

f∈Ck+1[a, b].∣∣∣∣Qba(f)-Iba(f)∣∣∣∣≤ck m∑

j=1hk+2j

∣∣∣∣∣∣∣∣f(k+1)∣∣∣∣∣∣∣∣∞ auf

dem Zwischenintervall und ≤ insgesamt

ck(b-a)hk+1∆

∣∣∣∣∣∣∣∣f(k+1)∣∣∣∣∣∣∣∣∞,[a,b], ck ≤ 1

(k+1)!

5.4 – Gauß-Christoffel-Quadraturen

Jetzt: I(f)=b∫a

f(x)a(x)dx, a stetig, pos. a,b

auch∞, sol.b∫a

xka(x)dx <∞. Ziel: n+1 Gew.,

Ex.grad so hoch wie geht.

Typ. a’s: 1, 1√1−x2

, e−x, e−x2. Freie Wahl

der Stutzst. gibt 2n+2 Unb. (St. + Gew.) –>NLGS!!!

5.6: Qn QF, n+1 St.st., Qn(f)=n∑j=0

wjf(xj)

pn+1(x) = (x-x0)...(x-xn). Dann:

pn+1∈Pn+1 \ {0}: Q(p2n)6=I(p2

n) und

Qn ex. auf P2n+1, so ist pn+1 orth. zu Pn

bzgl. 〈f, g〉α:=b∫a

f(x)g(x)a(x)dx auf (a, b).

5.7: n∈N0. ∃pn+1 orth. zu Pn in ob. SP.

x1,...,xn einf. NSen von pn+1, Qn(f) (5.6)

ex. auf Pn. Dann Qn(f) ex. auf P2n+1.

Gewichte: wj=b∫a

Lj(x)a(x)dx, j=0,...,n.

5.8: Zu n nat. gibt es eind. best. St.St.

x0,..., xn in (a,b) und Gew. w1,...,wn,sodass QF wie in 5.6 ex. f.a. Pol. mit Grad2n+1. Die St.St. sind die NS des (n+1)-

ten Orth.pol. pn+1. wj=b∫a

L2j (x)a(x)dx =

||pn||ap′n+1(xj)pn(xj)

>0, j=0,...,n. Norm ist SP

mit p2n. f∈C2n+2[a, b], c2n+1:=

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣pn+1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣a

(2n+1)!:

|Qn(f) − I(f)|≤c2n+1

∣∣∣∣∣∣∣∣f(2n+2)∣∣∣∣∣∣∣∣∞ in(a,b).

Kapitel 6 – Iterative Verfahren6.1 – Klassische Iterationsverfahren

6.1: A∈GLn(R), b∈RN , x? ∈RN eind.Lsg.

von Ax?=b. Zu x0 ∈ RN und B∈R(N,N) def.xk+1=xk-B(Axk − b). T :=id-BA It.mat.

Konv., falls ∀ x0: limk→∞

xk = x?.

Residuum: rk=Axk-b: xk+1=xk-Brk.

Idee: Kompl(A)≈Kompl(B), B≈A−1

6.2: ∀ ε >0, A∈R(N,N) ∃ ||·||A: ||A||A,ε ≤ρ(A) + ε.6.3: T It.mat. Verf. konv. gdw. ρ(T )<1.

Ebf. falls dies (...<1) fur eine bel. Mat.n. gilt.

6.4: T∈R(N,N), ||·|| auf RN , |||·||| zug.

Mat.n.: ρ(T )≤|||T |||, ρ(T )= limk→∞

∣∣∣∣∣∣∣∣∣∣∣∣Tk ∣∣∣∣∣∣∣∣∣∣∣∣1/k.

6.5: ρ(T ) sagt etwas uber Konv.geschw. aus:

Je kleiner ρ(T ), desto schneller die Konver-genz.6.6: Richardson-Iteration

A∈GLN (R), xk+1=xk-(Axk-b)=xk-rk.

Konvergent gdw. |1 − λ| < 1 f.a. λ ∈ spec(A).Verfeinerung: Zerlege A=L+D+R. Fur det A

6= 0 ergibt dies: x?=x?-D−1(Ax?-b) (GSV )6.7: Gesamtschrittverfahren:

A=L+D+R inv., det A 6= 0.

xk+1 = xk-D−1(L+R). TGSV=-D−1(L+R)

x(k+1)m =a−1

mm(bm -∑

n 6=mamnx

(k)n ) m=1,.,N

6.8: Starkes Zeilensummenkriterium

GSV konv. mit A wie oben gdw.

maxm=1,...,N

1|amm|

∑n 6=m

|amn|<1.

6.9: Einzelschrittverfahren

A=L+D+R inv., det A 6= 0.

xk+1 = xk-(D+L)−1(Axk-b)

TESV=-(D+L)−1R6.10: ESV konv. fur spd-Mat.

6.11: A∈R(N,N), N :={1,...,N}. A zer-

legbar gdw. ∃N1,N2⊂N : N1∪N2= N ,N1∩N2=∅, N1 6= ∅, N2 6= ∅ und m ∈ N1,n ∈ N2⇒amn = 0. A unz., wenn nicht zerl.Prozess des Zerlegens kann evtl. nachiteriertwerden: Feinere Zerlegung.6.12: Schwaches Zeilensummenkriterium:

A=L+D+R inv., det A 6= 0 unzerl,

maxm=1,...,N

1|amm|

∑n 6=m

|amn| ≤ 1 und

1∣∣∣∣am?m?∣∣∣∣

∑n 6=m?

∣∣∣am?n ∣∣∣<1,m? ∈{1,...,N}

Dann sind ESV und GSV konv.6.13: A=tridiag(a,b,c) hat die Eigenwerte

λn = a + 2sgn(cb)√|cb| cos nπ

N+1,n=1,...,N.

Jetzt: Relaxierte Verfahren. Wahle ω ∈ R:xk+1/2=xk-B(Axk-b), xk+1=(1-ω)xk +

ωxk+1/2. Wahle ω so, dass xk+1 moglichst

nah an der eind. Lsg. ist., also ρ(Tω) mogl.klein. Gesucht: ωopt ∈ argmin

ω∈Rρ(Tω) ⇔

ρ(Tωopt ) = minω∈R

ρ(Tω).

6.14: Rel. Richardson-Verfahren: A ∈ R(N,N)

inv., ω reell.

k+1 = xk − ω(Axk − b).Konv.: Ex. ω∈R: |1 − λω|<1 f.a λ ∈ spec(A).A spd.: Ex. ω ∈ R, sd. ob. It. konvergiert.

Tωopt= 2λmax+λmin

,ρ(Tωopt )=κ2(A)−1κ2(A)+1

<1

6.15: Relaxiertes GSV/ESV

A ∈ R(N,N) inv., A=L+D+R, det(A)6=0.

xk+1=xk-ωD−1(Axk-b) (rel. GSV)

Xk+1=xk-ω(D+ωL)−1(Axk-b) (rel. ESV,

SOR=successive overrelaxation)6.16: Satz von Kahan

TSOR(ω)=(D+ωL)−1((1-ω)D-ωR),

ρ(TSOR(ω))≥ |ω − 1|Satz von Ostrowski und Reich:

A spd. ⇒ ρ(TSOR(ω)) < 1 f.a. ω ∈ (0,2).

6.19: SSOR, sym. SOR

A ∈ R(N,N) inv., A=L+D+R, det(A)6=0, ω ∈(0,2). Definiere:

Tω :=(D+ωL)−1((1-ω)D-ωR),

Tω :=(D+ωR)−1((1-ω)D-ωL).

It. Verf. mit It.mat. T=TωTω : SSOR.6.20: A ∈ R(N,N) inv., A=L+D+R, det(A) 6=0,

ω ∈ R. Dann gilt:

ρ(TSSOR(ω)) ≥ |1 − ω|2 und

A spd. ⇒ ρ(TSSOR(ω)) < 1 f.a ω ∈ (0, 2).

Fur sym. Mat. (R=LT ) ist TSSORebf. sym. mit BSSOR(ω) = (2 −

ω)(

1ωD + LT

)−1) ( 1ωD) (

1ωD + L

)−1

6.2 – CG-Verfahren

Idee: Konst. zu A inv. spd. und x? im k-ten Schritt

einen Unterraum Kk ⊂ RN mit dimKk=k, sodass das Residuum Axk − b orthogonal zu diesemUnterraum ist. Dann gilt spatestens nach N Schritten

xN=x?.6.21: Projektionssatz

W endl.dim. UVR mit SP 〈·, ·〉 und ind.Norm ||·||W , K ⊂ W lin. Teilraum und

K⊥ ={w ∈ W : 〈w, u〉W = 0∀u ∈ K

}das

orth. Kompl. von K in W. ⇒∀w∈W∃!u?∈K:

∣∣∣∣∣∣u? − w∣∣∣∣∣∣W

=minu∈K||u − w||W .

u? ist eind. best. durch u? − w ∈ K⊥, obige

Gl. ist aquiv. zu⟨u?-w, u

⟩W

= 0 f.a. u∈K.

6.22: W endl.dim. eukl. VR. mit SP. und ind.

Norm wie oben. Sei K ⊂ W linearer Teilraum.PK : W → K, w 7→ PKw = argmin

v∈V||v − w||W

ist wohldef., lin. und heißt orth. Proj. von Wauf K.6.23: Ersetze oben K durch den affin lin.

Teilraum V = w0 + K fur ein w0 ∈ RN , so gilt

v? = argminv∈V

||v − w||W aq. zu v? −w ∈ K⊥.

Die zug. Abb. PV wie oben ist wohldef. und

affin lin. Es gilt PV w = w0 + PK(w − w0).

6.24: A spd. 〈x, y〉A = 〈Ax, y〉 def. ein SP

auf RN . Die hierdurch ind. Norm ist aq. zureukl. Norm:√λmin ||x||2 ≤ ||x||A ≤

√λmax ||x||2 f.a.

x ∈ RN . Ebenso def. 〈x, y〉A−1 ein SP.

Ritz-Galerkin-Approximation:

W=RN mit SP zu A und zug. Norm. Sei Kk

⊂ RN ein gee. gew. UVR, Vk = x0 + Kk

und x? die exakte Losung von Ax? = b und

xk=argminv∈Vk

∣∣∣∣∣∣v − x? ∣∣∣∣∣∣A

. Dies ist aq. zu

⟨xk − x

?, d⟩A

= 0 f.a. d ∈ Kk. Sei nun

d1, ..., dn eine A-ort. Basis von Kk und Pkdie A-ort. Proj. auf Kk. Dann gilt

xk = x0+Pk(x?-x0) = x0 -k∑l=1

αldl mit

αl =

⟨r0,dl

⟩A∣∣∣∣∣∣∣∣dl

∣∣∣∣∣∣∣∣2A, rk Residuum.

Idee: Verwende Kk = span{r0,Ar0,. . . ,Ak−1r0}.Krylowraume. Ex. Lsg. nach max. N Schr.6.25: Solange rk 6=0 ist, sind die Residuen

r0,...,rk pw. ort., d.h. es gilt⟨ri, rj

⟩= δij

∣∣∣∣∣∣ri ∣∣∣∣∣∣22, i, j = 1, ..., k.

Es gilt Kk+1=span{r0,...,rk}.6.29: Sei Pk =

{p ∈ Pk : p(0) = 1

}, k≥0. ⇒∣∣∣∣∣∣xk-x?

∣∣∣∣∣∣A≤ infp∈Pk

maxλ∈σ(A)

|P (λ)|∣∣∣∣∣∣x0 − x

?∣∣∣∣∣∣A.

6.30: Pk wie oben, [a,b]⊂R mit 0 6∈[a,b]. Ist

Tk:[-1,1]→ R das k-te Tsch.pol., so ist

das transf. Pol. Tk(λ) :=Tk(x(λ))

Tk(x(0)),

x(λ) = b+a−2λb−a min. bzgl. ||·||∞ auf [a,b]

in Pk mit: minp∈Pk

||P ||∞=∣∣∣∣∣∣Tk(·; a, b)

∣∣∣∣∣∣∞ ≤

2

√b/a−1√b/a+1

k.

6.31: Konvergenz des CG-Verfahrens

A spd. Dann konv. das CGV f.a. x0 gegen die

eindeutige Losung x∗=A−1b mit:∣∣∣∣∣∣ak − x? ∣∣∣∣∣∣A ≤ 2

√κ2(A)−1√κ2(A)+1

k ∣∣∣∣∣∣x0 − x?∣∣∣∣∣∣A

.

6.32: Soll der Fehler um den Faktor 0 < ε < 1

in der Energiernorm ||·||A red. werden, so

ben. man hochs. k=⌈12

√κ2(A) ln 2

ε

⌉Iteratio-

nen.6.3 – Vorkonditioniertes CGV

Idee: Ersetze Ax=b durch das aq. LGS ACy?=b, x =

Cy?, C spd, C≈A−1.

Problem: AC nicht langer sym. bzg. Eukl. SPs.Losung: A,C spd: B=AC sym. bzgl. 〈·, ·〉C .Wende nun das CGV zur Losung von

By?=b an. Als induziertes SP ergibt sich{·, ·}AC = 〈Bx, y〉C = 〈ACx,Cy〉. Verw.nun im CGV anstatt yk direkt xk=Cyk .6.34: Es gilt die Absch. aus 6.31 und man

kann zeigen:√λminα ≤

∣∣∣∣∣∣rk ∣∣∣∣∣∣C ≤ √λmaxα

mit α =∣∣∣∣∣∣xk − x? ∣∣∣∣∣∣A. Vork. gut, falls

λmin,max ≈ 1.

Haufig benutzte Vorkonditionierer: Diagkond.Unvollst. Chol.Z., SSOR-Vorkond.Kapitel 7 – Nichtlineare Gleichungssysteme

Setting: X Banachraum, L(X) wie immer,∅ 6= O ⊂ X, f:O→X nichtlinear, y ∈ X.Problem: Finde x∈X mit f(x)=y.7.2: (xk) konv. mit Ord. p, falls k0 nat. und

C>0 ex. mit∣∣∣∣∣∣∣∣xk+1 − x

?∣∣∣∣∣∣∣∣ ≤ C ∣∣∣∣∣∣xk − x? ∣∣∣∣∣∣p.

7.1–Fixpunktiterationen7.3: Kontr. ist Selbstabb. mit Lip.konst. <1.

7.4: f:M→X, U⊃M offen und konvex, f st.diff.,

f(M)⊂M, ρ:= supx∈U

||Df(x)||L (X)<1: f Kont.

7.5: Banachscher Fixpunktsatz (wie immer)

7.6: f:X→X. Es gebe x0 ∈X,R>0, ρ ∈[0,1):

||f(x) − f(y)||≤ρ ||x − y|| f.a. x,y∈ BR(x0)

und ||x0 − f(x0)|| ≤ (1 − ρ)R. Dann bes. feinen eind. FP in der obigen Menge und esgelten die anderen Aus. aus 7.5.7.7: f:X→X sei in der Nahe eines FPs p-mal

st.diff. mit Dlf(x?)=0 f.a. l=1,...,p-1. Dannist die Fixpunktit. ein Verfahren p-ter Ord-

nung, sofern∣∣∣∣∣∣Df(x?)

∣∣∣∣∣∣L(X)< 1.

7.2 – Das Newtonverfahren

∅ 6=U⊂X offen, f st.diff. Ges: Nullstelle in U.7.8: NV. F.a. x0 ⊂U ist das NV geg. durch:

xk+1 = xk-Df(xk)−1f(xk), sol. Df(xk) inv.

7.9: X=Rd, d>=2. Dann Df(xk) dxd-

Matrix. Pr. Vorg.: 1. Df(xk)dk=-f(xk)losen. 2. xk+1=xk+dk. Falls das NV konv.,

dann quadr: f 2mal st.diff., U konvex,

supx∈U

∣∣∣∣∣∣∣∣Df(x)−1∣∣∣∣∣∣∣∣L(X)

<∞, x? ∈ U NS. von f:

∣∣∣∣∣∣∣∣y-Df(y)−1f(y)-x?∣∣∣∣∣∣∣∣≤ 1

2supx∈U

∣∣∣∣∣∣∣∣Df(x)−1∣∣∣∣∣∣∣∣

supx∈U

∣∣∣∣∣∣∣∣D2f(x)∣∣∣∣∣∣∣∣L(X2,X)

∣∣∣∣∣∣y − x? ∣∣∣∣∣∣2.

7.11: A∈ L(X), α:=||A||L(X)<1: Ex.

(id-A)−1=∞∑k=0

Ak mit∣∣∣∣∣∣∣∣(id − A)−1

∣∣∣∣∣∣∣∣≤ 11−α .

7.12: U⊂X konvex,. f st.diff., es gebe γ>0 mit

||Df(x)-Df(y)||L(X)≤γ ||x − y|| f.a. x,y∈U:

||f(x) − f(y) −Df(y)(x − y)||≤ γ2||x − y||2.

7.13: Vor. von 7.12 sind erfullt, wenn f 2mal

st.diff. und supx∈U

∣∣∣∣∣∣∣∣D2f(x)∣∣∣∣∣∣∣∣L(X2,X)

< ∞.

7.15,7.17: Hat f eine Nullstelle und ist die

Abl. dort inv., so sind die Vor. von 7.14

erf. f.a. x0∈Bε(x?) mit hinr. kl. ε. Untergeeign. Vor. konv. NV global (perf. Int., fkonv.,konk.). Ist f = Ax − b, so ist dasFinden einer NS. aq. zum Losen eines LGS.7.3 – Quasi-NewtonverfahrenIdee: Differenzenquotient statt Ableitung: Sek.verf.Modifikation: Einschließung der NS zum Aufh. vonAusl. im Nenner des Diff.quot.: Regula falsi (2SWe)FragE: Wie kann man ohne gr. Mehraufw. err.,

dass∣∣∣∣∣∣f(xk)

∣∣∣∣∣∣ str. m. f. ist? Ansatz: Liniensu-

che (stdmontest): Akz. dk als Suchri. und verw.

xk+1=xk+ τdk fur τ ∈(0,1]. Ermogl. dann in der

Impl. Verand. von τ . Dies ist i.A. zu aufwandig.Beob.: In einem Hilbertraum H mit SP. istjede Nullstelle von f Minimum der Funk-tion F:U→R, F(x)=〈f(x), f(x)〉. (U offen,

nichtleer, f st.diff.) Setze d=-Df(x)−1f(x).Dann ist Φ=F(x+td) st. diff. um t=0. Lok.

Tay.entw.:||f(x+td)||2=(1-2t)||f(x)||2+o(t):

Es ex. ε>0: ||f(x+td)||2 ≤ ||f(x)||2 f.a.0<t≤ ε.7.22: Diese Verf. liefert i.d.P. ein Verf. zw.

Ord., falls wir nahe genug an x? sind.Aff. Inv. NV: g(x) und Af(x) liefern die gl.

Folge, falls g(x)=Af(x) und A inv.Stdmont. nicht aff. inv., daher nat. Mont.Dieser ist aufw., aber robuster. Der Stdmont.ist schneller und fur beide Verf. kann mannur lok. Konvergenz zeigen. Beide konnenextrem langsam konvergieren. Mit nat.Mont.ist das NV lokal konv. und in der Nahe vonx? ist τ = 1 zu erwarten.Kapitel 8 – Ausgleichsprobleme8.1 – Lineare Ausgleichsprobleme Daten

(tm,bm) reeller Zahlen. bm Zustande einesObj. zu Param. tm gen. Gesetm. b(t)=ϕ(t;x1,...,xN ), xj Modellpa. Perf. Mod.: bm=b(tm)

I.d.P.: M>>N: Uberb. GS. Nah:bm ≈b(tm).Ziel: ∆m=ϕ(tm;x1,...,xN )→ min., m=1,...,M.

Z.B.: ∆2:=M∑m=1

∆2m→min.(Meth.d.kl.F.quad.)

Annahme: ϕ linear in x, also ϕ=a1(t)x1+...+(bis

N), aj :R → R. A:=[an(tm)]∈R(M,N),b,x∈R(N)

kanon.: Finde x∈R(N):||Ax-b||22=min.

8.2: M≥N, A∈R(M,N), b∈R(M). Ges.

x?∈R(N): x?∈argmin

x∈RN||Ax − b||2. (oder 2)

Normalengleichung: Geom. wird zur Lsg. des lAP

ein Pkt. z=Ax aus R(A) ges., der den kl. Abst. zumPkt b hat. M=2,N=1: Bild lief. orth. Proj. Es ist

z?=Ax? die orth. Proj. von b auf R(A). Also ist 8.2

aq. zu: z?∈ argminz∈R(A)

||z − b||2. 6.21: z? eind. best.

mit⟨z? − b, z

⟩= 0 ⇔

⟨AtAx? − AT b, x

⟩=0

f.a. x∈R(N). x? ist Lsg. von 8.2 gdw. wenn es Lsg.obiger SPGl. ist.

8.3: x? ∈R(N) Lsg. von 8.2 gdw. ATAx? =

AT b in R(N). Insb. 8.2 eind. losb.,falls A

vollen Rang hat. ATA ist hierbei spd.

Probleme: Ber. von ATA ben. fehlerbeh. SPe,

κ2(ATA)=κ2(A)2, fur N=M direkt losbar.8.1 – OrthogonalisierungsverfahrenIdee: Verwende in El.proz. stabile Trafos, also welchemit glm. beschr. Kond. Dies fuhrt z.B. auf die Verw.von orth. Mat. O(M).

8.4: ||Qy||2=||y||2, |||Q|||2=∣∣∣∣∣∣∣∣∣∣∣∣QT ∣∣∣∣∣∣∣∣∣∣∣∣

2=1,

κ2(Q)=1, Q1Q2∈O(M) f.a. Q,Qj orth.,

y∈R(M).Eliminationsverf. mit orth. Mat. heißen Orth.verf.Sie sind stabiler (in jedem El.schr.), aberaufwandiger. Dies ist fur linAPs nicht ideal:8.5: A∈R(M,N),M≥N, Rg(A) max.,Q∈O(M):

QTA=[R,0]T , QT b=[b1,b2]T , b1∈R(N),b2∈R(M-N). Dann: R∈R(N,N) inv. und

x?=R−1b1 ist Lsg. von 8.2.

Ax-b schreibt sich als QT (Ax-b)=[Rx-b1,-b2]T . Eu-

kl. N. im Qu. und Absch. liefert ||Ax-b||22≥||b2||22.

Gibt es also x?∈R(N) mit Rx?=b1, so gilt∣∣∣∣∣∣Ax? − b1 ∣∣∣∣∣∣2 = ||b2||2 und dieser Wert ist

min. A max. Rang: N=Rg(A)=Rg(QT A)=Rg(R).

Also R inv. und es ex. genau ein solches x?. 8.6:

A∈R(M,N), M≥ N, Q orth., R∈R(M,N),rmn = 0 fur m<n. A=QR heißt QR-Zer. von

A. M=N: Berechne z:=QT b, Lose Rx=z.Fur M=2 sind orth. Abb. Dreh. und Spiegelun-gen. Eine Spiegelung an der Geraden l senkrechtzu einem Vektor v wird durch die Abbildung

Qa=a-2〈v,a〉〈v,v〉 v beschrieben. Matrizen der Form

Q=id-2 vvT

〈v,v〉 ∈R(M,M) heißen Householder-Refl.

Sie sind symmetrisch, orthogonal und involutorisch.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Berechnungsformel Cholesky:

lij =

0 : i < j√√√√√aii − i−1∑k=1

l2ik : i = j

1ljj

aij − j−1∑k=1

gikgjk

: i > j

Kondition diffb. Abb.: f:R(N)→R(M) diffbar

in x mit Abl. Df(x)∈R(M,N), so gilt:

κabs=|||Df(x)|||, κrel=|||Df(x)|||||f(x)|| ||x||.

Splineinterpolation

Trafo von [a,b] auf [0,1]: x=a+y(b-a)Beweis 7.4: Betrachte Norm des Diff.quot.ohne Limes, wende dann den MWS und dieVor. an.

Std.absch.: ||f(x)-f(y)||=||1∫0Df(x+t(y-x))(y-x)

dt||≤ supz∈U

||Df(z)||L(X) ||x − y||.

Newtonverfahren konv. quadr.

Gedampftes Richardson Beweis

Kondition gemischt

2