B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

of 2 /2
B.Sc. Matthias Schulte, 175888 06.02.2018 Numerik I Klausurzettel zum Ersttermin WiSe 17/18 Kapitel 1 GL LinA Vektorr¨ aume. V VR, dim V < , K ∈{R, C} . {ϕn} N n=1 Basis, v V . Dann v = N n=1 vnϕn, vn K, eindeutig. [v 1 , . . . , vn] T Koordinatenvektor. v * =[ v 1 ,..., vn]. Skalarprodukt und Orthogonalit¨ at. , ·i : V × V K, hv, wi V := N n=1 vnwn. hv, wi V = v * w = w * v. v, w V orth. :⇔hv, wi V = 0. W UVR von V . v orth. auf W :⇔hv, wi = 0w W. V 0 := {v 1 , . . . , vm} V orth. : v i ,v j = 0i 6= j, D v i ,v i E 6= 0. V 0 ortho- normal : v i ,v j = δ ij . Lineare Abbildungen. V, W K-VRe. L(V, W): Menge der linearen und beschr¨ ankten Abbildungen von V nach W. {ϕn} N n=1 Basis von V , {ψm} M m=1 Basis von W, A ∈L(V, W): !A ∈M(M, N): Aϕn = M m=1 amnψmn. Spezielle Matrizen I. A K M×N . A * = [ amn] Adjungiert. F¨ ur K = R: A * = A T (Transponierte). Quadratische Matrizen. (M = N) A K N×N invertierbar, falls A -1 mit AA -1 = A -1 A = I. Schreiben A ∈ GLn(K). (AB) -1 = B -1 A -1 (A * ) -1 =(A -1 ) * (A T ) -1 =(A -1 ) T Spezielle Matrizen II. A K N×N . A hermitesch, falls A = A * . A symmetrisch, falls K = R und A = A T . A normal, falls A * A = AA * . A unit¨ ar, falls A * A = AA * = I. A orthogonal, falls A unit¨ ar und K = R. A spd, falls A sym. und hAv, vi > 0v R * . Spur und Determinante: Wie immer. Eigenwerte: Nullstellen des char.Pol. spec(A) Menge aller EWe. Betragsm. gr. EW: Spektralradius ρ. Eigenvektor und Eigenraum wie immer. tr(A)= λ 1 + ... + λn. det(A)= λ 1 · . . . λn. Normen. ||·|| : V R, positiv definit, homo- gen, Dreiecksungleichung. Vektornormen: ||v|| p := N 1 |vn| p 1/p . p = : Maximumsnorm. ¨ Aquivalenz von Normen: Zwei Normen ¨ aquivalent, falls 0 <c<C< : c ||v|| ≤ ||v|| 0 C ||v|| v V . Zug. Matrixnorm: A K M×N , X = K N , Y = K M . |||A||| := sup ||x|| X =1 ||Ax|| Y . SSN:|||A||| 1 := max n=1,...,N M m=1 |amn| SpN: |||A||| 2 = q ρ(A * A)= A * 2 ZSN:|||A||| 1 := max m=1,...,M N n=1 |amn| Kapitel 2 LGS direkt 2.1 osbarkeit LGS 2.1: Ax = b eind. l¨ osbar, falls det A 6= 0. Verl¨ asslichkeit: Es wird nur dann eine Lsg. ber., wenn eine ex. (keine Selbstver.) 2.2 Gestaffelte Systeme Idee: Schreibe A = LR mit intendierter Be- deutung und l¨ ose x =(LR) -1 b in zwei Schrit- ten: Vorw¨ arts- und uckw¨ artssubst. Annah- me: det A 6= 0, also rnn 6=0 n. uckw¨ artssubstitution: Rx = z: x N = z N /r NN ,x N-1 =(z N-1 - r N-1,Nx N )/r N-1,N-1 usw. Vorw¨ artssubstitution: Lz = b: z 1 = b 1 , z 2 = b 2 -l 21 b 1 (b 1 = z 1 )... 2.3 Gaußelimination Idee: wie immer. Durchf¨ uhrbar, falls a 11 (Pivotel.) nicht Null. Erste Zeile Pivotzeile. Dann: Rekursive Anwendung auf die Restma- trix Folge A (k) R. El.schritt im k-ten Schritt: Vor.: a (k) kk 6= 0. l mk = a (k) mk /a (k) kk , m = k +1,...N. a (k+1) mn = a (k) mn - l (k) mk a (k) kn , m,n=k+1,...,N. b (k+1) m = b (k) m - l mk b (k) k , m=k+1,...,N. Frobenius-Matrizen: El.schritt ist Op. auf Zeilen. A (k+1) = L k A (k) , b (k+1) = L k b (k) . Die L k sind Frobeniusmatrizen. Hauptdiago- nale 1, Oben 0, Unten 0 außer k-te Spalte. L k ist invertierbar, die Eintr¨ age in der k-tem Spalte sind die El.eintr¨ age und L = L -1 1 · ... · L -1 N-1 mit den zugeh¨ origen Eintr¨ agen. Algorithmus: 1. LR-Zerl. 2. VS 3. RS. Aufwand: N 3 /3+ O(N 2 ). Speicheraufwand: O(N 2 ). 2.4 Cholesky-Zerlegung 2.5: A R N×N symmetrisch. !N reelle EWe. O orth. mit A = O · diag(λ 1 , ..., λ N ) · O T . A zus. pos. def.: A 1/2 = O·diag(λ 1/2 1 , ..., λ 1/2 N )·O T ebf. spd. mit A 1/2 A 1/2 = A. 2.6: A R N× spd. A invertierbar, spec(A) R + , max m,n=1,...,N |amn| = max n=1,...N |ann|. 2.7: A R N×N spd. Dann sind die Restma- trizen bei Gauß-El. wieder spd. 2.8: A R N×N spd. L, D : lnn =1n, D> 0, A = LDL T . (Rationale Cholesky-Zerlegung) 2.9: A R N×N spd. L unt. Dr.mat. mit A = LL T (Setze L 0 = LD 1/2 wie vorher.). Rechenaufwand: N 3 /6 Multiplikationen, N Quadratwurzeln. 2.5 Pivotstrategien 2.12: Spaltenpivotisierung: k-ter El.schr. W¨ ahle m 0 {k, ..., N}, s.d. a (k) m 0 k das betr.m. gr¨ oßte El. in Spalte k von A (k) ist. Vertausche Zei- le k und m 0 und uhre El.schritt aus. [O(N 2 )] Zeilenpivotisierung analog. Vollst¨ andige Pivotisierung: Beides gleichzeitig. [O(N 3 )] Algorithmus: Gauß mit Spaltenpiv. ahle m 0 wie oben und vertausche die ent- sprechenden Zeilen. Dann El.schritt. Permutationsmatrizen: π Π N . ZVert. mit PMat. =[e π(1) ,...,e π(n) ]. PMen sind orthogonal. Zeilenperm. Op. im Bildbereich, Mult. von links. Spaltenperm. Op. im Urbildbereich, Mult. von rechts. 2.14: Gauß mit Pivotisierung. A ∈ GL N (R) PMP : PA = LR. P kann so gew¨ ahlt werden, dass alle El. von L betragsm. kleiner oder gleich 1 sind. Die LR-Z. von PA ist eindeutig. Wichtige Bemerkungen: Gauß+Pivot. = verl¨ asslicher Algo. osungsalgo: LR-Z. von PA, dann Lz=Pb (VS), dann Rx=z (RS). P kann als Vektor gespeichert werden. Zeilenpiv.: AP=LR, LRy=b, x=Py. Einfache Det.berechnung m¨ oglich. 2.6 Nachiteration 2.15: Ax=b, yR N . r(y):=Ay-b = A(y-x) Re- siduum. r(y)=0 gdw. Ay=b, also y=x. Residuum ist berechenbare Gr¨ oße. Absoluter Fehler: Δx 0 :=x 0 -x gen¨ ugt AΔx 0 = r(x 0 ). Exakte L¨ osung: x= x 0 -Δx 0 . Fehlerhafte Korrektur: d Δx 0 6= Δx 0 bei num. Lsg. x 1 :=x 0 - d Δx 0 erster Schritt der Nachite- ration. Wdh. bis zufrieden. Meist nur einmal otig (Skeel). Kapitel 3 Numerische Fehleranalyse Fehlerarten: Exakt: Daten, Algo, Resultat OK. Gest. Daten: Ex. Algo Gest. Resultat Gest. Real.: Eingabefehler, Ex. Algo, Fehler im Resultat. 3.1 Zahldarstellung und Rundungsfehler 3.1: x=σab e , σ 1}, B Basis (2erpot.), e Exponent, e{α, . . . , β} Z, a Mantisse mit Mantissenl¨ ange l (a = 0 oder B -1 a<1, a 1 6= 0, a j ∈{0,...,B - 1}). a= l j=1 a j B -j . 3.2: Normweiser Fehler. ||y - ˆ y|| bzw. ||y - ˆ y|| / ||y||. Komponentenweiser Fehler. y j - ˆ y j bzw. y j - ˆ y j / y j , j =1, ..., N. Exponenten¨ uber(unter)lauf: |x| <B α-1 : Exponentenunterlauf. |x|≥ B β (1 - B -l ) Exponenten¨ uberlauf. Runden: Gerichtetes Runden: x R. bxc gr. Masch.zahl ˆ x mit ˆ x x. dxe kl. Masch.zahl ˆ x mit x ˆ x. Korrektes Runden: rd(x)= $ x B e + B -e 2 % B e bxc : |x| >B β dxe : |x| <B α Ad F1: B e-1 ≤|x|≤ B e , e ∈{α, ..., β} Relative Rundungsfehler: B α ≤|x|≤ B β (1 - B -l ). Gerichtet: |x-rd(x)| |x| 2eps. Korrekt: |x-rd(x)| |x| eps. eps:= B 1-l 2 , rel. Masch.gen. Fehlerarten, genau: Eingabefehler Rundungsfehler: El.op. werden durch Gleitk.op. ersetzt. xˆ y = rd(x y). xˆ y =(x y)(1 + ε), ε = ε(x, y), |ε|≤ eps f¨ ur alle Gleitkommazahlen. Approximationsfehler: (z.B. Diskretis.) Fehler durch Approx. bis auf Rd.fehler. Messfehler: 10e - 2, 10e - 3. 3.2 Kondition eines Problems Zentrale Frage: St¨ orung Eingabe Ex.Alg. ??? 3.8: Landausche Symbole. f, g : R N R M . f = O(g) f¨ ur x x 0 : C> 0,δ > 0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x - x 0 || ≤ δ. f = O(g) f¨ ur ||x|| → ∞: C> 0,R > 0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x|| ≥ R. f = o(g) f¨ ur x x 0 : ε> 0δ> 0: |f(x)|≤ ε |g(x)| ∀ ||x - x 0 || ≤ δ. f = o(g) f¨ ur ||x|| → ∞: ε> 0R> 0: |f(x)|≤ ε |g(x)| ∀ ||x|| ≥ R. 3.9: h, g : R N R M gleich bzw. kleiner gleich in erster N¨ aherung f¨ ur x x 0 ( ||x|| → ∞): g(x)= h(x)+ o(||h(x)||) bzw. g(x) h(x)+ o(||h(x)||) f¨ ur x x 0 (||x|| → ∞). Kondition: Normweise abs. Kond.: κ abs [0, ]: ||fx) - f(x)|| ˙ κ abs ||ˆ x - x|| , ˆ x x. Normweise rel. Kondition: κ rel [0, ]: ||fx)-f(x)|| ||f(x)|| ˙ κ rel ||ˆ x-x|| ||x|| , ˆ x x. Gut gestellt: Werte < . κ rel = ||x|| ||f(x)|| κ abs Addition und Subtraktion: Add. zw. Zahlen mit gl. Vorz: gut kond. Subtr. zw. etwa gl. gr. Zahlen: schlecht kond. (Ausl¨oschungf¨ uhrender Ziffern) Matrixkondition: A invertierbar. κ(A)= A -1 · |||A||| Nun: A R M×N . κ(A)= max||Ax|| min||Ax|| [0, uber ||x|| = 1. Eigenschaften Kondition: κ(A) 1 κ(A)= κ(αA)α R * A 6= 0 singul¨ ar κ(A)= Rel. normweise Kond. im Urbild: (f,x) ||fx)-f(x)|| ||f(x)|| ˙ ˆ κ rel max j=1,...,n ˆ x j -x j x j , ˆ x x. Dies ist submultiplikativ: ˆ κ rel (g h, x) ˆ κ rel (g, h(x)) · κ rel (h, x). Skeelsche Kondition: κ S (A) := A -1 ·|A| . (Betragsw. Matr.) Charakterisiert die komp.weise Kond. ur alle m¨ ogl. rechten Seiten b mit St¨ orungen in A und b. 3.3 Stabilit¨ at eines Algorithmus Ist das Resultat von ( ˆ f,x) akzeptabel anstelle des Resultats von (f, x)? Vorw¨ artsanalyse: Eingabemenge E. Vergleich von R=f(E) mit R’= ˆ f(E). 3.21: ˆ f Gleitk.real. zu (f,x) mit κ rel und ˆ κ rel . Stavilit¨atsindikator normweise: Kleinstes σ 0: ˆ fx)-fx) ||fx)|| ˙ σκ rel eps ˆ x E und eps 0. Stavilit¨atsindikator komponentenweise: Kleinstes ˆ σ 0: max j=1,...,m ˆ f j x)-f j x) f j x) ˙ ˆ σˆ κ rel eps ˆ x E und eps 0. ˆ f stabil im Sinne der Vorw.an., falls σσ kleiner als Anzahl hinterein. ausg. El.op. 3.22: El.op. sind stabil mit σκ◦≤ 1. Idee: An. des Ges.algo. durch An. der Teilalg: f = h g ersetzt durch ˆ f = ˆ h ˆ g. 3.23: F¨ ur ˆ f = ˆ h ˆ g mit Problem (f = h g, x) gilt σ f κ f σ h κ h + κ h σg κg. Unverm. Subtr. m¨ogl. an den Anf. stellen. Sum. und SP. sind stabil in diesem Sinne. 3.26: (f,x) Probl. ˆ f = ˆ h ˆ g Real. Alle Fkten. skalar und diffbar. Dann gilt: σ f σ h /κg + σg. Abschlussbemerkungen: Kleine Kondition Stabilit¨ at. Kleine Kondition = Informationsverlust. And. in Eing. kaum Ausw. aufs Resultat) Kapitel 4 Numerische Interpolation 4.1 Allgemeines Interpolationsproblem 4.1: X norm. Raum, V X, dim V =N, l 1 , ..., ln ∈L(X) lineare Funktionale. Finde zu f X ein u V : l j (u)= l j (f) j.(I) (I) wohlgestellt: f X genau eine Lsg. n v 1 , ..., v N o Basis von V , N j=1 a j v j Lsg. ose [l i (v j )] i,j=1,...,N · [a 1 , ..., a j ] T = [l1(f), ..., l N (f)] T . (I) wohlgestellt gdw. es eine Basis von V wie oben gibt mit [l i (v j ) wie oben regul¨ ar. (I) h¨ ochstens dann wohlgestellt, wenn die l i linear unabh¨ angig. Lagrangeinterpolation: X=C[a, b], V =Pn, N=n+1, l i (f)=f(x i )(0-n). WG gdw. x i pw. ver. Hermiteinterpolation: X=C 1 [a, b], V =P 2n+1 , N=2n+2, l 2i (f)=f(x i ),l 2i+1 (f)=f 0 (x i )(von0-n). WG gdw. x i pw. ver. Kubische Splineinterpolation: X=C 2 [a, b], V speziell, N=n+1, l i (f)=f(x i )(0-n). WG. 4.2 Lagrangeinterpolation I =[a, b] R, a x 0 < . . . < xn b. Darstellungsmatrix Monombasis. V= 1 x 0 x 2 0 ... x n 0 ... ... ... ... ... 1 xn x 2 n ... x n n det V 6=0 Berechnung teuer (n 2 ), schlechte Kondition. 4.4: x i , i =0,...,n pw. versch. L n j (x)= Q 0i6=jn x-x i x j -x i = ω(x) (x-x j )ω 0 (x) , ω(x)= Q n i=0 (x - x i ) P n+1 \ Pn. 4.5: n L n 0 ,...,L n n o Basis von Pn. Lagrange-(I) gel¨ ost durch p(x)= n i=0 f(x i )L n i (x). (Koeff. umsonst, Auswertung teuer (n 2 )) Newtonpolynome ω j (x) = Qj-1 i=0 (x - x i ), ω 0 (x) = 1. Darst.mat. ist unt. Diag: W = 1 0 0 ... 0 1 ω 1 (x 1 ) 0 ... 0 ... ... ... ... ... 1 ω 1 (xn) ω 2 (xn) ... ωn(xn) ose W · ~a =[f 0 , . . . , fn] T . Rekursion: ω j (x i )= ω j-1 (x i )(x i - x j-1 ). Dividierte Differenzen: f[x j ,...,x k ] := f[x j+1 ,...,x k ]-f[x j ,...,x k-1 ] x k -x j ,f[x j ]=f(x j ). Daraus bek. Schema aufb., Ob. Diag. ablesen. p(x)= n i=0 a i ω i (x), a i = f[x 0 ,...,x i ] (Einmalige Koeff.best. (n 2 ), Ausw. linear m¨oglich) (Keine Neuber. der Koeff. bei neuem Dat. n¨otig.: p n+1 (x)= pn(x)+ a n+1 ω n+1 (x).) Kondition: Φ: C 0 [a, b] Pn, f 7pn, pn(x i )= f(x i ) κ abs n := max x[a,b] n j=0 L n j (x) . Restglieddarstellung/Interpolationsfehler: Frage: Wie gut ist die Approx. von f durch pn? 4.11: f C n+1 [a, b]. x Iξ I : Rn(x)=f(x) - pn(x)= f (n+1) (ξ) (n+1)! ω n+1 (x). 4.12: fC n+1 (I). xIξI[x 0 , . . . , xn , x] f[x 0 , . . . , xn , x]= f (n+1) (ξ) (n+1)! 4.13: f C n+1 (I): ||f - pn|| ,I f (n+1) (n+1)! ω n+1 in -Norm. auf I. f (n+1) ω n+1 ,I = o((n + 1)!): Fehler geht gegen 0. I.A. ω n+1 ,I →∞. 4.17: Tschebyscheffpolynome: T 0 (x)=1, T 1 (x)=x,T k+1 (x)=2xT k (x)-T k-1 (x),k 1. Eigenschaften: 1. T k P k , LK 2 k-1 , T k+1 =1 (un.-1,1) 2. T k (x) = cos(k · arccosx), x [-1, 1] 3. T k (x)=0.5((x+ q x 2 -1) k +(x- q x 2 -1) k ) 4. T k (x) = 1 gdw. x = cos k ,m=o...k 5. T k (x)=0gdw. x= cos 2m+1 2k π m=0...k-1 4.18: Min-Max-Eigenschaft: Sk. Tsch.pol. (LK 1) hat kleinste Maxnorm: min pP n+1 ||p|| ,[-1,1] = 2 -n T n+1 ,[-1,1] Transformation auf [a, b]: L :[a, b] [-1, 1],L(x)=2 x-a b-a - 1. L -1 (x)= b+a+(b-a)x 2 , T I k := T k (L(x)). 4.19: ˆ p ˇ P n+1 (LK 1) p p L hat grad n+1 und LK c n+1 := 2 n+1 (b - a) -(n+1) . p = p L -1 hat LK c -1 n+1 . Das sk. und transf. Tsch.pol. 2 -n c n+1 T I n+1 hat min. Max.norm. 4.3 Hermite-Interpolation 2 St¨ utzst. id. Fktsw. + Abl. notw. 4.20: a=x 0 <. . . <xm=b Zerlegung, n i N, n 0 +. . . nm=n+1, f (v) i R, i=0,. . . ,m, v=0,. . . , n i -1. Zu diesen Daten: !p Pn mit p (v) (x i )= f (v) i , i=0,. . . ,m, v=0,. . . ,n i -1. 4.21: Vor. wie oben, f C n+1 [a, b], f (v) i = f (v) (x i ), i=0,. . . ,m, v=0,. . . ,n i -1 und p Pn die Hermite-Interpol. x [a, b] ξ (a, b): Rn(x)= f (n+1)(ξ) (n+1)! ω n+1 (x). Normieren liefert dann Fehlerabsch¨ atzung. 4.4 St¨ uckweise Polynominterpolation St¨ uckweise Hermite-Interpolation: Δ := {a = x 0 < . . . < xn = b}, k N. H (k) Δ :={p C k-1 [a, b]: p | [x j-1 ,x j ] P 2k+1 ,j=1,...,n}. Zu f (v) j R,j=0, ..., n, v=0, ..., k-1 suche pH (k) Δ : p (v) (x j )=f (v) j . 4.27: fC 2k [a, b], pH (k) Δ , I=[a, b]. ||f - p|| ,I f (2k) ,I (2k)!2 2k ·h 2k Δ , mit h 2k Δ := max j=1,...n h j := max j=1,...n (x j - x j-1 ). 4.28: max j=1,...n f (v) - p (v) h 2k-v Δ f (2k) 2 2k-2v -v!(2k-v)! in der , [x j-1 ,x j ]-Norm. ur diese Interp. ussen die Abl. an den St.stellen bek. sein. Oft schlecht ermittelbar. 4.5 Splineinterpolation Δ wie oben, I j :=[x j-1 ,x j ], j=1,...,n. 4.30: k N. Splineraum: S (k) Δ :={pC k-1 [a, b]:p | I j =p j P k ,j=1,...,n} 4.31: dimS (k) Δ =n+k. Hier: k=3, kubische Splines. (2 Bed. zu wenig) 4.32: Δ Zerl. von [a,b], f 0 ,...,fnR geg. Daten. Ges.: pS (3) Δ :p(x j )= f j ,j=0,...,n. Nicht eind. l¨ osbar, da nur n + 1 Daten vorg. 4.33: Satz von Holladay. fC 2 [a, b], pS (3) Δ , p(x j )=f(x j ), j=0,...,n. Dann gilt: f 00 - p 00 2 = f 00 2 - p 00 2 -2((f’(x)- p’(x))p”(x))| b a in der Eukl.N. auf [a,b]. Letzer Summ. =0: p 00 f 00 wie oben. ||p|| 2 2 min. unter all. Fkt. f durch ob. Pkte. Kubische Splinetypen: Der k.Sp. pS (3) Δ zu f 0 , ..., fn heißt – nat¨ urlich: p”(a)=p”(b)=0. – vollst¨ andig: p’(a)=α, p’(b)=β. – periodisch: p’(a)=p’(b), p”(a)=p”(b). 4.35: ! vollst./nat. Spl. zu den ob. Daten. 4.37: fC 0 [a, b], p k S (3) Δ k , k N, Δ k ={a = x (k) 0 , ..., x (k) n k = b} mit max j=1,...,n k (x (k) j -x (k) j-1 )δ min x (k) j -x (k) j-1 ur alle kN und ein fixes δR, p k zug. Spline. max x (k) j - x (k) j-1 gegen 0: f –> p k , -N. Kapitel 5 Numerische Integration Problem: [a,b] Int., f st. diff. Gesucht: I(f)= R b a f(x)dx. (Num. Approx.) Ziel: Konstr. num. Quadr. Q:C 0 [a, b] R, f 7Q(f) mit |Q(f) - I(f)| ogl. klein. 5.1 Allgmeine Quadraturformeln 5.1: x 0 ,...,xn[a, b] St¨ utzstellen, pw. versch. w 0 ,...,wnR \{0} Gewichte. Q b a (f) := Q(f) := n j=0 w j f(x j ). Q ex. v.Grad m: Q(p)=I(p)p Pm. Q pos. falls Q(f)0 f.a. pos. f. Minimalforderung: Konstante Funktionen exakt integr.: Summe Gew. gleich Eins. Mittelpunktsformel: Q(f)=(b-a)f( b-a 2 ). Trapezregel: Q(f)= 1 2 (b-a)(f(a)+f(b)). Beide exakt vom Grad 1. Die Gewichte onnen immer so gew¨ ahlt werden, dass Q exakt vom Grad mn ist. 5.3: Q Q.for. auf [a, b] ex. v.G. mn, f C m+1 [a, b]. Dann gibt es ω m+1 P m+1 : |Q(f) - I(f)| ω m+1 1 f (m+1) (m+1)! auf [a,b], ω m+1 1 = R b a ω m+1 dx. Ferner: (m + 1)!cm:= ω m+1 1 ·(b - a) -2-m 1. 1

Embed Size (px)

Transcript of B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @

  • B.Sc. Matthias Schulte, 175888 06.02.2018

    Numerik I – Klausurzettel zum Ersttermin WiSe 17/18

    Kapitel 1 – GL LinA

    Vektorräume. V VR, dimV < ∞, K ∈ {R, C} .{ϕn}Nn=1 Basis, v ∈ V .Dann v =

    ∑Nn=1 vnϕn, vn ∈ K, eindeutig.

    [v1, . . . , vn]T Koordinatenvektor.

    v∗ = [v1, . . . , vn].Skalarprodukt und Orthogonalität.

    〈·, ·〉 : V × V → K, 〈v, w〉V :=∑Nn=1 vnwn.

    〈v, w〉V = v∗w = w∗v.

    v, w ∈ V orth. :⇔ 〈v, w〉V = 0.W UVR von V . v orth. auf W :⇔ 〈v, w〉 =0∀w ∈ W .V ′ := {v1, . . . , vm} ⊂ V orth. :⇔〈vi, vj

    〉= 0∀i 6= j,

    〈vi, vi

    〉6= 0. V ′ ortho-

    normal :⇔〈vi, vj

    〉= δij .

    Lineare Abbildungen.

    V,W K-VRe. L(V,W ): Menge der linearen undbeschränkten Abbildungen von V nach W .

    {ϕn}Nn=1 Basis von V , {ψm}Mm=1 Basis von

    W , A ∈ L(V,W ): ∃!A ∈ M(M,N): Aϕn =∑Mm=1 amnψm∀n.

    Spezielle Matrizen I.

    A ∈ KM×N . A∗ = [amn] Adjungiert. FürK = R: A∗ = AT (Transponierte).Quadratische Matrizen. (M = N)

    A ∈ KN×N invertierbar, falls ∃ A−1 mitAA−1 = A−1A = I. Schreiben A ∈ GLn(K).

    • (AB)−1 = B−1A−1

    • (A∗)−1 = (A−1)∗

    • (AT )−1 = (A−1)T

    Spezielle Matrizen II. A ∈ KN×N .

    • A hermitesch, falls A = A∗.

    • A symmetrisch, falls K = R und A = AT .• A normal, falls A∗A = AA∗.• A unitär, falls A∗A = AA∗ = I.• A orthogonal, falls A unitär und K = R.• A spd, falls A sym. und 〈Av, v〉 >

    0∀v ∈ R∗.Spur und Determinante: Wie immer.

    Eigenwerte: Nullstellen des char.Pol.

    spec(A) Menge aller EWe.Betragsm. gr. EW: Spektralradius ρ.Eigenvektor und Eigenraum wie immer.tr(A) = λ1 + . . . + λn.det(A) = λ1 · . . . λn.Normen. ||·|| : V → R, positiv definit, homo-gen, Dreiecksungleichung.Vektornormen:

    ||v||p :=(∑N

    1 |vn|p)1/p

    .

    p = ∞: Maximumsnorm.Äquivalenz von Normen: Zwei Normen

    äquivalent, falls ∃0 < c < C < ∞:c ||v|| ≤ ||v||′ ≤ C ||v|| ∀v ∈ V .Zug. Matrixnorm: A ∈ KM×N , X = KN ,Y = KM . |||A||| := sup

    ||x||X=1||Ax||Y .

    • SSN:|||A|||1 := maxn=1,...,NM∑m=1

    |amn|

    • SpN: |||A|||2 =√ρ(A∗A) =

    ∣∣∣∣∣∣∣∣∣A∗ ∣∣∣∣∣∣∣∣∣2

    • ZSN:|||A|||1 := maxm=1,...,MN∑n=1

    |amn|

    Kapitel 2 – LGS direkt2.1 – Lösbarkeit LGS2.1: Ax = b eind. lösbar, falls detA 6= 0.Verlässlichkeit: Es wird nur dann eine Lsg.

    ber., wenn eine ex. (keine Selbstver.)2.2 – Gestaffelte SystemeIdee: Schreibe A = LR mit intendierter Be-

    deutung und löse x = (LR)−1b in zwei Schrit-ten: Vorwärts- und Rückwärtssubst. Annah-me: detA 6= 0, also rnn 6= 0 ∀n.Rückwärtssubstitution:

    Rx = z: xN = zN/rNN ,xN−1 = (zN−1 −rN−1,NxN )/rN−1,N−1

    usw.

    Vorwärtssubstitution:

    Lz = b: z1 = b1, z2 = b2−l21b1 (b1 = z1)...2.3 – GaußeliminationIdee: wie immer. Durchführbar, falls a11(Pivotel.) nicht Null. Erste Zeile Pivotzeile.Dann: Rekursive Anwendung auf die Restma-trix ⇒ Folge A(k) → R.El.schritt im k-ten Schritt:

    Vor.: a(k)kk 6= 0.

    lmk = a(k)mk/a

    (k)kk , m = k + 1, . . . N.

    a(k+1)mn = a

    (k)mn − l

    (k)mka

    (k)kn , m,n=k+1,...,N.

    b(k+1)m = b

    (k)m − lmkb

    (k)k , m=k+1,...,N.

    Frobenius-Matrizen:

    El.schritt ist Op. auf Zeilen. A(k+1) =

    LkA(k), b(k+1) = Lkb(k).

    Die Lk sind Frobeniusmatrizen. Hauptdiago-nale 1, Oben 0, Unten 0 außer k-te Spalte.Lk ist invertierbar, die Einträge in der k-tem

    Spalte sind die El.einträge und L = L−11 ·. . .·

    L−1N−1 mit den zugehörigen Einträgen.

    Algorithmus:

    1. LR-Zerl. 2. VS 3. RS.Aufwand: N3/3 + O(N2).Speicheraufwand: O(N2).2.4 – Cholesky-Zerlegung

    2.5: A ∈ RN×N symmetrisch. ∃!N reelle EWe.∃O orth. mit A = O · diag(λ1, ..., λN ) · O

    T .A zus. pos. def.:

    A1/2 = O·diag(λ1/21 , ..., λ1/2N )·O

    T ebf. spd.

    mit A1/2A1/2 = A.

    2.6: A ∈ RN× spd. A invertierbar, spec(A) ⊂R+, maxm,n=1,...,N

    |amn| = maxn=1,...N

    |ann|.

    2.7: A ∈ RN×N spd. Dann sind die Restma-trizen bei Gauß-El. wieder spd.

    2.8: A ∈ RN×N spd. ∃L,D : lnn = 1∀n,

    D > 0, A = LDLT .(Rationale Cholesky-Zerlegung)

    2.9: A ∈ RN×N spd. ∃L unt. Dr.mat. mit

    A = LLT (Setze L′ = LD1/2 wie vorher.).Rechenaufwand: N3/6 Multiplikationen, NQuadratwurzeln.2.5 – Pivotstrategien2.12:

    • Spaltenpivotisierung:k-ter El.schr. Wähle m′ ∈ {k, ..., N},

    s.d. a(k)m′k das betr.m. größte El. in

    Spalte k von A(k) ist. Vertausche Zei-

    le k und m′ und führe El.schritt aus.[O(N2)]

    • Zeilenpivotisierung analog.• Vollständige Pivotisierung: Beides

    gleichzeitig. [O(N3)]Algorithmus: Gauß mit Spaltenpiv.

    Wähle m′ wie oben und vertausche die ent-sprechenden Zeilen. Dann El.schritt.

    Permutationsmatrizen: π ∈ ΠN .ZVert. mit PMat. Pπ = [eπ(1), . . . , eπ(n)].

    PMen sind orthogonal. Zeilenperm. Op. imBildbereich, Mult. von links. Spaltenperm.Op. im Urbildbereich, Mult. von rechts.2.14: Gauß mit Pivotisierung.

    ∀A ∈ GLN (R) ∃PMP : PA = LR. P kann sogewählt werden, dass alle El. von L betragsm.kleiner oder gleich 1 sind. Die LR-Z. von PAist eindeutig.Wichtige Bemerkungen:

    Gauß+Pivot. = verlässlicher Algo.Lösungsalgo: LR-Z. von PA, dann Lz=Pb(VS), dann Rx=z (RS).P kann als Vektor gespeichert werden.Zeilenpiv.: AP=LR, LRy=b, x=Py.Einfache Det.berechnung möglich.2.6 – Nachiteration

    2.15: Ax=b, y∈ RN . r(y):=Ay-b = A(y-x) Re-siduum. r(y)=0 gdw. Ay=b, also y=x.Residuum ist berechenbare Größe.Absoluter Fehler: ∆x0:=x0-x genügt A∆x0 =r(x0). Exakte Lösung: x= x0-∆x0.

    Fehlerhafte Korrektur: ∆̂x0 6= ∆x0 bei num.Lsg. x1:=x0-∆̂x0 erster Schritt der Nachite-ration. Wdh. bis zufrieden. Meist nur einmalnötig (Skeel).Kapitel 3 – Numerische FehleranalyseFehlerarten:

    Exakt: Daten, Algo, Resultat OK.Gest. Daten: Ex. Algo → Gest. ResultatGest. Real.: Eingabefehler, Ex. Algo, Fehlerim Resultat.3.1 – Zahldarstellung und Rundungsfehler

    3.1: x=σabe, σ ∈ {±1}, B Basis (2erpot.),e Exponent, e∈ {α, . . . , β} ⊂ Z, a Mantissemit Mantissenlänge l (a = 0 oder B−1 ≤a Bβdxe : |x| < Bα

    Ad F1: Be−1 ≤ |x| ≤ Be, e ∈ {α, ..., β}Relative Rundungsfehler:

    Bα ≤ |x| ≤ Bβ(1 − B−l).

    Gerichtet:|x−rd(x)||x| ≤ 2eps.

    Korrekt:|x−rd(x)||x| ≤ eps.

    eps:= B1−l2

    , rel. Masch.gen.

    Fehlerarten, genau:

    • Eingabefehler• Rundungsfehler:

    El.op. werden durch Gleitk.op. ersetzt.x◦̂y = rd(x ◦ y).x◦̂y = (x ◦ y)(1 + ε), ε = ε(x, y), |ε| ≤eps für alle Gleitkommazahlen.

    • Approximationsfehler: (z.B. Diskretis.)Fehler durch Approx. bis auf Rd.fehler.

    • Messfehler: ≈ 10e − 2, 10e − 3.3.2 – Kondition eines Problems

    Zentrale Frage: Störung EingabeEx.Alg.→ ???

    3.8: Landausche Symbole.

    f, g : RN → RM .• f = O(g) für x → x0: ∃C > 0, δ > 0:||f(x)|| ≤ C ||g(x)|| ∀ ||x − x0|| ≤ δ.

    • f = O(g) für ||x|| → ∞: ∃C > 0, R >0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x|| ≥ R.

    • f = o(g) für x → x0: ∀ε > 0∃δ > 0 :|f(x)| ≤ ε |g(x)| ∀ ||x − x0|| ≤ δ.

    • f = o(g) für ||x|| → ∞: ∀ε > 0∃R >0 : |f(x)| ≤ ε |g(x)| ∀ ||x|| ≥ R.

    3.9: h, g : RN → RM gleich bzw. kleiner gleichin erster Näherung für x → x0 ( ||x|| → ∞):g(x) = h(x) + o(||h(x)||) bzw. g(x) ≤ h(x) +o(||h(x)||) für x → x0 (||x|| → ∞).Kondition:

    • Normweise abs. Kond.: κabs ∈ [0,∞]:||f(x̂) − f(x)|| ≤̇κabs ||x̂ − x|| , x̂ → x.

    • Normweise rel. Kondition: κrel ∈ [0,∞]:||f(x̂)−f(x)||||f(x)|| ≤̇κrel

    ||x̂−x||||x|| , x̂ → x.

    • Gut gestellt: Werte < ∞.

    • κrel =||x||||f(x)||κabs

    Addition und Subtraktion:

    Add. zw. Zahlen mit gl. Vorz: gut kond.Subtr. zw. etwa gl. gr. Zahlen: schlecht kond.(Auslöschung führender Ziffern)

    Matrixkondition: A invertierbar.

    κ(A) =∣∣∣∣∣∣∣∣∣∣∣∣A−1 ∣∣∣∣∣∣∣∣∣∣∣∣ · |||A|||

    Nun: A ∈ RM×N .κ(A) =

    max||Ax||min||Ax|| ∈ [0,∞] über ||x|| = 1.

    Eigenschaften Kondition:

    • κ(A) ≥ 1

    • κ(A) = κ(αA)∀α ∈ R∗

    • A 6= 0 singulär ⇔ κ(A) = ∞Rel. normweise Kond. im Urbild: (f,x)

    ||f(x̂)−f(x)||∞||f(x)||∞

    ≤̇κ̂rel maxj=1,...,n

    ∣∣∣∣∣x̂j−xj∣∣∣∣∣∣∣∣∣∣xj

    ∣∣∣∣∣,

    x̂ → x. Dies ist submultiplikativ:κ̂rel(g ◦ h, x) ≤ κ̂rel(g, h(x)) · κrel(h, x).Skeelsche Kondition:

    κS(A) :=∣∣∣∣∣∣∣∣∣∣∣∣ ∣∣∣∣A−1 ∣∣∣∣ · |A| ∣∣∣∣∣∣∣∣∣∣∣∣∞. (Betragsw.

    Matr.) Charakterisiert die komp.weise Kond.für alle mögl. rechten Seiten b mit Störungenin A und b.3.3 – Stabilität eines Algorithmus

    Ist das Resultat von (f̂, x) akzeptabel anstelle desResultats von (f, x)?Vorwärtsanalyse: Eingabemenge E. Vergleich

    von R=f(E) mit R’=f̂(E).

    3.21: f̂ Gleitk.real. zu (f,x) mit κrel und κ̂rel.

    Stavilitätsindikator normweise:

    Kleinstes σ ≥ 0:

    ∣∣∣∣∣∣∣∣∣∣f̂(x̂)−f(x̂)

    ∣∣∣∣∣∣∣∣∣∣

    ||f(x̂)|| ≤̇σκreleps ∀x̂ ∈E und eps → 0.Stavilitätsindikator komponentenweise:Kleinstes σ̂ ≥ 0:

    maxj=1,...,m

    ∣∣∣∣∣f̂j(x̂)−fj(x̂)∣∣∣∣∣∣∣∣∣∣fj(x̂)

    ∣∣∣∣∣≤̇σ̂κ̂releps ∀x̂ ∈ E

    und eps → 0.f̂ stabil im Sinne der Vorw.an., falls σ/σ̂kleiner als Anzahl hinterein. ausg. El.op.3.22: El.op. sind stabil mit σ◦κ◦ ≤ 1.Idee: An. des Ges.algo. durch An. der Teilalg:

    f = h ◦ g ersetzt durch f̂ = ĥ ◦ ĝ.3.23: Für f̂ = ĥ◦ ĝ mit Problem (f = h◦g, x)gilt σfκf ≤ σhκh + κhσgκg .Unverm. Subtr. mögl. an den Anf. stellen.Sum. und SP. sind stabil in diesem Sinne.3.26: (f,x) Probl. f̂ = ĥ ◦ ĝ Real. Alle Fkten.skalar und diffbar. Dann gilt:σf ≤ σh/κg + σg .Abschlussbemerkungen:

    Kleine Kondition → Stabilität.Kleine Kondition = Informationsverlust.(Änd. in Eing. kaum Ausw. aufs Resultat)Kapitel 4 – Numerische Interpolation4.1 – Allgemeines Interpolationsproblem4.1: X norm. Raum, V ⊂ X, dim V=N,l1, ..., ln ∈ L(X) lineare Funktionale.Finde zu f ∈ X ein u ∈ V : lj(u) = lj(f) ∀j.(I)(I) wohlgestellt: ∀f ∈ X genau eine Lsg.{v1, ..., vN

    }Basis von V ,

    ∑Nj=1 ajvj Lsg.

    → Löse [li(vj)]i,j=1,...,N · [a1, ..., aj ]T =

    [l1(f), ..., lN (f)]T .

    (I) wohlgestellt gdw. es eine Basis von V wieoben gibt mit [li(vj) wie oben regulär.

    (I) höchstens dann wohlgestellt, wenn die lilinear unabhängig.Lagrangeinterpolation:

    X=C[a, b], V=Pn, N=n+1,li(f)=f(xi)(0-n). WG gdw. xi pw. ver.Hermiteinterpolation:

    X=C1[a, b], V=P2n+1, N=2n+2,

    l2i(f)=f(xi), l2i+1(f)=f′(xi)(von0-n).

    WG gdw. xi pw. ver. Kubische

    Splineinterpolation:

    X=C2[a, b], V speziell, N=n+1,li(f)=f(xi)(0-n). WG.4.2 – Lagrangeinterpolation

    I = [a, b] ⊂ R, a ≤ x0 < . . . < xn ≤ b.Darstellungsmatrix Monombasis.

    V=

    1 x0 x20 . . . x

    n0

    . . . . . . . . . . . . . . .

    1 xn x2n . . . x

    nn

    detV 6= 0Berechnung teuer (n2), schlechte Kondition.4.4: xi, i = 0, . . . , n pw. versch.

    Lnj (x) =∏

    0≤i6=j≤nx−xixj−xi

    =ω(x)

    (x−xj)ω′(x),

    ω(x) =∏ni=0(x − xi) ∈ Pn+1 \ Pn.

    4.5:{Ln0 , . . . , L

    nn

    }Basis von Pn. Lagrange-(I)

    gelöst durch p(x) =∑ni=0 f(xi)L

    ni (x).

    (Koeff. umsonst, Auswertung teuer (n2))

    Newtonpolynome ωj(x) =∏j−1i=0 (x − xi),

    ω0(x) = 1. → Darst.mat. ist unt. Diag:

    W =

    1 0 0 ... 01 ω1(x1) 0 ... 0. . . . . . . . . ... . . .1 ω1(xn) ω2(xn) ... ωn(xn)

    Löse W · ~a = [f0, . . . , fn]

    T .Rekursion: ωj(xi) = ωj−1(xi)(xi − xj−1).Dividierte Differenzen: f[xj, . . . , xk] :=

    f[xj+1,...,xk]−f[xj,...,xk−1]xk−xj

    ,f[xj ]=f(xj).

    Daraus bek. Schema aufb., Ob. Diag. ablesen.p(x) =

    ∑ni=0 aiωi(x), ai = f[x0, . . . , xi]

    (Einmalige Koeff.best. (n2), Ausw. linear möglich)(Keine Neuber. der Koeff. bei neuem Dat. nötig.:pn+1(x) = pn(x) + an+1ωn+1(x).)

    Kondition:

    Φ : C0[a, b] → Pn, f 7→ pn, pn(xi) = f(xi)⇒ κabs = Λn := max

    x∈[a,b]∑nj=0

    ∣∣∣∣Lnj (x)∣∣∣∣.

    Restglieddarstellung/Interpolationsfehler:

    Frage: Wie gut ist die Approx. von f durch pn?

    4.11: f ∈ Cn+1[a, b]. ∀x ∈ I∃ξ ∈ I :

    Rn(x)=f(x) − pn(x)=f(n+1)(ξ)

    (n+1)!ωn+1(x).

    4.12: f∈Cn+1(I). ∀x∈I∃ξ∈ I[x0, . . . , xn, x]

    f[x0, . . . , xn, x] =f(n+1)(ξ)

    (n+1)!

    4.13: f ∈ Cn+1(I): ||f − pn||∞,I ≤∣∣∣∣∣∣∣∣∣∣∣∣f(n+1)

    ∣∣∣∣∣∣∣∣∣∣∣∣

    (n+1)!

    ∣∣∣∣∣∣∣∣ωn+1∣∣∣∣∣∣∣∣ in ∞-Norm. auf I.

    ∣∣∣∣∣∣∣∣f(n+1)ωn+1∣∣∣∣∣∣∣∣∞,I = o((n + 1)!): Fehler

    geht gegen 0. I.A.∣∣∣∣∣∣∣∣ωn+1

    ∣∣∣∣∣∣∣∣∞,I → ∞.4.17: Tschebyscheffpolynome: T0(x)=1,

    T1(x)=x,Tk+1(x)=2xTk(x)-Tk−1(x),k ≥ 1.Eigenschaften:

    1. Tk∈Pk, LK 2k−1,

    ∣∣∣∣∣∣∣∣Tk+1∣∣∣∣∣∣∣∣=1 (un.-1,1)

    2. Tk(x) = cos(k · arccosx), x ∈ [−1, 1]

    3. Tk(x)=0.5((x+√x2-1)k+(x-

    √x2-1)k)

    4.∣∣∣Tk(x)∣∣∣ = 1 gdw. x = cos mπk ,m=o...k

    5. Tk(x)=0gdw. x= cos2m+1

    2kπ m=0...k-1

    4.18: Min-Max-Eigenschaft:

    Sk. Tsch.pol. (LK 1) hat kleinste Maxnorm:

    minp∈Pn+1

    ||p||∞,[−1,1] =∣∣∣∣∣∣∣∣2−nTn+1

    ∣∣∣∣∣∣∣∣∞,[−1,1]Transformation auf [a, b]:

    L : [a, b] → [−1, 1], L(x) = 2 x−ab−a − 1.

    L−1(x) = b+a+(b−a)x2

    , TIk := Tk(L(x)).

    4.19: p̂ ∈ P̌n+1 (LK 1)p = p̂ ◦ L hat grad n+1 und LKcn+1 := 2

    n+1(b − a)−(n+1). p = p ◦ L−1

    hat LK c−1n+1. Das sk. und transf. Tsch.pol.

    2−ncn+1TIn+1 hat min. Max.norm.

    4.3 – Hermite-Interpolation2 Stützst. id. → Fktsw. + Abl. notw.4.20: a=x0

  • Damit:|Q(f) − I(f)|≤cm(b-a)m+2∣∣∣∣∣∣∣∣f(m+1) ∣∣∣∣∣∣∣∣∞,[a,b]. (Q Ordnung m+2)5.2 – Newton-Cotes-FormelnIdee: Ersetze Funktion durch Interpolierende:

    Integral einfach. Quadraturformel:

    Q(f)=I(pn)=∫ba pn(x) dx.

    Lagr.basisfkt.: pn(x)=n∑j=0

    f(xj)Lj(x)

    Gewichte: wj :=∫ba Lj(x) dx, somit

    Q(f)=I(pn)=n∑j=0

    wjf(xj).

    Mit y = x−ab−a kann man die Gewichte bis auf

    Skalierung auf [0,1] berechnen.Für den Sp.fall äquidist. Stützst. xj=a + jh,

    j=0,...,n, h= b−an

    , heißen die so kon-

    str. Qu.formeln Newton-Cotes-Formeln.

    5.3 – Zusammengesetzte Quadraturen

    5.4: ∆m={a = z00, A∈R(N,N) ∃ ||·||A: ||A||A,ε ≤ρ(A) + ε.6.3: T It.mat. Verf. konv. gdw. ρ(T )