B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @
Transcript of B.Sc. Matthias Schulte, 175888 06.02.2018 +1) (( K R C 1 +1 1;I … · 2018-03-10 · i 1 =1 1 @
B.Sc. Matthias Schulte, 175888 06.02.2018
Numerik I – Klausurzettel zum Ersttermin WiSe 17/18
Kapitel 1 – GL LinA
Vektorraume. V VR, dimV < ∞, K ∈ {R, C} .{ϕn}Nn=1 Basis, v ∈ V .
Dann v =∑Nn=1 vnϕn, vn ∈ K, eindeutig.
[v1, . . . , vn]T Koordinatenvektor.
v∗ = [v1, . . . , vn].Skalarprodukt und Orthogonalitat.
〈·, ·〉 : V × V → K, 〈v, w〉V :=∑Nn=1 vnwn.
〈v, w〉V = v∗w = w∗v.
v, w ∈ V orth. :⇔ 〈v, w〉V = 0.
W UVR von V . v orth. auf W :⇔ 〈v, w〉 =0∀w ∈ W .
V ′ := {v1, . . . , vm} ⊂ V orth. :⇔⟨vi, vj
⟩= 0∀i 6= j,
⟨vi, vi
⟩6= 0. V ′ ortho-
normal :⇔⟨vi, vj
⟩= δij .
Lineare Abbildungen.
V,W K-VRe. L(V,W ): Menge der linearen undbeschrankten Abbildungen von V nach W .
{ϕn}Nn=1 Basis von V , {ψm}Mm=1 Basis von
W , A ∈ L(V,W ): ∃!A ∈ M(M,N): Aϕn =∑Mm=1 amnψm∀n.
Spezielle Matrizen I.
A ∈ KM×N . A∗ = [amn] Adjungiert. Fur
K = R: A∗ = AT (Transponierte).Quadratische Matrizen. (M = N)
A ∈ KN×N invertierbar, falls ∃ A−1 mit
AA−1 = A−1A = I. Schreiben A ∈ GLn(K).
• (AB)−1 = B−1A−1
• (A∗)−1 = (A−1)∗
• (AT )−1 = (A−1)T
Spezielle Matrizen II. A ∈ KN×N .
• A hermitesch, falls A = A∗.
• A symmetrisch, falls K = R und A = AT .
• A normal, falls A∗A = AA∗.• A unitar, falls A∗A = AA∗ = I.
• A orthogonal, falls A unitar und K = R.
• A spd, falls A sym. und 〈Av, v〉 >
0∀v ∈ R∗.Spur und Determinante: Wie immer.
Eigenwerte: Nullstellen des char.Pol.
spec(A) Menge aller EWe.Betragsm. gr. EW: Spektralradius ρ.Eigenvektor und Eigenraum wie immer.tr(A) = λ1 + . . . + λn.det(A) = λ1 · . . . λn.Normen. ||·|| : V → R, positiv definit, homo-
gen, Dreiecksungleichung.Vektornormen:
||v||p :=(∑N
1 |vn|p)1/p
.
p = ∞: Maximumsnorm.
Aquivalenz von Normen: Zwei Normen
aquivalent, falls ∃0 < c < C < ∞:
c ||v|| ≤ ||v||′ ≤ C ||v|| ∀v ∈ V .
Zug. Matrixnorm: A ∈ KM×N , X = KN ,
Y = KM . |||A||| := sup||x||X=1
||Ax||Y .
• SSN:|||A|||1 := maxn=1,...,N
M∑m=1
|amn|
• SpN: |||A|||2 =√ρ(A∗A) =
∣∣∣∣∣∣∣∣∣A∗ ∣∣∣∣∣∣∣∣∣2
• ZSN:|||A|||1 := maxm=1,...,M
N∑n=1
|amn|
Kapitel 2 – LGS direkt2.1 – Losbarkeit LGS2.1: Ax = b eind. losbar, falls detA 6= 0.
Verlasslichkeit: Es wird nur dann eine Lsg.
ber., wenn eine ex. (keine Selbstver.)2.2 – Gestaffelte SystemeIdee: Schreibe A = LR mit intendierter Be-
deutung und lose x = (LR)−1b in zwei Schrit-ten: Vorwarts- und Ruckwartssubst. Annah-me: detA 6= 0, also rnn 6= 0 ∀n.Ruckwartssubstitution:
Rx = z: xN = zN/rNN ,xN−1 = (zN−1 −rN−1,NxN )/rN−1,N−1
usw.
Vorwartssubstitution:
Lz = b: z1 = b1, z2 = b2−l21b1 (b1 = z1)...2.3 – GaußeliminationIdee: wie immer. Durchfuhrbar, falls a11(Pivotel.) nicht Null. Erste Zeile Pivotzeile.Dann: Rekursive Anwendung auf die Restma-trix ⇒ Folge A(k) → R.
El.schritt im k-ten Schritt:
Vor.: a(k)kk 6= 0.
lmk = a(k)mk/a
(k)kk , m = k + 1, . . . N.
a(k+1)mn = a
(k)mn − l
(k)mka
(k)kn , m,n=k+1,...,N.
b(k+1)m = b
(k)m − lmkb
(k)k , m=k+1,...,N.
Frobenius-Matrizen:
El.schritt ist Op. auf Zeilen. A(k+1) =
LkA(k), b(k+1) = Lkb(k).
Die Lk sind Frobeniusmatrizen. Hauptdiago-nale 1, Oben 0, Unten 0 außer k-te Spalte.Lk ist invertierbar, die Eintrage in der k-tem
Spalte sind die El.eintrage und L = L−11 ·. . .·
L−1N−1 mit den zugehorigen Eintragen.
Algorithmus:
1. LR-Zerl. 2. VS 3. RS.Aufwand: N3/3 + O(N2).
Speicheraufwand: O(N2).2.4 – Cholesky-Zerlegung
2.5: A ∈ RN×N symmetrisch. ∃!N reelle EWe.
∃O orth. mit A = O · diag(λ1, ..., λN ) · OT .A zus. pos. def.:
A1/2 = O·diag(λ1/21 , ..., λ
1/2N )·OT ebf. spd.
mit A1/2A1/2 = A.
2.6: A ∈ RN× spd. A invertierbar, spec(A) ⊂R+, max
m,n=1,...,N|amn| = max
n=1,...N|ann|.
2.7: A ∈ RN×N spd. Dann sind die Restma-
trizen bei Gauß-El. wieder spd.
2.8: A ∈ RN×N spd. ∃L,D : lnn = 1∀n,
D > 0, A = LDLT .(Rationale Cholesky-Zerlegung)
2.9: A ∈ RN×N spd. ∃L unt. Dr.mat. mit
A = LLT (Setze L′ = LD1/2 wie vorher.).
Rechenaufwand: N3/6 Multiplikationen, NQuadratwurzeln.2.5 – Pivotstrategien2.12:
• Spaltenpivotisierung:
k-ter El.schr. Wahle m′ ∈ {k, ..., N},
s.d. a(k)m′k das betr.m. großte El. in
Spalte k von A(k) ist. Vertausche Zei-
le k und m′ und fuhre El.schritt aus.
[O(N2)]
• Zeilenpivotisierung analog.
• Vollstandige Pivotisierung: Beides
gleichzeitig. [O(N3)]
Algorithmus: Gauß mit Spaltenpiv.
Wahle m′ wie oben und vertausche die ent-sprechenden Zeilen. Dann El.schritt.
Permutationsmatrizen: π ∈ ΠN .
ZVert. mit PMat. Pπ = [eπ(1), . . . , eπ(n)].
PMen sind orthogonal. Zeilenperm. Op. imBildbereich, Mult. von links. Spaltenperm.Op. im Urbildbereich, Mult. von rechts.2.14: Gauß mit Pivotisierung.
∀A ∈ GLN (R) ∃PMP : PA = LR. P kann sogewahlt werden, dass alle El. von L betragsm.kleiner oder gleich 1 sind. Die LR-Z. von PAist eindeutig.Wichtige Bemerkungen:
Gauß+Pivot. = verlasslicher Algo.Losungsalgo: LR-Z. von PA, dann Lz=Pb(VS), dann Rx=z (RS).P kann als Vektor gespeichert werden.Zeilenpiv.: AP=LR, LRy=b, x=Py.Einfache Det.berechnung moglich.2.6 – Nachiteration
2.15: Ax=b, y∈ RN . r(y):=Ay-b = A(y-x) Re-
siduum. r(y)=0 gdw. Ay=b, also y=x.Residuum ist berechenbare Große.Absoluter Fehler: ∆x0:=x0-x genugt A∆x0 =r(x0). Exakte Losung: x= x0-∆x0.
Fehlerhafte Korrektur: ∆x0 6= ∆x0 bei num.
Lsg. x1:=x0-∆x0 erster Schritt der Nachite-ration. Wdh. bis zufrieden. Meist nur einmalnotig (Skeel).Kapitel 3 – Numerische FehleranalyseFehlerarten:
Exakt: Daten, Algo, Resultat OK.Gest. Daten: Ex. Algo → Gest. ResultatGest. Real.: Eingabefehler, Ex. Algo, Fehlerim Resultat.3.1 – Zahldarstellung und Rundungsfehler
3.1: x=σabe, σ ∈ {±1}, B Basis (2erpot.),
e Exponent, e∈ {α, . . . , β} ⊂ Z, a Mantisse
mit Mantissenlange l (a = 0 oder B−1 ≤a<1,a1 6= 0, aj ∈ {0, . . . , B − 1}).
⇒ a=∑lj=1 ajB−j . 3.2: Normweiser Fehler.
||y − y|| bzw. ||y − y|| / ||y||.Komponentenweiser Fehler.∣∣∣∣yj − yj
∣∣∣∣ bzw.∣∣∣∣yj − yj
∣∣∣∣ / ∣∣∣∣yj∣∣∣∣, j = 1, ..., N.
Exponentenuber(unter)lauf:
|x| < Bα−1: Exponentenunterlauf.
|x| ≥ Bβ(1 − B−l) Exponentenuberlauf.Runden: Gerichtetes Runden: x ∈ R.
bxc gr. Masch.zahl x mit x ≤ x.dxe kl. Masch.zahl x mit x ≤ x.Korrektes Runden:
rd(x) =
⌊xBe
+ B−e2
⌋Be
bxc : |x| > Bβ
dxe : |x| < Bα
Ad F1: Be−1 ≤ |x| ≤ Be, e ∈ {α, ..., β}Relative Rundungsfehler:
Bα ≤ |x| ≤ Bβ(1 − B−l).
Gerichtet:|x−rd(x)||x| ≤ 2eps.
Korrekt:|x−rd(x)||x| ≤ eps.
eps:= B1−l2
, rel. Masch.gen.
Fehlerarten, genau:
• Eingabefehler
• Rundungsfehler:El.op. werden durch Gleitk.op. ersetzt.x◦y = rd(x ◦ y).x◦y = (x ◦ y)(1 + ε), ε = ε(x, y), |ε| ≤eps fur alle Gleitkommazahlen.
• Approximationsfehler: (z.B. Diskretis.)Fehler durch Approx. bis auf Rd.fehler.
• Messfehler: ≈ 10e − 2, 10e − 3.
3.2 – Kondition eines Problems
Zentrale Frage: Storung EingabeEx.Alg.→ ???
3.8: Landausche Symbole.
f, g : RN → RM .
• f = O(g) fur x → x0: ∃C > 0, δ > 0:||f(x)|| ≤ C ||g(x)|| ∀ ||x − x0|| ≤ δ.
• f = O(g) fur ||x|| → ∞: ∃C > 0, R >0: ||f(x)|| ≤ C ||g(x)|| ∀ ||x|| ≥ R.
• f = o(g) fur x → x0: ∀ε > 0∃δ > 0 :
|f(x)| ≤ ε |g(x)| ∀ ||x − x0|| ≤ δ.• f = o(g) fur ||x|| → ∞: ∀ε > 0∃R >
0 : |f(x)| ≤ ε |g(x)| ∀ ||x|| ≥ R.
3.9: h, g : RN → RM gleich bzw. kleiner gleich
in erster Naherung fur x → x0 ( ||x|| → ∞):g(x) = h(x) + o(||h(x)||) bzw. g(x) ≤ h(x) +o(||h(x)||) fur x → x0 (||x|| → ∞).Kondition:
• Normweise abs. Kond.: κabs ∈ [0,∞]:
||f(x) − f(x)|| ≤κabs ||x − x|| , x → x.
• Normweise rel. Kondition: κrel ∈ [0,∞]:
||f(x)−f(x)||||f(x)|| ≤κrel
||x−x||||x|| , x → x.
• Gut gestellt: Werte < ∞.
• κrel =||x||||f(x)||κabs
Addition und Subtraktion:
Add. zw. Zahlen mit gl. Vorz: gut kond.Subtr. zw. etwa gl. gr. Zahlen: schlecht kond.(Ausloschung fuhrender Ziffern)
Matrixkondition: A invertierbar.
κ(A) =∣∣∣∣∣∣∣∣∣∣∣∣A−1
∣∣∣∣∣∣∣∣∣∣∣∣ · |||A|||Nun: A ∈ RM×N .
κ(A) =max||Ax||min||Ax|| ∈ [0,∞] uber ||x|| = 1.
Eigenschaften Kondition:
• κ(A) ≥ 1
• κ(A) = κ(αA)∀α ∈ R∗
• A 6= 0 singular ⇔ κ(A) = ∞Rel. normweise Kond. im Urbild: (f,x)
||f(x)−f(x)||∞||f(x)||∞
≤κrel maxj=1,...,n
∣∣∣∣∣xj−xj∣∣∣∣∣∣∣∣∣∣xj
∣∣∣∣∣,
x → x. Dies ist submultiplikativ:κrel(g ◦ h, x) ≤ κrel(g, h(x)) · κrel(h, x).Skeelsche Kondition:
κS(A) :=∣∣∣∣∣∣∣∣∣∣∣∣ ∣∣∣∣A−1
∣∣∣∣ · |A| ∣∣∣∣∣∣∣∣∣∣∣∣∞. (Betragsw.
Matr.) Charakterisiert die komp.weise Kond.fur alle mogl. rechten Seiten b mit Storungenin A und b.3.3 – Stabilitat eines Algorithmus
Ist das Resultat von (f, x) akzeptabel anstelle desResultats von (f, x)?Vorwartsanalyse: Eingabemenge E. Vergleich
von R=f(E) mit R’=f(E).
3.21: f Gleitk.real. zu (f,x) mit κrel und κrel.
Stavilitatsindikator normweise:
Kleinstes σ ≥ 0:
∣∣∣∣∣∣∣∣∣∣f(x)−f(x)
∣∣∣∣∣∣∣∣∣∣
||f(x)|| ≤σκreleps ∀x ∈E und eps → 0.Stavilitatsindikator komponentenweise:Kleinstes σ ≥ 0:
maxj=1,...,m
∣∣∣∣∣fj(x)−fj(x)∣∣∣∣∣∣∣∣∣∣fj(x)
∣∣∣∣∣≤σκreleps ∀x ∈ E
und eps → 0.
f stabil im Sinne der Vorw.an., falls σ/σkleiner als Anzahl hinterein. ausg. El.op.3.22: El.op. sind stabil mit σ◦κ◦ ≤ 1.
Idee: An. des Ges.algo. durch An. der Teilalg:
f = h ◦ g ersetzt durch f = h ◦ g.
3.23: Fur f = h◦ g mit Problem (f = h◦g, x)
gilt σfκf ≤ σhκh + κhσgκg .
Unverm. Subtr. mogl. an den Anf. stellen.Sum. und SP. sind stabil in diesem Sinne.3.26: (f,x) Probl. f = h ◦ g Real. Alle Fkten.
skalar und diffbar. Dann gilt:σf ≤ σh/κg + σg .
Abschlussbemerkungen:
Kleine Kondition → Stabilitat.Kleine Kondition = Informationsverlust.(And. in Eing. kaum Ausw. aufs Resultat)Kapitel 4 – Numerische Interpolation4.1 – Allgemeines Interpolationsproblem4.1: X norm. Raum, V ⊂ X, dim V=N,
l1, ..., ln ∈ L(X) lineare Funktionale.Finde zu f ∈ X ein u ∈ V : lj(u) = lj(f) ∀j.(I)
(I) wohlgestellt: ∀f ∈ X genau eine Lsg.{v1, ..., vN
}Basis von V ,
∑Nj=1 ajvj Lsg.
→ Lose [li(vj)]i,j=1,...,N · [a1, ..., aj ]T =
[l1(f), ..., lN (f)]T .
(I) wohlgestellt gdw. es eine Basis von V wieoben gibt mit [li(vj) wie oben regular.
(I) hochstens dann wohlgestellt, wenn die lilinear unabhangig.Lagrangeinterpolation:
X=C[a, b], V=Pn, N=n+1,li(f)=f(xi)(0-n). WG gdw. xi pw. ver.Hermiteinterpolation:
X=C1[a, b], V=P2n+1, N=2n+2,
l2i(f)=f(xi), l2i+1(f)=f′(xi)(von0-n).
WG gdw. xi pw. ver. Kubische
Splineinterpolation:
X=C2[a, b], V speziell, N=n+1,li(f)=f(xi)(0-n). WG.4.2 – Lagrangeinterpolation
I = [a, b] ⊂ R, a ≤ x0 < . . . < xn ≤ b.Darstellungsmatrix Monombasis.
V=
1 x0 x20 . . . xn0
. . . . . . . . . . . . . . .
1 xn x2n . . . xnn
detV 6= 0
Berechnung teuer (n2), schlechte Kondition.4.4: xi, i = 0, . . . , n pw. versch.
Lnj (x) =∏
0≤i6=j≤nx−xixj−xi
=ω(x)
(x−xj)ω′(x),
ω(x) =∏ni=0(x − xi) ∈ Pn+1 \ Pn.
4.5:{Ln0 , . . . , L
nn
}Basis von Pn. Lagrange-(I)
gelost durch p(x) =∑ni=0 f(xi)L
ni (x).
(Koeff. umsonst, Auswertung teuer (n2))
Newtonpolynome ωj(x) =∏j−1i=0 (x − xi),
ω0(x) = 1. → Darst.mat. ist unt. Diag:
W =
1 0 0 ... 01 ω1(x1) 0 ... 0. . . . . . . . . ... . . .1 ω1(xn) ω2(xn) ... ωn(xn)
Lose W · ~a = [f0, . . . , fn]T .Rekursion: ωj(xi) = ωj−1(xi)(xi − xj−1).
Dividierte Differenzen: f[xj, . . . , xk] :=
f[xj+1,...,xk]−f[xj,...,xk−1]
xk−xj,f[xj ]=f(xj).
Daraus bek. Schema aufb., Ob. Diag. ablesen.p(x) =
∑ni=0 aiωi(x), ai = f[x0, . . . , xi]
(Einmalige Koeff.best. (n2), Ausw. linear moglich)(Keine Neuber. der Koeff. bei neuem Dat. notig.:pn+1(x) = pn(x) + an+1ωn+1(x).)
Kondition:
Φ : C0[a, b] → Pn, f 7→ pn, pn(xi) = f(xi)
⇒ κabs = Λn := maxx∈[a,b]
∑nj=0
∣∣∣∣Lnj (x)∣∣∣∣.
Restglieddarstellung/Interpolationsfehler:
Frage: Wie gut ist die Approx. von f durch pn?
4.11: f ∈ Cn+1[a, b]. ∀x ∈ I∃ξ ∈ I :
Rn(x)=f(x) − pn(x)=f(n+1)(ξ)
(n+1)!ωn+1(x).
4.12: f∈Cn+1(I). ∀x∈I∃ξ∈ I[x0, . . . , xn, x]
f[x0, . . . , xn, x] =f(n+1)(ξ)
(n+1)!
4.13: f ∈ Cn+1(I): ||f − pn||∞,I ≤∣∣∣∣∣∣∣∣∣∣∣∣f(n+1)
∣∣∣∣∣∣∣∣∣∣∣∣
(n+1)!
∣∣∣∣∣∣∣∣ωn+1
∣∣∣∣∣∣∣∣ in ∞-Norm. auf I.
∣∣∣∣∣∣∣∣f(n+1)ωn+1
∣∣∣∣∣∣∣∣∞,I = o((n + 1)!): Fehler
geht gegen 0. I.A.∣∣∣∣∣∣∣∣ωn+1
∣∣∣∣∣∣∣∣∞,I → ∞.
4.17: Tschebyscheffpolynome: T0(x)=1,
T1(x)=x,Tk+1(x)=2xTk(x)-Tk−1(x),k ≥ 1.
Eigenschaften:
1. Tk∈Pk, LK 2k−1,∣∣∣∣∣∣∣∣Tk+1
∣∣∣∣∣∣∣∣=1 (un.-1,1)
2. Tk(x) = cos(k · arccosx), x ∈ [−1, 1]
3. Tk(x)=0.5((x+√x2-1)k+(x-
√x2-1)k)
4.∣∣∣Tk(x)
∣∣∣ = 1 gdw. x = cos mπk
,m=o...k
5. Tk(x)=0gdw. x= cos 2m+12k
π m=0...k-1
4.18: Min-Max-Eigenschaft:
Sk. Tsch.pol. (LK 1) hat kleinste Maxnorm:
minp∈Pn+1
||p||∞,[−1,1] =∣∣∣∣∣∣∣∣2−nTn+1
∣∣∣∣∣∣∣∣∞,[−1,1]
Transformation auf [a, b]:
L : [a, b] → [−1, 1], L(x) = 2 x−ab−a − 1.
L−1(x) =b+a+(b−a)x
2, TIk := Tk(L(x)).
4.19: p ∈ Pn+1 (LK 1)
p = p ◦ L hat grad n+1 und LK
cn+1 := 2n+1(b − a)−(n+1). p = p ◦ L−1
hat LK c−1n+1. Das sk. und transf. Tsch.pol.
2−ncn+1TIn+1 hat min. Max.norm.
4.3 – Hermite-Interpolation2 Stutzst. id. → Fktsw. + Abl. notw.4.20: a=x0<. . . <xm=b Zerlegung, ni ∈ N,
n0+. . .nm=n+1, f(v)i ∈R, i=0,. . . ,m,
v=0,. . . , ni-1. Zu diesen Daten: ∃!p ∈ Pn mit
p(v)(xi) = f(v)i , i=0,. . . ,m, v=0,. . . ,ni-1.
4.21: Vor. wie oben, f ∈ Cn+1[a, b],
f(v)i = f(v)(xi), i=0,. . . ,m, v=0,. . . ,ni-1
und p ∈ Pn die Hermite-Interpol. ∀x ∈ [a, b]
∃ξ ∈ (a, b): Rn(x) = f(n+1)(ξ)
(n+1)!ωn+1(x).
Normieren liefert dann Fehlerabschatzung.4.4 – Stuckweise PolynominterpolationStuckweise Hermite-Interpolation:
∆ := {a = x0 < . . . < xn = b}, k ∈ N.
H(k)∆ :={p ∈ Ck−1[a, b] : p |[xj−1,xj ] ∈
P2k+1, j=1, . . . , n}. Zu f(v)j ∈ R,j=0, ..., n,
v=0, ..., k-1 suche p∈H(k)∆ : p(v)(xj)=f
(v)j .
4.27: f∈C2k[a, b], p∈H(k)∆ , I=[a, b].
||f − p||∞,I≤
∣∣∣∣∣∣∣∣∣∣∣∣f(2k)
∣∣∣∣∣∣∣∣∣∣∣∣∞,I
(2k)!22k ·h2k∆ , mit
h2k∆ := max
j=1,...nhj := max
j=1,...n(xj − xj−1).
4.28: maxj=1,...n
∣∣∣∣∣∣∣∣f(v) − p(v)∣∣∣∣∣∣∣∣≤ h
2k−v∆
∣∣∣∣∣∣∣∣∣∣∣∣f(2k)
∣∣∣∣∣∣∣∣∣∣∣∣
22k−2v−v!(2k−v)!in der ∞, [xj−1, xj ]-Norm.
Fur diese Interp. mussen die Abl. an denSt.stellen bek. sein. Oft schlecht ermittelbar.4.5 – Splineinterpolation
∆ wie oben, Ij :=[xj−1, xj ], j=1,...,n.
4.30: k ∈ N. Splineraum:
S(k)∆ :={p∈Ck−1[a, b]:p |Ij=pj∈Pk,j=1,...,n}
4.31: dimS(k)∆ =n+k.
Hier: k=3, kubische Splines. (2 Bed. zuwenig)4.32: ∆ Zerl. von [a,b], f0,...,fn∈R geg.
Daten. Ges.: p∈S(3)∆ :p(xj) = fj ,j=0,...,n.
Nicht eind. losbar, da nur n + 1 Daten vorg.
4.33: Satz von Holladay. f∈C2[a, b], p∈S(3)∆ ,
p(xj)=f(xj), j=0,...,n. Dann gilt:∣∣∣∣∣∣f′′ − p′′ ∣∣∣∣∣∣2=∣∣∣∣∣∣f′′ ∣∣∣∣∣∣2-
∣∣∣∣∣∣p′′ ∣∣∣∣∣∣2-2((f’(x)-
p’(x))p”(x))|ba in der Eukl.N. auf [a,b].
Letzer Summ. =0:∣∣∣∣∣∣p′′ ∣∣∣∣∣∣ ≤ ∣∣∣∣∣∣f′′ ∣∣∣∣∣∣ wie oben.
||p||22 min. unter all. Fkt. f durch ob. Pkte.
Kubische Splinetypen:
Der k.Sp. p∈S(3)∆ zu f0, ..., fn heißt
– naturlich: p”(a)=p”(b)=0.– vollstandig: p’(a)=α, p’(b)=β.– periodisch: p’(a)=p’(b), p”(a)=p”(b).4.35: ∃! vollst./nat. Spl. zu den ob. Daten.
4.37: f∈C0[a, b], pk∈S(3)∆k
, k ∈ N,
∆k={a = x(k)0 , ..., x
(k)nk
= b} mit
maxj=1,...,nk
(x(k)j -x
(k)j−1)≤δmin
∣∣∣∣∣x(k)j -x
(k)j−1
∣∣∣∣∣fur alle k∈N und ein fixes δ∈R, pk zug. Spline.
max
∣∣∣∣∣x(k)j − x(k)
j−1
∣∣∣∣∣ gegen 0: f –> pk, ∞-N.
Kapitel 5 – Numerische Integration
Problem: [a,b] Int., f st. diff. Gesucht:
I(f) =∫ba f(x) dx. (Num. Approx.)
Ziel: Konstr. num. Quadr. Q:C0[a, b] → R,
f 7→ Q(f) mit |Q(f) − I(f)| mogl. klein.5.1 – Allgmeine Quadraturformeln
5.1: x0,...,xn∈[a, b] Stutzstellen, pw. versch.
w0,...,wn∈R \ {0} Gewichte.
Qba(f) := Q(f) :=∑nj=0 wjf(xj).
Q ex. v.Grad m: Q(p)=I(p)∀p ∈ Pm.Q pos. falls Q(f)≥0 f.a. pos. f.Minimalforderung: Konstante Funktionen
exakt integr.: Summe Gew. gleich Eins.
Mittelpunktsformel: Q(f)=(b-a)f( b−a2
).
Trapezregel: Q(f)= 12
(b-a)(f(a)+f(b)).
Beide exakt vom Grad 1. Die Gewichtekonnen immer so gewahlt werden, dass Qexakt vom Grad m≥n ist.5.3: Q Q.for. auf [a, b] ex. v.G. m≥n,
f ∈ Cm+1[a, b]. Dann gibt es ωm+1∈Pm+1:
|Q(f) − I(f)| ≤
∣∣∣∣∣∣∣∣∣∣ωm+1
∣∣∣∣∣∣∣∣∣∣1
∣∣∣∣∣∣∣∣∣∣∣∣f(m+1)
∣∣∣∣∣∣∣∣∣∣∣∣∞
(m+1)!auf
[a,b],∣∣∣∣∣∣∣∣ωm+1
∣∣∣∣∣∣∣∣1
=∫ba
∣∣∣∣ωm+1
∣∣∣∣ dx. Ferner:
(m + 1)!cm:=∣∣∣∣∣∣∣∣ωm+1
∣∣∣∣∣∣∣∣1·(b − a)−2−m ≤ 1.
1
Damit:|Q(f) − I(f)|≤cm(b-a)m+2∣∣∣∣∣∣∣∣f(m+1)∣∣∣∣∣∣∣∣∞,[a,b]. (Q Ordnung m+2)
5.2 – Newton-Cotes-FormelnIdee: Ersetze Funktion durch Interpolierende:
Integral einfach. Quadraturformel:
Q(f)=I(pn)=∫ba pn(x) dx.
Lagr.basisfkt.: pn(x)=n∑j=0
f(xj)Lj(x)
Gewichte: wj :=∫ba Lj(x) dx, somit
Q(f)=I(pn)=n∑j=0
wjf(xj).
Mit y = x−ab−a kann man die Gewichte bis auf
Skalierung auf [0,1] berechnen.Fur den Sp.fall aquidist. Stutzst. xj=a + jh,
j=0,...,n, h= b−an
, heißen die so kon-
str. Qu.formeln Newton-Cotes-Formeln.
5.3 – Zusammengesetzte Quadraturen
5.4: ∆m={a = z0<...<zm = b}. Dann:
Qba(f)=m∑j=1
Qzjzj−1
(f).
MP. und T.regel durch Einsetzen.Idee: Lege einmal QF mit Gewichten und
St.stellen auf [0, 1] fest und transf. dies aufdie einzelnen Teilintervalle.Gewichte: wj = (b − a)wjStutzstellen: xj = xj(zj − zj−1)
5.5: Q QF auf [0,1] ex. auf Pk fur ein k≥0.
∆ wie oben Zerl. von [a,b], hj :=zj -zj−1,
h∆ = maxhj , Qba die auf ∆ zsges. QF,
f∈Ck+1[a, b].∣∣∣∣Qba(f)-Iba(f)∣∣∣∣≤ck m∑
j=1hk+2j
∣∣∣∣∣∣∣∣f(k+1)∣∣∣∣∣∣∣∣∞ auf
dem Zwischenintervall und ≤ insgesamt
ck(b-a)hk+1∆
∣∣∣∣∣∣∣∣f(k+1)∣∣∣∣∣∣∣∣∞,[a,b], ck ≤ 1
(k+1)!
5.4 – Gauß-Christoffel-Quadraturen
Jetzt: I(f)=b∫a
f(x)a(x)dx, a stetig, pos. a,b
auch∞, sol.b∫a
xka(x)dx <∞. Ziel: n+1 Gew.,
Ex.grad so hoch wie geht.
Typ. a’s: 1, 1√1−x2
, e−x, e−x2. Freie Wahl
der Stutzst. gibt 2n+2 Unb. (St. + Gew.) –>NLGS!!!
5.6: Qn QF, n+1 St.st., Qn(f)=n∑j=0
wjf(xj)
pn+1(x) = (x-x0)...(x-xn). Dann:
pn+1∈Pn+1 \ {0}: Q(p2n)6=I(p2
n) und
Qn ex. auf P2n+1, so ist pn+1 orth. zu Pn
bzgl. 〈f, g〉α:=b∫a
f(x)g(x)a(x)dx auf (a, b).
5.7: n∈N0. ∃pn+1 orth. zu Pn in ob. SP.
x1,...,xn einf. NSen von pn+1, Qn(f) (5.6)
ex. auf Pn. Dann Qn(f) ex. auf P2n+1.
Gewichte: wj=b∫a
Lj(x)a(x)dx, j=0,...,n.
5.8: Zu n nat. gibt es eind. best. St.St.
x0,..., xn in (a,b) und Gew. w1,...,wn,sodass QF wie in 5.6 ex. f.a. Pol. mit Grad2n+1. Die St.St. sind die NS des (n+1)-
ten Orth.pol. pn+1. wj=b∫a
L2j (x)a(x)dx =
||pn||ap′n+1(xj)pn(xj)
>0, j=0,...,n. Norm ist SP
mit p2n. f∈C2n+2[a, b], c2n+1:=
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣pn+1
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣a
(2n+1)!:
|Qn(f) − I(f)|≤c2n+1
∣∣∣∣∣∣∣∣f(2n+2)∣∣∣∣∣∣∣∣∞ in(a,b).
Kapitel 6 – Iterative Verfahren6.1 – Klassische Iterationsverfahren
6.1: A∈GLn(R), b∈RN , x? ∈RN eind.Lsg.
von Ax?=b. Zu x0 ∈ RN und B∈R(N,N) def.xk+1=xk-B(Axk − b). T :=id-BA It.mat.
Konv., falls ∀ x0: limk→∞
xk = x?.
Residuum: rk=Axk-b: xk+1=xk-Brk.
Idee: Kompl(A)≈Kompl(B), B≈A−1
6.2: ∀ ε >0, A∈R(N,N) ∃ ||·||A: ||A||A,ε ≤ρ(A) + ε.6.3: T It.mat. Verf. konv. gdw. ρ(T )<1.
Ebf. falls dies (...<1) fur eine bel. Mat.n. gilt.
6.4: T∈R(N,N), ||·|| auf RN , |||·||| zug.
Mat.n.: ρ(T )≤|||T |||, ρ(T )= limk→∞
∣∣∣∣∣∣∣∣∣∣∣∣Tk ∣∣∣∣∣∣∣∣∣∣∣∣1/k.
6.5: ρ(T ) sagt etwas uber Konv.geschw. aus:
Je kleiner ρ(T ), desto schneller die Konver-genz.6.6: Richardson-Iteration
A∈GLN (R), xk+1=xk-(Axk-b)=xk-rk.
Konvergent gdw. |1 − λ| < 1 f.a. λ ∈ spec(A).Verfeinerung: Zerlege A=L+D+R. Fur det A
6= 0 ergibt dies: x?=x?-D−1(Ax?-b) (GSV )6.7: Gesamtschrittverfahren:
A=L+D+R inv., det A 6= 0.
xk+1 = xk-D−1(L+R). TGSV=-D−1(L+R)
x(k+1)m =a−1
mm(bm -∑
n 6=mamnx
(k)n ) m=1,.,N
6.8: Starkes Zeilensummenkriterium
GSV konv. mit A wie oben gdw.
maxm=1,...,N
1|amm|
∑n 6=m
|amn|<1.
6.9: Einzelschrittverfahren
A=L+D+R inv., det A 6= 0.
xk+1 = xk-(D+L)−1(Axk-b)
TESV=-(D+L)−1R6.10: ESV konv. fur spd-Mat.
6.11: A∈R(N,N), N :={1,...,N}. A zer-
legbar gdw. ∃N1,N2⊂N : N1∪N2= N ,N1∩N2=∅, N1 6= ∅, N2 6= ∅ und m ∈ N1,n ∈ N2⇒amn = 0. A unz., wenn nicht zerl.Prozess des Zerlegens kann evtl. nachiteriertwerden: Feinere Zerlegung.6.12: Schwaches Zeilensummenkriterium:
A=L+D+R inv., det A 6= 0 unzerl,
maxm=1,...,N
1|amm|
∑n 6=m
|amn| ≤ 1 und
1∣∣∣∣am?m?∣∣∣∣
∑n 6=m?
∣∣∣am?n ∣∣∣<1,m? ∈{1,...,N}
Dann sind ESV und GSV konv.6.13: A=tridiag(a,b,c) hat die Eigenwerte
λn = a + 2sgn(cb)√|cb| cos nπ
N+1,n=1,...,N.
Jetzt: Relaxierte Verfahren. Wahle ω ∈ R:xk+1/2=xk-B(Axk-b), xk+1=(1-ω)xk +
ωxk+1/2. Wahle ω so, dass xk+1 moglichst
nah an der eind. Lsg. ist., also ρ(Tω) mogl.klein. Gesucht: ωopt ∈ argmin
ω∈Rρ(Tω) ⇔
ρ(Tωopt ) = minω∈R
ρ(Tω).
6.14: Rel. Richardson-Verfahren: A ∈ R(N,N)
inv., ω reell.
k+1 = xk − ω(Axk − b).Konv.: Ex. ω∈R: |1 − λω|<1 f.a λ ∈ spec(A).A spd.: Ex. ω ∈ R, sd. ob. It. konvergiert.
Tωopt= 2λmax+λmin
,ρ(Tωopt )=κ2(A)−1κ2(A)+1
<1
6.15: Relaxiertes GSV/ESV
A ∈ R(N,N) inv., A=L+D+R, det(A)6=0.
xk+1=xk-ωD−1(Axk-b) (rel. GSV)
Xk+1=xk-ω(D+ωL)−1(Axk-b) (rel. ESV,
SOR=successive overrelaxation)6.16: Satz von Kahan
TSOR(ω)=(D+ωL)−1((1-ω)D-ωR),
ρ(TSOR(ω))≥ |ω − 1|Satz von Ostrowski und Reich:
A spd. ⇒ ρ(TSOR(ω)) < 1 f.a. ω ∈ (0,2).
6.19: SSOR, sym. SOR
A ∈ R(N,N) inv., A=L+D+R, det(A)6=0, ω ∈(0,2). Definiere:
Tω :=(D+ωL)−1((1-ω)D-ωR),
Tω :=(D+ωR)−1((1-ω)D-ωL).
It. Verf. mit It.mat. T=TωTω : SSOR.6.20: A ∈ R(N,N) inv., A=L+D+R, det(A) 6=0,
ω ∈ R. Dann gilt:
ρ(TSSOR(ω)) ≥ |1 − ω|2 und
A spd. ⇒ ρ(TSSOR(ω)) < 1 f.a ω ∈ (0, 2).
Fur sym. Mat. (R=LT ) ist TSSORebf. sym. mit BSSOR(ω) = (2 −
ω)(
1ωD + LT
)−1) ( 1ωD) (
1ωD + L
)−1
6.2 – CG-Verfahren
Idee: Konst. zu A inv. spd. und x? im k-ten Schritt
einen Unterraum Kk ⊂ RN mit dimKk=k, sodass das Residuum Axk − b orthogonal zu diesemUnterraum ist. Dann gilt spatestens nach N Schritten
xN=x?.6.21: Projektionssatz
W endl.dim. UVR mit SP 〈·, ·〉 und ind.Norm ||·||W , K ⊂ W lin. Teilraum und
K⊥ ={w ∈ W : 〈w, u〉W = 0∀u ∈ K
}das
orth. Kompl. von K in W. ⇒∀w∈W∃!u?∈K:
∣∣∣∣∣∣u? − w∣∣∣∣∣∣W
=minu∈K||u − w||W .
u? ist eind. best. durch u? − w ∈ K⊥, obige
Gl. ist aquiv. zu⟨u?-w, u
⟩W
= 0 f.a. u∈K.
6.22: W endl.dim. eukl. VR. mit SP. und ind.
Norm wie oben. Sei K ⊂ W linearer Teilraum.PK : W → K, w 7→ PKw = argmin
v∈V||v − w||W
ist wohldef., lin. und heißt orth. Proj. von Wauf K.6.23: Ersetze oben K durch den affin lin.
Teilraum V = w0 + K fur ein w0 ∈ RN , so gilt
v? = argminv∈V
||v − w||W aq. zu v? −w ∈ K⊥.
Die zug. Abb. PV wie oben ist wohldef. und
affin lin. Es gilt PV w = w0 + PK(w − w0).
6.24: A spd. 〈x, y〉A = 〈Ax, y〉 def. ein SP
auf RN . Die hierdurch ind. Norm ist aq. zureukl. Norm:√λmin ||x||2 ≤ ||x||A ≤
√λmax ||x||2 f.a.
x ∈ RN . Ebenso def. 〈x, y〉A−1 ein SP.
Ritz-Galerkin-Approximation:
W=RN mit SP zu A und zug. Norm. Sei Kk
⊂ RN ein gee. gew. UVR, Vk = x0 + Kk
und x? die exakte Losung von Ax? = b und
xk=argminv∈Vk
∣∣∣∣∣∣v − x? ∣∣∣∣∣∣A
. Dies ist aq. zu
⟨xk − x
?, d⟩A
= 0 f.a. d ∈ Kk. Sei nun
d1, ..., dn eine A-ort. Basis von Kk und Pkdie A-ort. Proj. auf Kk. Dann gilt
xk = x0+Pk(x?-x0) = x0 -k∑l=1
αldl mit
αl =
⟨r0,dl
⟩A∣∣∣∣∣∣∣∣dl
∣∣∣∣∣∣∣∣2A, rk Residuum.
Idee: Verwende Kk = span{r0,Ar0,. . . ,Ak−1r0}.Krylowraume. Ex. Lsg. nach max. N Schr.6.25: Solange rk 6=0 ist, sind die Residuen
r0,...,rk pw. ort., d.h. es gilt⟨ri, rj
⟩= δij
∣∣∣∣∣∣ri ∣∣∣∣∣∣22, i, j = 1, ..., k.
Es gilt Kk+1=span{r0,...,rk}.6.29: Sei Pk =
{p ∈ Pk : p(0) = 1
}, k≥0. ⇒∣∣∣∣∣∣xk-x?
∣∣∣∣∣∣A≤ infp∈Pk
maxλ∈σ(A)
|P (λ)|∣∣∣∣∣∣x0 − x
?∣∣∣∣∣∣A.
6.30: Pk wie oben, [a,b]⊂R mit 0 6∈[a,b]. Ist
Tk:[-1,1]→ R das k-te Tsch.pol., so ist
das transf. Pol. Tk(λ) :=Tk(x(λ))
Tk(x(0)),
x(λ) = b+a−2λb−a min. bzgl. ||·||∞ auf [a,b]
in Pk mit: minp∈Pk
||P ||∞=∣∣∣∣∣∣Tk(·; a, b)
∣∣∣∣∣∣∞ ≤
2
√b/a−1√b/a+1
k.
6.31: Konvergenz des CG-Verfahrens
A spd. Dann konv. das CGV f.a. x0 gegen die
eindeutige Losung x∗=A−1b mit:∣∣∣∣∣∣ak − x? ∣∣∣∣∣∣A ≤ 2
√κ2(A)−1√κ2(A)+1
k ∣∣∣∣∣∣x0 − x?∣∣∣∣∣∣A
.
6.32: Soll der Fehler um den Faktor 0 < ε < 1
in der Energiernorm ||·||A red. werden, so
ben. man hochs. k=⌈12
√κ2(A) ln 2
ε
⌉Iteratio-
nen.6.3 – Vorkonditioniertes CGV
Idee: Ersetze Ax=b durch das aq. LGS ACy?=b, x =
Cy?, C spd, C≈A−1.
Problem: AC nicht langer sym. bzg. Eukl. SPs.Losung: A,C spd: B=AC sym. bzgl. 〈·, ·〉C .Wende nun das CGV zur Losung von
By?=b an. Als induziertes SP ergibt sich{·, ·}AC = 〈Bx, y〉C = 〈ACx,Cy〉. Verw.nun im CGV anstatt yk direkt xk=Cyk .6.34: Es gilt die Absch. aus 6.31 und man
kann zeigen:√λminα ≤
∣∣∣∣∣∣rk ∣∣∣∣∣∣C ≤ √λmaxα
mit α =∣∣∣∣∣∣xk − x? ∣∣∣∣∣∣A. Vork. gut, falls
λmin,max ≈ 1.
Haufig benutzte Vorkonditionierer: Diagkond.Unvollst. Chol.Z., SSOR-Vorkond.Kapitel 7 – Nichtlineare Gleichungssysteme
Setting: X Banachraum, L(X) wie immer,∅ 6= O ⊂ X, f:O→X nichtlinear, y ∈ X.Problem: Finde x∈X mit f(x)=y.7.2: (xk) konv. mit Ord. p, falls k0 nat. und
C>0 ex. mit∣∣∣∣∣∣∣∣xk+1 − x
?∣∣∣∣∣∣∣∣ ≤ C ∣∣∣∣∣∣xk − x? ∣∣∣∣∣∣p.
7.1–Fixpunktiterationen7.3: Kontr. ist Selbstabb. mit Lip.konst. <1.
7.4: f:M→X, U⊃M offen und konvex, f st.diff.,
f(M)⊂M, ρ:= supx∈U
||Df(x)||L (X)<1: f Kont.
7.5: Banachscher Fixpunktsatz (wie immer)
7.6: f:X→X. Es gebe x0 ∈X,R>0, ρ ∈[0,1):
||f(x) − f(y)||≤ρ ||x − y|| f.a. x,y∈ BR(x0)
und ||x0 − f(x0)|| ≤ (1 − ρ)R. Dann bes. feinen eind. FP in der obigen Menge und esgelten die anderen Aus. aus 7.5.7.7: f:X→X sei in der Nahe eines FPs p-mal
st.diff. mit Dlf(x?)=0 f.a. l=1,...,p-1. Dannist die Fixpunktit. ein Verfahren p-ter Ord-
nung, sofern∣∣∣∣∣∣Df(x?)
∣∣∣∣∣∣L(X)< 1.
7.2 – Das Newtonverfahren
∅ 6=U⊂X offen, f st.diff. Ges: Nullstelle in U.7.8: NV. F.a. x0 ⊂U ist das NV geg. durch:
xk+1 = xk-Df(xk)−1f(xk), sol. Df(xk) inv.
7.9: X=Rd, d>=2. Dann Df(xk) dxd-
Matrix. Pr. Vorg.: 1. Df(xk)dk=-f(xk)losen. 2. xk+1=xk+dk. Falls das NV konv.,
dann quadr: f 2mal st.diff., U konvex,
supx∈U
∣∣∣∣∣∣∣∣Df(x)−1∣∣∣∣∣∣∣∣L(X)
<∞, x? ∈ U NS. von f:
∣∣∣∣∣∣∣∣y-Df(y)−1f(y)-x?∣∣∣∣∣∣∣∣≤ 1
2supx∈U
∣∣∣∣∣∣∣∣Df(x)−1∣∣∣∣∣∣∣∣
supx∈U
∣∣∣∣∣∣∣∣D2f(x)∣∣∣∣∣∣∣∣L(X2,X)
∣∣∣∣∣∣y − x? ∣∣∣∣∣∣2.
7.11: A∈ L(X), α:=||A||L(X)<1: Ex.
(id-A)−1=∞∑k=0
Ak mit∣∣∣∣∣∣∣∣(id − A)−1
∣∣∣∣∣∣∣∣≤ 11−α .
7.12: U⊂X konvex,. f st.diff., es gebe γ>0 mit
||Df(x)-Df(y)||L(X)≤γ ||x − y|| f.a. x,y∈U:
||f(x) − f(y) −Df(y)(x − y)||≤ γ2||x − y||2.
7.13: Vor. von 7.12 sind erfullt, wenn f 2mal
st.diff. und supx∈U
∣∣∣∣∣∣∣∣D2f(x)∣∣∣∣∣∣∣∣L(X2,X)
< ∞.
7.15,7.17: Hat f eine Nullstelle und ist die
Abl. dort inv., so sind die Vor. von 7.14
erf. f.a. x0∈Bε(x?) mit hinr. kl. ε. Untergeeign. Vor. konv. NV global (perf. Int., fkonv.,konk.). Ist f = Ax − b, so ist dasFinden einer NS. aq. zum Losen eines LGS.7.3 – Quasi-NewtonverfahrenIdee: Differenzenquotient statt Ableitung: Sek.verf.Modifikation: Einschließung der NS zum Aufh. vonAusl. im Nenner des Diff.quot.: Regula falsi (2SWe)FragE: Wie kann man ohne gr. Mehraufw. err.,
dass∣∣∣∣∣∣f(xk)
∣∣∣∣∣∣ str. m. f. ist? Ansatz: Liniensu-
che (stdmontest): Akz. dk als Suchri. und verw.
xk+1=xk+ τdk fur τ ∈(0,1]. Ermogl. dann in der
Impl. Verand. von τ . Dies ist i.A. zu aufwandig.Beob.: In einem Hilbertraum H mit SP. istjede Nullstelle von f Minimum der Funk-tion F:U→R, F(x)=〈f(x), f(x)〉. (U offen,
nichtleer, f st.diff.) Setze d=-Df(x)−1f(x).Dann ist Φ=F(x+td) st. diff. um t=0. Lok.
Tay.entw.:||f(x+td)||2=(1-2t)||f(x)||2+o(t):
Es ex. ε>0: ||f(x+td)||2 ≤ ||f(x)||2 f.a.0<t≤ ε.7.22: Diese Verf. liefert i.d.P. ein Verf. zw.
Ord., falls wir nahe genug an x? sind.Aff. Inv. NV: g(x) und Af(x) liefern die gl.
Folge, falls g(x)=Af(x) und A inv.Stdmont. nicht aff. inv., daher nat. Mont.Dieser ist aufw., aber robuster. Der Stdmont.ist schneller und fur beide Verf. kann mannur lok. Konvergenz zeigen. Beide konnenextrem langsam konvergieren. Mit nat.Mont.ist das NV lokal konv. und in der Nahe vonx? ist τ = 1 zu erwarten.Kapitel 8 – Ausgleichsprobleme8.1 – Lineare Ausgleichsprobleme Daten
(tm,bm) reeller Zahlen. bm Zustande einesObj. zu Param. tm gen. Gesetm. b(t)=ϕ(t;x1,...,xN ), xj Modellpa. Perf. Mod.: bm=b(tm)
I.d.P.: M>>N: Uberb. GS. Nah:bm ≈b(tm).Ziel: ∆m=ϕ(tm;x1,...,xN )→ min., m=1,...,M.
Z.B.: ∆2:=M∑m=1
∆2m→min.(Meth.d.kl.F.quad.)
Annahme: ϕ linear in x, also ϕ=a1(t)x1+...+(bis
N), aj :R → R. A:=[an(tm)]∈R(M,N),b,x∈R(N)
kanon.: Finde x∈R(N):||Ax-b||22=min.
8.2: M≥N, A∈R(M,N), b∈R(M). Ges.
x?∈R(N): x?∈argmin
x∈RN||Ax − b||2. (oder 2)
Normalengleichung: Geom. wird zur Lsg. des lAP
ein Pkt. z=Ax aus R(A) ges., der den kl. Abst. zumPkt b hat. M=2,N=1: Bild lief. orth. Proj. Es ist
z?=Ax? die orth. Proj. von b auf R(A). Also ist 8.2
aq. zu: z?∈ argminz∈R(A)
||z − b||2. 6.21: z? eind. best.
mit⟨z? − b, z
⟩= 0 ⇔
⟨AtAx? − AT b, x
⟩=0
f.a. x∈R(N). x? ist Lsg. von 8.2 gdw. wenn es Lsg.obiger SPGl. ist.
8.3: x? ∈R(N) Lsg. von 8.2 gdw. ATAx? =
AT b in R(N). Insb. 8.2 eind. losb.,falls A
vollen Rang hat. ATA ist hierbei spd.
Probleme: Ber. von ATA ben. fehlerbeh. SPe,
κ2(ATA)=κ2(A)2, fur N=M direkt losbar.8.1 – OrthogonalisierungsverfahrenIdee: Verwende in El.proz. stabile Trafos, also welchemit glm. beschr. Kond. Dies fuhrt z.B. auf die Verw.von orth. Mat. O(M).
8.4: ||Qy||2=||y||2, |||Q|||2=∣∣∣∣∣∣∣∣∣∣∣∣QT ∣∣∣∣∣∣∣∣∣∣∣∣
2=1,
κ2(Q)=1, Q1Q2∈O(M) f.a. Q,Qj orth.,
y∈R(M).Eliminationsverf. mit orth. Mat. heißen Orth.verf.Sie sind stabiler (in jedem El.schr.), aberaufwandiger. Dies ist fur linAPs nicht ideal:8.5: A∈R(M,N),M≥N, Rg(A) max.,Q∈O(M):
QTA=[R,0]T , QT b=[b1,b2]T , b1∈R(N),b2∈R(M-N). Dann: R∈R(N,N) inv. und
x?=R−1b1 ist Lsg. von 8.2.
Ax-b schreibt sich als QT (Ax-b)=[Rx-b1,-b2]T . Eu-
kl. N. im Qu. und Absch. liefert ||Ax-b||22≥||b2||22.
Gibt es also x?∈R(N) mit Rx?=b1, so gilt∣∣∣∣∣∣Ax? − b1 ∣∣∣∣∣∣2 = ||b2||2 und dieser Wert ist
min. A max. Rang: N=Rg(A)=Rg(QT A)=Rg(R).
Also R inv. und es ex. genau ein solches x?. 8.6:
A∈R(M,N), M≥ N, Q orth., R∈R(M,N),rmn = 0 fur m<n. A=QR heißt QR-Zer. von
A. M=N: Berechne z:=QT b, Lose Rx=z.Fur M=2 sind orth. Abb. Dreh. und Spiegelun-gen. Eine Spiegelung an der Geraden l senkrechtzu einem Vektor v wird durch die Abbildung
Qa=a-2〈v,a〉〈v,v〉 v beschrieben. Matrizen der Form
Q=id-2 vvT
〈v,v〉 ∈R(M,M) heißen Householder-Refl.
Sie sind symmetrisch, orthogonal und involutorisch.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Berechnungsformel Cholesky:
lij =
0 : i < j√√√√√aii − i−1∑k=1
l2ik : i = j
1ljj
aij − j−1∑k=1
gikgjk
: i > j
Kondition diffb. Abb.: f:R(N)→R(M) diffbar
in x mit Abl. Df(x)∈R(M,N), so gilt:
κabs=|||Df(x)|||, κrel=|||Df(x)|||||f(x)|| ||x||.
Splineinterpolation
Trafo von [a,b] auf [0,1]: x=a+y(b-a)Beweis 7.4: Betrachte Norm des Diff.quot.ohne Limes, wende dann den MWS und dieVor. an.
Std.absch.: ||f(x)-f(y)||=||1∫0Df(x+t(y-x))(y-x)
dt||≤ supz∈U
||Df(z)||L(X) ||x − y||.
Newtonverfahren konv. quadr.
Gedampftes Richardson Beweis
Kondition gemischt
2