2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti...
Embed Size (px)
Transcript of 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti...

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 1
2. ÁLGEBRA LINEAL
2.1 Definiciones
Una matriz ΑΑΑΑ = (aij), de orden n x m, es un conjunto de números dispuestos en n filas y m
columnas.
=
nmnnn
m
m
m
a....aaa
.....
a....aaa
a....aaa
a....aaa
321
3333231
2232221
1131211
A
Un elemento, aij, se identifica por dos sub – índices, el primero de los cuales denota la
fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de
dimensión n:
=
3
2
1
b
b
b
Mb
Si en cambio n = 1, se tiene una matriz fila: [ ]mccc K21=c . Si n = m se dice que
la matriz es cuadrada (de orden n). Por ejemplo:
=
25681161
642781
16941
4321
A
=
4
3
2
1
000
000
000
000
d
d
d
d
D
=
1000
0100
0010
0001
nI
A, D e In son matrices cuadradas. La matriz [ ]nddddiag K21=D es una matriz diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal
principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el
de [ ] ( )ijdiag δ== 111 KnI , que es una matriz unidad (o identidad) de orden n. La
matriz identidad tiene en el álgebra matricial un papel similar al uno en álgebra común.
Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada),
cuyos elementos son todos ceros.
Las matrices cuadradas cuyos elementos tienen simetría conjugada: ∗= jiij aa (donde *
indica conjugada compleja) se denominan Hermitianas. Por ejemplo:
+−−+++−−
−+
=
43210
323123
1152
02321
ii
iii
iii
ii
H 1−=i
es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,
es decir jiij aa = , se tiene una matriz simétrica.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2
Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los
elementos con valor significativo están agrupados alrededor de la diagonal principal se
denomina matriz banda. Por ejemplo:
−−−
−−−−
−
=
11
121
121
121
11
B
Las líneas paralelas a la diagonal principal se llaman codiagonales. El número total de
diagonal y codiagonales con elementos significativos en el ancho de banda (3 en este
ejemplo). Para matrices simétricas puede también hablarse de un ancho de semi – banda; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz
banda tiene baja densidad. Por densidad se entiende la razón entre el número de
elementos con valor significativo y el número total de elementos.
Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal
principal son cero se dice que ésta es una matriz triangular inferior (superior):
=
nmnnn lLlll
K
Llll
Lll
Ll
321
333231
2221
11
0
00
000
L
=
nm
n
n
n
u
uu
uuu
uuuu
L
K
L
L
L
000
00
0
333
22322
1131211
U
En lo que sigue se usan letras negritas para denotar matrices. Para las matrices
columna y para las matrices filas se usan minúsculas, mientras que para las matrices
rectangulares (incluyendo las matrices cuadradas) se usan mayúsculas. En todos los
casos, los elementos de una matriz se indican en minúsculas.
2.2 Operaciones Básicas con Matrices
Subdivisión o partición . El conjunto de elementos de una matriz A puede ser dividido
en otros más pequeños mediante líneas horizontales y/o verticales. Las distintas partes,
A11, A12, etc. son submatrices de la matriz A. Las submatrices pueden tratarse como
elementos comunes de una matriz, excepto que deben operarse según las reglas del
álgebra matricial.
Igualdad . Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es
igual al correspondiente elemento de la otra. A = B implica ijij ba = para todo i, j.
Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una
tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)
algebraicamente los correspondientes elementos de las dos matrices originales:
CBA =± ijijij cba =±
La suma (resta) de matrices es asociativa y conmutativa:
( ) ( )CBACBA ++=++ ABBA +=+

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 3
Derivada e integral . Análogamente, puede definirse la derivada de una matriz:
ijij
ba
=∂∂
⇒=∂∂
ααB
A
y la integral de una matriz en forma similar.
Multiplicación por un escalar . El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el
escalar:
ijij ba =⇒= αα BA
Multiplicación de dos matrices . Dos matrices, A (m x p) y B (p x n) pueden ser
multiplicadas en el orden A B sólo si son conformables para el producto, es decir, si el
número de columnas de A es igual al número de filas de B. El producto C (m x n) es
una matriz cuyos elementos se obtienen de:
njmibacp
kkjikij ,1,1
1
==⋅=∑=
Por ejemplo, si:
=4310
264
135
A
=23
42
51
B
BAC ⋅=
702443510
22322614
14312315
32
21
11
=⋅+⋅+⋅=
=⋅+⋅+⋅==⋅+⋅+⋅=
c
c
c
K
=⇒
7028
4822
3914
C
La multiplicación de matrices es asociativa y distributiva, pero en general no es
conmutativa:
CBACBA )()( ⋅=⋅ ACABCBA +=+ )( BAAB ≠
Siendo el orden de multiplicación importante, es frecuente enfatizarlo, diciendo por
ejemplo que en el producto AB la matriz A premultiplica a B, o bien que B postmultiplica
a A. En algunos casos BAAB = ; se dice entonces que A y B son conmutables.
Es fácil verificar que el producto de dos matrices triangulares inferiores (superiores) es
otra matriz triangular inferior (superior).
Transposición . La transpuesta AT de una matriz A es aquella cuyas filas son las
columnas de A (y viceversa). Si )( ijT b== BA , entonces jiij ab = :
=63
52
41
A
=
654
321TA
La transpuesta de una matriz simétrica es obviamente la matriz original. Productos del
tipo AAT resultan siempre en matrices simétricas. Lo mismo puede decirse de
productos SAAT si S es simétrica.
Cuando se transpone un producto matricial la secuencia de los factores debe invertirse:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 4
( ) TTTT ABCCAB KK =
Determinante de una matriz cuadrada . Es un número que resulta de:
∑±==!
321detn
nrkji aaaa KAA
Donde cada término de la suma incluye un solo elemento de cada fila y de cada
columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..
n, los índices de las columnas en cada término de la suma pueden ser obtenidos como
permutación del orden normal. Según el número de cambios requeridos para esta
permutación sea par o impar se asigna al producto correspondiente el signo + o -. La
suma incluye las n! permutaciones posibles.
Las siguientes propiedades facilitan el cómputo de la determinante de una matriz
cuadrada A cualquiera:
• Si se intercambian dos filas (columnas) la determinante cambia de signo.
• La determinante de una matriz, A , es igual a la determinante de su transpuesta.
• El valor de la determinante de una matriz A no se altera si una columna (fila)
multiplicada por un escalar se suma algebraicamente a otra columna (fila):
bcada
bcd
ba
dc
ba−=
−=
0detdet
• En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o
proporcionales) es cero. Más aún,si dos o más columnas (filas) de una matriz A son
linealmente dependientes, es decir α1a1+ α2a2+ α3a3+...+ αn-1an-1+ αnan = 0 para un
conjunto de coeficientes αi de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz A es singular. Considérese por
ejemplo el caso:
=110
121
011
A
A es singular puesto que: ( ) ( ) ( )
=
+
−+
0
0
0
1
1
0
1
1
2
1
1
0
1
1
1
• La determinante de una matriz triangular es igual al producto de los elementos de su
diagonal principal.
• Para un producto matricial se cumple que:
( ) )det()det()det(det CBACBA KK ⋅=⋅
Así, por ejemplo, si:
=
=
24000
24600
12620
4321
1671
0131
0011
0001
25681161
642781
16941
4321
A
entonces: ( ) ( ) 288246211)det( =⋅⋅⋅⋅=A

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 5
Inversa de una matriz . Si una matriz A es no singular, es posible obtener su “inversa”,
A-1, que satisface:
nIAAAA == −− 11 ( ) AA =−− 11
Obviamente nn II =−1 . La inversa de una matriz diagonal es otra matriz diagonal, cuyos
elementos son inversas de los elementos de la matriz original. La inversa de una matriz
triangular (inferior o superior) es otra matriz triangular del mismo tipo.
La inversión de matrices permite efectuar la operación equivalente a la división del
álgebra común.
CABCAB 1−=⇒= (véanse los comentarios del ítem 2.5.5)
Para la inversa de un producto matricial se cumple:
( ) 1111 −−−− = ABCCAB KK
Una matriz Q se denomina ortogonal si: nT IQQ = . Particularmente, si Q es una matriz
cuadrada se tiene entonces que TQQ =−1 . Por ejemplo:
−=
θθθθ
cossen
sencosR
es ortogonal, puesto que:
TRR =
−=−
θθθθ
cossen
sencos1
.
Refiriéndose a una matriz con coeficientes complejos, U, se dice que ésta es unitaria si
IUU =*
2.3 Espacios y Subespacios Vectoriales
Una matriz columna de orden n es un conjunto números que pueden ser interpretados
como componentes de un vector en un espacio de dimensión n.
Se dice que un conjunto de vectores v1 v2 v3 .... v5 son linealmente dependientes si
existen números α1 α2 α3 .... α5, no todos cero, tales que:
055332211 =++++ vvvv αααα K
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno
cualquiera de ellos puede expresarse como combinación lineal de los otros:
∑≠
=ri
iir c vv (y linealmente independientes si esto no es posible).
p vectores linealmente independientes de orden n ( pn ≥ ) conforman una base de un
espacio vectorial de dimensión p. Por otro lado, q vectores, de los que p ( qp ≤ ) son
linealmente independientes, están contenidos en un espacio de dimensión p.
Si los vectores linealmente independientes x1 x2 .... xp constituyen una base de un
espacio vectorial de dimensión p, un sub – conjunto de estos puede considerarse como
base de un sub – espacio contenido en el espacio vectorial original.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 6
Las columnas (o filas) de una matriz rectangular A pueden tratarse como vectores. El
número de vectores linealmente independientes define el “rango” de la matriz. Una
matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si
todas las columnas son linealmente independientes. Lo contrario implica que una o más
columnas (filas) pueden obtenerse como combinación lineal de las otras y la
determinante es cero.
2.4 Sistemas de Ecuaciones Lineales
Se ha estimado que un 75% de los problemas de ingeniería se presenta, en alguna
etapa del trabajo, la solución de un sistema de ecuaciones lineales:
nnnnnnn
nn
nn
nn
bxaxaxaxa
bxaxaxaxa
bxaxaxaxa
bxaxaxaxa
=++++⋅⋅⋅
=++++=++++
=++++
K
K
K
K
332211
33333232131
22323222121
11313212111
(2.1a)
o bien: bAx =
=
nnnnnnn
n
n
n
b
b
b
b
x
x
x
x
aaaa
aaaa
aaaa
aaaa
MM
K
L
K
K
K
3
2
1
3
2
1
321
3333231
2232221
1131211
(2.1b)
En las secciones siguientes se supone que el sistema de ecuaciones tiene solución
única, es decir, que 0)det( ≠A .
La solución de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las
matemáticas “clásicas” y los métodos numéricos modernos. Así, la Regla de Cramer:
=
nnnjnn
nj
nj
nj
nnnnn
n
n
n
j
aaaa
aaaa
aaaa
aaaa
abaa
abaa
abaa
abaa
x
KK
L
KK
KK
KK
KK
L
KK
KK
KK
21
333231
222221
111211
21
333231
222221
111211
det
det
(2.2)
si bien proporciona fórmulas explícitas es tremendamente ineficiente cuando se trata de
resolver sistemas con más de 3 incógnitas (excepto para casos muy especiales de la
matriz de coeficientes).
Muchos métodos frecuentemente utilizados en ingeniería, como por ejemplo los métodos
de elementos finitos para la solución de ecuaciones en derivadas parciales, resultan en

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 7
el planteamiento de grandes sistemas de ecuaciones lineales. El costo de análisis y en
muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran
medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo
utilizado en su solución.
2.5 Métodos Directos para la Solución de Sistemas de Ecuaciones Lineales
Este acápite considera métodos que, de no haber errores de redondeo, producen la
solución exacta en un número finito de pasos. Para sistemas Ax = b, en los que A es de
alta densidad, los métodos directos son en general los más eficientes (para las
computadoras actualmente utilizadas). Sin embargo, cuando un gran número de
elementos de A son cero, y en especial cuando A es definida positiva ( 0>AxxT para
cualquier 0≠x ), puede ser más conveniente utilizar un método iterativo en que se
obtiene una secuencia de soluciones aproximadas que convergen a la solución exacta.
2.5.1. Sistemas Triangulares
La solución de sistemas de ecuaciones lineales es particularmente simple cuando la
matriz de coeficientes es triangular. Por ejemplo, considérese un sistema Ux = b en el
que U es triangular superior:
nnnn
nnnnnnn
nn
nn
nn
bxu
bxuxu
bxuxu
bxuxuxu
bxuxuxuxu
==+
=++=+++=++++
−−− 11,1
33333
22323222
11313212111
KK
K
K
K
(2.3)
Si U es no singular ( 0≠iiu para todo i), las incógnitas pueden evaluarse en el orden: n,
n-1, n-2, n-3, ... 2, 1:
nn
nn u
bx = (2.4a)
−= ∑
+=
n
ik
kikiii
i xubu
x1
1 (2.4b)
Este proceso se denomina “sustitución inversa”. Análogamente, para un sistema Lx = b,
en el que L es una matriz triangular inferior no singular ( 0≠iil para todo i), puede
utilizarse una sustitución directa o “reducción”:
11
11 l
bx = (2.5a)
−= ∑
−
=
1
1
1 i
k
kikiii
i xlbl
x (2.5b)
En ambos casos, la solución del sistema requiere n divisiones y ( )121 −nn operaciones
de multiplicación y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 8
2.5.2 Método de Gauss
Éste es el más importante de los métodos directos para la solución de sistemas de
ecuaciones lineales. La idea básica está en combinar las distintas ecuaciones para ir
eliminando incógnitas en forma sistemática y obtener finalmente un sistema triangular,
fácil de resolver. Considérese el sistema de orden n:
)1()1(3
)1(32
)1(21
)1(1
)1(3
)1(33
)1(332
)1(321
)1(31
)1(2
)1(23
)1(232
)1(221
)1(21
)1(1
)1(13
)1(132
)1(121
)1(11
nnnnnnn
nn
nn
nn
bxaxaxaxa
bxaxaxaxa
bxaxaxaxa
bxaxaxaxa
=++++
=++++
=++++
=++++
K
KK
K
K
K
(2.6)
o en forma compacta: Ax = b. En lo que sigue se supone que A es no singular.
Supóngase también que 011 ≠a . Puede entonces eliminarse x1 de la ecuación i si de
ésta se resta la ecuación 1 multiplicada por:
)1(11
)1(1
1a
al ii = (2.7a)
Con ello se obtiene:
)2()2(3
)2(32
)2(2
)2(3
)2(33
)2(332
)2(32
)2(2
)2(23
)2(232
)2(22
)1(1
)1(13
)1(132
)1(121
)1(11
nnnnnn
nn
nn
nn
bxaxaxa
bxaxaxa
bxaxaxa
bxaxaxaxa
=+++
=+++
=+++
=++++
K
KK
K
K
K
(2.7b)
donde
)1(11
)1()2(
)1(11
)1()2(
blbb
alaa
iii
jiijij
−=
−= (2.7c)
En forma similar, puede eliminarse x2 de las ecuaciones i = 3,4,..n restando de la
ecuación i la ecuación 2 multiplicada por:
)2(22
)2(2
2a
al ii =
y así sucesivamente hasta obtener el sistema triangular:
)()(
)3(3
)3(33
)3(33
)2(2
)2(23
)2(232
)2(22
)1(1
)1(13
)1(132
)1(121
)1(11
nnn
nnn
nn
nn
nn
bxa
bxaxa
bxaxaxa
bxaxaxaxa
=
=++
=+++
=++++
KK
K
K
K
(2.8)
o en notación matricial: Ux = b.
Los elementos )1(1,1
)3(33
)2(22
)1(11 ,, −
−−n
nnaaaa K que se usan como divisores en esta reducción
se llaman “pivotes”. El proceso – tal como ha sido planteado hasta el momento – falla si
alguno de estos es cero. Esto en general no ocurre si la matriz A tiene diagonal

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 9
dominante (es decir, si ∑≠
>ij
ijii aa ) o si A es simétrica (AT = A) y definida positiva
(vTAv > 0 para v arbitrario).
El siguiente ejemplo ilustra el proceso:
=
190
44
10
2
25681161
642781
16941
4321
)1(
)1(
)1(
4
3
2
1
x
x
x
x
Los números indicados a la izquierda (entre paréntesis) son los factores l i1 por los que es
necesario multiplicar la ecuación 1 antes de restarla de la ecuación i, para lograr el
objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.
=
188
42
8
2
25278140
602460
12620
4321
)7(
)3(
4
3
2
1
x
x
x
x
Análogamente:
=
132
18
8
2
1683600
24600
12620
4321
)6( 4
3
2
1
x
x
x
x
=
24
18
8
2
24000
24600
12620
4321
4
3
2
1
x
x
x
x
finalmente:
2432
81262
18246
2424
4321
432
43
4
=+++=++
=+=
xxxx
xxx
xx
x
1
1
1
1
1
2
3
4
−==
−==
x
x
x
x
Para estimar el esfuerzo de cómputo es habitual referirse al número de "operaciones"
requeridas. La costumbre es contar como una operación a la combinación de una suma
(o resta, o simplemente una copia) con una multiplicación (o división). Esta práctica
proviene de las épocas en que el tiempo requerido para efectuar una multiplicación o una
división era un orden de magnitud mayor que el necesario para una suma o una resta,
pudiendo despreciarse estas últimas. La reducción de la matriz de coeficientes requiere
de un número de operaciones de orden 33
1 n . La reducción del segundo miembro y la
sustitución inversa requieren aproximadamente n2 operaciones. Si se tuvieran varios
sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... sólo
se requeriría efectuar la reducción de A una vez, por lo que el número de operaciones
sería siempre aproximadamente 33
1 n . Más precisamente, se hacen nnn 3223
31 2 ++

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 10
operaciones para resolver un sistema de n ecuaciones lineales, pero si n es grande sólo
el primer término es importante.
El proceso antes descrito falla cuando se presenta un pivote, )(iiia , igual a cero. Un
ejemplo simple de tal situación es el siguiente:
=
1
2
1
221
211
111
3
2
1
x
x
x
La matriz de coeficientes no es singular y el sistema tiene una solución única
( )T111 −=x . Sin embargo, después del primer paso (efectuado en el orden indicado
anteriormente), se obtiene:
=
0
1
1
110
100
111
3
2
1
x
x
x
y siendo 0)2(22 =a , no es posible proseguir como habitualmente. La solución es en este
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si 0)( =iiia , algún otro
elemento de la misma columna, )(ijia , debe ser distinto de cero (lo contrario implicaría
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reducción. Dados los
elementos )(ijia de la columna i, es conveniente escoger como pivote aquel de máximo
valor absoluto, puesto que el uso de pivotes pequeños introduce fuertes errores en la
solución. El ejemplo siguiente es ilustrativo:
=
× −
9
7
11
1103
2
111
x
x
Trabajando con 10 cifras significativas se obtiene:
( )
×−=
×−× −
102
1
10
11
10333333333.37
7
10333333333.30
110000000000.3
x
x
de donde: 72 =x
01 =x
La solución correcta es, sin embargo, 21 =x . Es fácil comprobar que no se presenta
este problema si se evita el pivote pequeño intercambiando previamente las ecuaciones:
=
× − 7
9
1103
11
2
111 x
x
El intercambio de filas al que se ha hecho referencia se denomina “intercambio parcial”.
Alternativamente, puede pensarse en un “intercambio completo”, en que se selecciona el
siguiente pivote como el elemento de máximo valor absoluto entre todos los elementos
de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas
(incógnitas) para continuar el proceso como se ha descrito.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 11
El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la
estabilidad numérica, y requiere bastante menos trabajo que el proceso con intercambio
total.
2.5.3 Descomposición A = LU
Supóngase que A es tal que el proceso de reducción del método de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la
descomposición A = LU donde L es una matriz triangular inferior con 1=iil y U es una
matriz triangular superior, es única. Esto puede probarse fácilmente por inducción. Para
el caso del primer ejemplo:
=
24000
24600
12620
4321
1671
0131
0011
0001
25681161
642781
16941
4321
Los elementos de L son justamente los coeficientes ijl usados durante la reducción; U
es en cambio ¡la matriz A reducida!
Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma
matriz de coeficientes pueden ser resueltos simultáneamente. Sin embargo, no siempre
se conocen desde un principio todos los vectores de coeficientes del segundo miembro.
Por ejemplo, puede querer resolverse Ax1 = b y Ax2 = x1. Aún en este caso, al resolver
el segundo sistema no es necesario volver a reducir la matriz A como al inicio. El
sistema Ax = b es equivalente a LUx = b, o bien a los dos sistemas triangulares: Ly = b
, Ux = y. Siendo L y U conocidos, estos dos sistemas pueden resolverse en O(n2)
operaciones. L y U pueden almacenarse en las mismas posiciones de memoria que en
la matriz A: Como )()( iii
ikiki aal = se determina con el objeto de hacer 0)1( =+i
kia ,
kil puede almacenarse en las posición de kia . Por otro lado, no es necesario almacenar
los elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos
de U son aquellos de la matriz reducida, el efecto de la reducción o descomposición en
la distribución de memoria es de la forma:
⇒
nnnnn
n
n
n
nnnnn
n
n
n
ulll
uull
uuul
uuuu
aaaa
aaaa
aaaa
aaaa
K
L
K
K
K
K
L
K
K
K
321
3333231
2232221
1131211
321
3333231
2232221
1131211
Para el ejemplo precedente:
⇒
24671
24631
12621
4321
25681161
642781
16941
4321
En los casos en los que se efectúan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A’,

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 12
donde A’ es la matriz que resulta de efectuar los intercambios mencionados en la matriz
original A.
2.5.4 Otros Métodos Directos
Todos los métodos tratados en esta sección pueden considerarse como variantes del
método de Gauss.
Una posible alternativa es la de calcular los elementos de L y U mediante las fórmulas:
nkkjulauk
pjppkjkjk ⋅⋅⋅+=−= ∑
−
=
,1,1
1
(2.9a)
nkiulau
lk
pkppiki
kkki ⋅⋅⋅+=
−= ∑
−
=
,11 1
1
(2.9b)
en lugar de efectuar “reducciones” como anteriormente. Esta modificación (Doolitle) es
conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos
resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se
hacen con una precisión mayor que aquella con la que se almacenan los resultados.
El método de Crout efectúa la factorización A = LDR, donde L es la misma matriz
triangular inferior obtenida durante el proceso de Gauss, D es una matriz diagonal y R es
una matriz triangular superior con coeficientes 1 en su diagonal principal. D y R están
relacionados con la U de Gauss.
ijd
ur
ud
ii
ijij
iiii
>=
= (2.10)
En particular, para A simétrica: R = LT. Este método no posee ventajas ni desventajas
con relación al de Gauss, bien sea en cuanto a estabilidad numérica y precisión, como
en el número de operaciones necesarias.
Si durante el proceso de reducción se usa la ecuación i para eliminar xi, no sólo de las
ecuaciones que siguen a la i sino también de la ecuaciones precedentes, se tiene el
método de Gauss – Jordan. Para el ejemplo antes considerado:
=
190
44
10
2
25681161
642781
16941
4321
4
3
2
1
x
x
x
x
=
188
42
8
2
25278140
602460
12620
4321
4
3
2
1
x
x
x
x

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 13
−
=
−−
132
18
8
6
1683600
24600
12620
8301
4
3
2
1
x
x
x
x
Nótese que se utilizó la segunda ecuación para reducir no solamente las ecuaciones 3 y
4, sino también la ecuación 1. Análogamente:
−=
−
24
18
10
3
24000
24600
12020
4001
4
3
2
1
x
x
x
x
−
−
=
24
6
2
1
24000
0600
0020
0001
4
3
2
1
x
x
x
x
de donde se obtiene fácilmente la solución.
El método de Gauss- Jordan es más simple de programar, pero requiere casi 1.5 veces
el número de operaciones del método de Gauss tradicional.
Finalmente, para concluir esta sección, debe mencionarse que el método de Gauss es
aplicable también a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:
−+−
=
−++
−
i
i
i
x
x
x
i
ii
i
211
48
24
310
121
012
3
2
1
−+−
=
−+
−
i
i
i
x
x
x
i
i
i
211
35
24
310
110
012
3
2
1
+−
=
+−
3
35
24
100
110
012
3
2
1
i
i
x
x
x
i
i
de donde:
[ ] 1)1(2)24(
2)1(3)35(
3
21
1
2
3
=−−−==+−+=
=
iix
iix
x
2.5.5 Inversión de Matrices
Si la inversa, A-1, de una matriz A se conoce, la solución de un sistema Ax = b puede
escribirse x = A-1b. Podría entonces parecer conveniente determinar A-1, en especial si
se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin
embargo, la solución puede ser obtenida con mucho menos operaciones – y en general
con mucha más precisión – utilizando la descomposición A = LU. La solución de los dos
sistemas triangulares Ly = b y Ux = y requiere sólo O(n2) operaciones (por cada
columna de b ó x). Por otro lado, la multiplicación A-1b también demanda O(n2)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 14
operaciones. Sin embargo, la determinación de A-1 requiere aproximadamente el triple
de trabajo que para obtener L y U. El número de operaciones necesarias para obtener
la inversa de una matriz cuadrada (no simétrica) de orden n es 12 23 +−+ nnn .
No obstante esto, en algunos casos se necesita la inversa en forma explícita. La inversa
puede obtenerse de un modo eficiente resolviendo n sistemas de ecuaciones lineales:
AX = In, donde X = A-1. El siguiente ejemplo utiliza una variante del método de Gauss
con este objeto:
=413
312
111
A
En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la
derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:
413
312
111
100
010
001
−−
120
110
111
−−
103
012
001
−−
100
110
201
−−
−
121
012
011
100
010
001
1
121
111
231−=
−−−
−A
Alternativamente, si la descomposición A = LU de una matriz A se conoce, la inversa
puede obtenerse de A-1 = U-1L-1, también en O(n2) operaciones. Si en los cómputos
para L y U se hacen intercambios de filas, el producto U-1L-1 resulta la inversa de una
cierta matriz A’. La matriz A-1 puede obtenerse a partir de (A’)-1 intercambiando
columnas en secuencia inversa a los cambios de fila durante el proceso.
Para la matriz antes considerada:
LUA =
−−
=
100
110
111
123
012
001
413
312
111
La inversa de una matriz triangular es otra matriz del mismo tipo, fácil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser
obtenida por sustitución directa o “reducción”: LY = In.
0=ijy ji < (2.11a)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 15
−= ∑
−
=
11 i
jkkjikij
iiij yl
ly δ ji ≥ (2.11b)
En forma análoga, la inversa, U-1, de una matriz triangular superior, U, es también una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = In:
−= ∑
−
=
11 j
ikkjikij
jjij uz
uz δ ji ≤ (2.12a)
0=ijz ji > (2.12b)
Para las matrices L y U del ejemplo considerado:
−−−=
−−= −−
100
110
211
121
012
00111 UL
−−−
−== −−−
121
111
231111 LUA
2.5.6 Casos Especiales
Matrices Simétricas Definidas Positivas.
Para una matriz simétrica: )1()1(kjjk aa = . Si se efectúa la reducción de Gauss sin
intercambio de filas y/o columnas se tiene también que: )()( ikj
ijk aa = para ji < , nk ≤ .
En otras palabras, la sub – matriz que debe aún reducirse en un paso dado es también
simétrica. Esto puede probarse por inducción, teniendo en cuenta las condiciones
iniciales de simetría y además que:
)()(
)()()()()1( i
ijiii
ikii
kji
ijkii
kji
kj aa
aaalaa −=−=+ (2.13a)
)()(
)()()()()1( i
ikiii
ijii
jki
ikjiijk
ijk a
a
aaalaa −=−=+ (2.13b)
Puede observarse que, si los coeficientes en la etapa i son simétricos, aquellos en la
etapa 1+i también lo son, puesto que se obtienen operando del mismo modo con
números iguales.
Considérese, por ejemplo, el sistema de ecuaciones con coeficientes simétricos:
=
−−−
−−−
0
0
1
0
5410
4641
1464
0145
4
3
2
1
x
x
x
x
En las sucesivas etapas del proceso de eliminación, las sub matrices que quedan por
reducir siguen siendo simétricas:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 16
=
−−−
−−
0
0
1
0
5410
40
10
0145
4
3
2
1
529
516
516
514
x
x
x
x
−
=
−−
−−
145
78
4
3
2
1
1465
720
720
715
516
514 1
0
00
00
10
0145
x
x
x
x
=
−−
−
6778
4
3
2
1
65
720
715
516
514 1
0
000
00
10
0145
x
x
x
x
de donde
=
7
12
13
8
5
1
4
3
2
1
x
x
x
x
La simetría de la matriz por reducirse permite hacer: )()( iii
iikki aal = (utilizando )(i
ika en
lugar de )(ikia ) y restringir los cálculos de: )()()1( i
ijkii
kji
kj alaa −=+ a las columnas njk ≤≤ ,
en lugar de nji ≤≤ . El número de operaciones para la reducción es entonces
)( 26
1 nO , aproximadamente la mitad que para el caso general.
También los requerimientos de memoria pueden reducirse, almacenando los coeficientes
de la matriz en un arreglo monodimensional. Para el caso de una matriz simétrica de
alta densidad el siguiente esquema de numeración de los coeficientes es apropiado:
+ )1(
15
1410
1396
12853
117421
21 nn
MM
MM
MM
MM
MM
MM
Es evidente que intercambios de filas y columnas destruyen la simetría, a menos que se
tome siempre como pivote un elemento de la diagonal principal. Tales intercambios no
son necesarios si la matriz es definida positiva (xTAx > 0 para x arbitraria, no nula), ya
que en tal caso:
0)( >kiia nki ≤≥ ,1
)()(2)( kjj
kii
kij aaa ≤ njik ≤≤ , (2.14)
)()1( 2 kii
kii aa ≤+ nik ≤<
Estas condiciones garantizan que no se presentan pivotes pequeños.
Para el caso de matrices simétricas definidas positivas puede también utilizarse el
método de Cholesky. Éste método efectúa la descomposición A = RTR, donde R es una
matriz triangular superior cuyos elementos pueden obtenerse (por filas) de:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 17
21
1
1
2
−= ∑
−
=
i
ppiiiii rar (2.15a)
L,2,11 1
1
++=
−= ∑
−
=
iijrrar
ri
ppjpiij
iiij (2.15b)
Para el ejemplo anterior se obtiene:
( ) == 21
1111 ar 2.2360
== 111212 rar -1.7888
== 111313 rar 0.44721
== 111414 rar 0
( ) =−= 21
2122222 rar 1.6733
( ) =−= 2213122323 rrrar -1.9123
( ) =−= 2214122424 rrrar 0.5976
( ) =−−= 21
223
2133333 rrar 1.4639
( ) =−−= 33242314133434 rrrrrar -1.9518
( ) =−−−= 21
234
224
2144444 rrrar 0.9129
es decir:
−−
−
=
9129.0000
9518.14639.100
5976.09123.16733.10
04472.07888.12360.2
R
El sistema Ax = b puede entonces rescribirse como RTRx = b o bien RTy = b; Rx = y
Resolviendo el primer sistema triangular:
=
2781.1
7808.0
5976.0
0
y
y finalmente:
=
7
12
13
8
5
1x
Puede anotarse que R está relacionada con las L y U de Gauss mediante RT= LD;
R = D –1U; donde D = diag ( )nnuuu L2211 .

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 18
Matrices Banda.
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el método de Gauss y otros
similares, ya que éstos conservan la estructura de banda de las matrices: A = LU:
−−
−−
−−
−−
=
−−−
−−−−
−
10000
11000
01100
00110
00011
11000
01100
00110
00011
00001
21000
12100
01210
00121
00011
Nótese que A–1 = U–1L–1 no es una matriz banda:
=−
11111
12222
12333
12344
12345
1A
y por lo tanto no conviene hallar 1−A en forma explícita.
Particularmente simples de tratar son los sistemas con matrices banda simétricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
)21()14(
)20(
7
136
19125
18114
17103
1692
1581
⋅⋅⋅⋅
⋅⋅⋅⋅
⋅⋅⋅
=A
Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
número fijo de coeficientes en cada codiagonal, lo que facilita la programación. Siendo
el ancho de la semibanda, m, mucho menor que el número de ecuaciones, n, las
posiciones de memoria “perdidas” son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
Otra posibilidad es:
⋅⋅⋅⋅⋅⋅
⋅⋅⋅⋅
⋅⋅⋅
=
20
1917
181612
15119
141086
13753
421
A

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 19
Esta forma de almacenamiento es más eficiente cuando el ancho de banda es variable
(como ocurre en la mayor parte de los problemas reales). Se guardan los coeficientes
por columnas, desde el “perfil” superior a la diagonal principal. Se requiere un arreglo de
apuntadores o índices que indican las posiciones ocupadas por los coeficientes de la
diagonal principal (que son los más referidos durante el proceso de solución). Nótese
que al aplicar el método de Gauss (o cualquier variante de ese procedimiento) no se
producen valores significativos por encima del perfil original y por lo tanto no se requiere
más memoria que aquella en la situación inicial.
Se necesitan nm posiciones de memoria (donde n es el orden de la matriz y m << n el
ancho de semibanda), mucho menos que las n2 posiciones para la matriz completa o las
( )121 +nn para una matriz simétrica de alta densidad. Por otro lado, la reducción de la
matriz de coeficientes demanda sólo ( )22
1 nmO operaciones, ya que:
0=ijl excepto para mjij +<≤
0=iju excepto para miji +<≤
Esto debe compararse con ( )36
1 nO operaciones para reducir una matriz simétrica de
alta densidad. La reducción del segundo miembro y la sustitución inversa requieren
( )nmO 2 , en lugar de ( )2nO operaciones. En la práctica, rara vez se tiene un ancho de
banda constante, pero aún así estos estimadores son útiles, si se considera m como la
media cuadrática de los anchos de semibanda en las ecuaciones.
Un caso especial es aquel en que la matriz de coeficientes es “tridiagonal”:
=
−−
−
−−−
n
n
n
n
nn
nnn
c
c
c
c
c
x
x
x
x
x
ab
bab
bab
bab
ba
1
3
2
1
1
3
2
1
1
112
332
221
11
MMO (2.16)
Los únicos coeficientes significativos son aquellos de la diagonal principal y de dos
codiagonales, es decir, dos líneas paralelas a la referida diagonal.
Se observa que al descomponer la matriz de coeficientes, A, en sus factores triangulares
LU los factores mantienen la estructura banda:
=
−
−
−
−
−−−
n
n
n
n
nn
nnn
r
b
r
br
br
br
q
q
q
q
ab
bab
bab
bab
ba
1
4
33
22
11
1
2
2
1
1
112
332
221
11
1
1
1
1
1
O
OOOO
La determinación de los iq y ir es muy simple:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 20
iiii
iii
bqar
n,,ia/bq
ar
−=−==
=
++ 11
11
121 L (2.17a)
y, considerando L y = c:
12111
11
−=−==
++ n,,iyqcy
cy
iiii L (2.17b)
de donde se obtiene x resolviendo U x = y:
1211 ,,nir/)xby(x
r/yx
iiiii
nnn
L−=−==
+
Para resolver un sistema de n ecuaciones lineales con matriz de coeficientes tridiagonal
se requieren sólo 45 −n operaciones. Como se indicó anteriormente, se cuenta como
una operación la combinación de una multiplicación o división con una suma, resta o
almacenamiento del resultado.
Grandes sistemas de ecuaciones lineales
(con matrices de coeficientes banda, simétricas y definidas positivas).
Cuando la memoria de la computadora es insuficiente para almacenar todos los
coeficientes del sistema de ecuaciones, se recurre al disco. El acceso a este medio es
(en términos relativos) muy lento y en lo posible debe tratar de minimizarse su uso.
Es frecuente subdividir la información de sistemas de ecuaciones excesivamente
grandes en “bloques” de una o más ecuaciones (o columnas).
Los datos de cada bloque se almacenan en disco. Éstos son leídos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solución del sistema de ecuaciones por el método de Gauss (u otro similar)
requiere mantener en memoria principal la información de por lo menos dos bloques en
forma simultánea. Así por ejemplo, durante el proceso de reducción, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequeña), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser leídos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitución inversa.
2.6. Errores en la Solución de Sistemas de Ecuaciones Lineales
En la solución práctica de grandes sistemas de ecuaciones lineales se realizan millones
de operaciones y en cada una ocurren errores de redondeo, ¿Cómo afectan estos
errores a los resultados? ¿Cómo puede estimarse la magnitud del error en la solución?
Podría pensarse que, habiendo resuelto el sistema A x = b, la magnitud del residuo r = b – A x sea una buena medida del error introducido en x. !Esto es falso! Considérese por ejemplo:
A =
659.0913.0
563.0780.0 b =
254.0
217.0

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 21
Y supóngase que se ha resuelto A x = b obteniendo x1 = (0.341 -0.087)T ¿Qué tan
buena es esta solución?
r1 = b – A x1 = (10-6 0)T
Por otro lado si se afirma que la solución es x2 = (0.999 -1.001)T se obtiene el residuo.
r2 = b – A x2 = (1.343x10-3 1.572x10-3)T
¿Es x1 mejor solución que x2? No. La solución exacta es x = (1 -1)T.
Aunque la magnitud del vector residuo r = b – A x no da una indicación directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solución.
Esto se discute más adelante.
2.6.1 Normas de Vectores y Matrices
Con el propósito de discutir los errores al resolver sistemas de ecuaciones lineales, se
define como norma (o medida) de un vector:
∞≤≤++= pxx pppp
1)( /121 Kx (2.18a)
Dos casos particulares son de interés:
2/122
212
)( K++= xxx (norma Euclidiana) (2.18b)
ixmáx=∞x (máximo valor absoluto) (2.18c)
Es relativamente fácil probar que:
0≥x sólo hay igualdad si x = 0
xx aa = (2.19)
yxyx +≤+
Estas propiedades son familiares en relación a la norma Euclidiana o “longitud” de un
vector.
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definición de norma de un vector:
p
p
pmáx
x
xAA = ( )0x ≠ (2.20a)
La norma 2
A es 2/1
máxλ , donde máxλ es el máximo valor característico de ATA (ver
capítulo 3). Por otro lado:
∑=
∞=
n
1j
iji
amáxA (2.20b)
Estas normas satisfacen condiciones similares a las normas de vectores. Además:
BABA ≤ (2.21)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 22
2.6.2 Condicionamiento de una matriz:
En esta ecuación se analizan los efectos de una pequeña perturbación Aδ en la matriz
A, o de una perturbación bδ en b.
Si x es la solución exacta de A x = b, cuando se considera la matriz de coeficientes
AA δ+ la solución resulta xx δ+ :
bxxAA =δ+δ+ )()( (2.22)
de donde:
)(1 xxAAx δ+δ−=δ −
tomando normas:
xxAAx δ+δ≤δ −1
y dividiendo entre xx δ+ :
( )A
AA
xx
x δΚ≤
δ+δ
(2.23)
donde ( ) 1−= AAAK (2.24)
es el número de condicionamiento de la matriz A. Dado que 2/1
2
1−− λ= mínA , donde
minλ es el menor valor característico de la matriz ATA, puede escribirse:
( ) ( ) 2/1
2 / mínmáxK λλ=A (2.25)
Por otro lado: para una perturbación bδ en b:
bbxxA δ+=δ+ )( (2.26)
de donde:
bAx δ=δ −1
bAx δ≤δ −1
y dado que b = A x, lo que implica A
bx ≥
se obtiene:
( )b
bA
x
x δ≤
δK (2.27)
Las ecuaciones (2.23) y (2.27) indican que, si ( )AK es grande, pequeños cambios en A
o en b pueden originar cambios importantes en la solución.
Si se tienen errores relativos de orden ∈ tanto en A como en b, (2.23) y (2.27) pueden
combinarse, para escribir:
xAx )(2 K∈≤δ (2.28)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 23
Los errores de redondeo introducidos en el proceso de solución pueden ser
considerados como equivalentes a perturbaciones en las matrices A y b iniciales. ( )AK
es también un buen indicador de los efectos de los errores de redondeo en la solución.
La expresión (3) implica que si A y b están dadas con t cifras significativas, el número de
cifras que puede esperarse sean correctas en la solución, s, puede estimarse mediante:
[ ])(log10 AKts −≥ (2.29)
Para el ejemplo precedente: ∞A = 0.913 + 0.659 = 1.572
además:
−−
=−
780.0913.0563.0659.0
1061A
de donde ∞
−1A = 0.913 x 106 + 0.780 x 106 = 1.693 x 106
( )∞
−∞∞ = 1AAAK = 1.572 x 1.693 x 106 = 2.7 x 106
Alternativamente, trabajando con normas Euclidianas:
=
751250.0040807.1
0040807.1441969.1AAT
cuyos valores característicos son máxλ = 2.1932, mínλ = 4.56 x 10-13
de donde ( ) ( ) 2/1mínmáx2 / λλ=AK = 2.2 x 106
Ambos resultados indican un mal condicionamiento de la matriz A.
Note que en el ejemplo anterior la matriz A no era simétrica, por lo que fue necesario
evaluar los valores característicos de AAT . Si A fuera simétrica, los valores
característicos de AAT serían exactamente los cuadrados de los valores característicos
de A.
2.6.3 Errores de redondeo en la solución de sistema s de ecuaciones lineales por el método de Gauss (y otros métodos de elimina ción similares)
Las relaciones teóricas utilizadas en la reducción son:
)()( / iii
ikiki aal =
)()()1( iijki
ikj
ikj alaa −=+
(2.30)
)()()1( iiki
ik
ik blbb −=+
Sin embargo, como resultado de los errores de redondeo, los valores calculados (aquí
indicados en barras) satisfacen:
)1)(/( 1
)()(δ+=
i
ii
i
kiki aal
)1))(1(( 32
)()()1(δ+δ+−=
+ iijki
ikj
ikj alaa (2.31)
)1))(1(( 54
)()()1(δ+δ+−=
+ i
iki
i
k
i
k blbb
donde ∈≤δ i , siendo ∈ el máximo error relativo de redondeo. Alternativamente puede
escribirse:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 24
)()()(/)(
iii
iki
ikiki aeal +=
)()()()1( ikj
iijki
ikj
ikj ealaa +−=
+ (2.32)
)()()()1(
ik
i
iki
i
k
i
k eblbb +−=+
y puede probarse que:
)()(
i
kii
ki ae ∈≤
∈≤+ )1()(
)( ,.3i
kj
i
kji
kj aamáxe (2.33)
∈≤+ )1()(
)( ,.3i
k
i
ki
k bbmáxc
Por otro lado, considerando que . kjkj aa =)1(, 1=kkl , pueden utilizarse las expresiones
precedentes para escribir kja en función de los )1(
, ijki al . (es decir los elementos de las
matrices L y U). Se obtiene así:
( ) ∑∑==
=+s
i
iijki
r
i
ikjkj alea
1
)(
1
(2.34a)
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que kk bb =)1(, se
obtiene:
( ) ∑∑=
−
=
=+k
i
i
iki
k
i
ikk blcb
1
)(1
1
(2.34b)
Esto demuestra que las matrices calculadas:
)( kil=L
)()(i
ija=U
)( )(iib=y
No son factores exactos de A y b sino de A + ∆A y b + ∆b:
ULAA =∆+
yLbb =∆+
Los elementos de ∆A son sumatorias de los ( )ikje ; los elementos de ∆b son sumatorias
de los ( )ikc . Las expresiones (4) dan una medida de estas perturbaciones. Obsérvese
que las expresiones (2.23) y (2.27) son aplicables también en este caso, y un valor de
)(AK alto indica que los errores de redondeo tendrán efectos importantes en la
solución.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los )(ikja , )(i
kb . Este es el propósito al realizar intercambios de filas y/o
columnas.
Finalmente, debe mencionarse que en el proceso de sustitución inversa, para obtener x
resolviendo yxU = , los errores acumulados son despreciables en términos relativos a
los que resultan de la reducción.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 25
Las ecuaciones precedentes permiten una estimación a-posteriori de la magnitud del
error. A-priori puede establecerse (1):
)1(
,
)(
,,
ijji
kij
kjin
amáx
amáxg = (2.35)
teniendo que:
12 −≤ nng para intercambio parcial (filas)
n 25.08.1 Lnn ng ≤ para intercambio total.
Estos límites son teóricos. Nótese por ejemplo que para un sistema de orden 100 se
tendría 29103.6 xgn ≤ para intercambio parcial y 18≤ng para intercambio completo, lo
que justificaría el trabajo adicional necesario para la segunda alternativa. Sin embargo,
en la práctica rara vez se observa un ng mayor que 10, aún con intercambio parcial.
Para matrices simétricas definidas positivas se tiene que 1≤ng .
2.6.4 Algunas consideraciones relativas a unidades. Equilibrio de las ecuaciones.
En un sistema de ecuaciones A x = b... los aij, bi, xj pueden expresarse en diversos
sistemas de unidades. Un cambio de unidades equivale a considerar b = D1 b’; x = D2 x’
y por lo tanto (D1 A D2) x’ == D1 b’. En estas expresiones las matrices D1 y D2 son
diagonales. Puede demostrarse que, si se utilizan los mismos pivotes y las D1 y D2 solo
contienen potencias enteras de la base del sistema de numeración utilizado, los
resultados son los mismos (habida cuenta de los cambios de unidades).
Sin embargo las unidades utilizadas pueden afectar la selección de pivotes,
especialmente si sólo se hace intercambio parcial.
En tal caso, es recomendable equilibrar las ecuaciones. Para las incógnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D1 tales que:
11
=≤≤ ij
njamáx i=1,2,3,...n
2.6.5 Método iterativo para mejorar la solución
Considérese el sistema de ecuaciones bAx = para el que se tiene la solución
aproximada )0(x . Si x es la solución exacta, se tiene que:
)0()0( xxx ∆+=
y entonces:
)0()0( rxA =∆
donde: )0()0( Axbr −=
Al determinar . )0(x . se obtienen los factores triangulares aproximados L y U tales que
AAUL ∆+= , siendo A∆ pequeño. Esta descomposición requiere aproximadamente
( )33
1 nO operaciones.
A partir de )0(x puede determinarse )0(r en ( )2nO operaciones y resolverse:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 26
rzL =
zxU =∆
también en ( )2nO operaciones. Dado que L y U no son los factores exactos de A , y
además se introducen nuevos errores de redondeo, es necesario iterar:
)()( ii xAbr −= )()( ii rzL = (2.36)
)()( ii zxU =∆ )()()1( kkk xxx ∆+=+
Pero nada se ganaría si las operaciones se hicieran siempre con el mismo número de cifras significativas empleadas en los cómputos originales. Si los ija ib ix están dados con t dígitos, el cómputo de los residuos:
∑=
−=n
j
kjiji
ki xabr
1
)()(
debe hacerse con t2 dígitos (para minimizar errores de cancelación). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisión simple, es decir, con t
dígitos.
Los vectores )1(x∆ y )2(x permiten también estimar el número de condicionamiento:
( ))2(
)1(1
x
xA
∆
ε≤κ
n (2.37)
donde n es el orden del sistema y ∈ es el máximo error relativo de redondeo (al operar
en precisión simple). Si )1(x∆ no es mucho menor que )1(x , o lo que es lo mismo,
si ( ) εκ nA no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la única alternativa sería operar con mayor precisión en toda la solución.
Considérese, por ejemplo, el sistema de ecuaciones:
−=
.0
1
.0
623
2117
375
3
2
1
x
x
x
y supóngase que la computadora opera en base 10 con 3 cifras significativas. La
factorización de la matriz de coeficientes, ULA = , resulta en:
−
−=
17.0
20.220.1
00.300.700.5
00.183.160.0
00.140.1
00.1
623
2117
375
De la reducción del segundo miembro, es decir la solución de byL = se obtiene:
( )T83.100.100.0 −−=y
Finalmente por sustitución inversa, es decir resolviendo yxU = , se determina
( )Tx 8.106.203.35)1( −−=

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 27
Para esta solución aproximada se tiene el residuo:
( )T100.0100.0100.0)1()1( =−= xAbr
El cómputo de los ∑− jiji xab deben hacerse en doble precisión, almacenándose los
resultados ir en precisión simple.
Resolviendo los dos sistemas triangulares: )1(rzL = y zxU =∆ )1( se obtiene:
( ) T195.0391.0685.0)1( −−=∆x
Y entonces:
( ) T0.110.210.36)1()1()2( −−=∆+= xxx
(redondeado a 3 cifras significativas). Este resultado es mejor que )1(x (en este caso el
resultado es exacto, aunque debería decirse que por accidente).
Puede verificarse fácilmente que la matriz A del ejemplo anterior es bien condicionada.
Por otro lado, considérese nuevamente el sistema:
=
254.0
217.0
659.0913.0
563.0780.0
2
1
x
x
para el cual se obtuvo anteriormente ( )Aκ de orden 2 x 106. Supóngase que se opera
en base 10 con 6 cifras significativas:
⋅
=
−6103
000563.0000780.0
00000.105117.1
00000.1
659.0913.0
563.0780.0
se pierden cifras significativas en el elemento 22a de esta última matriz al restar dos
números que solo difieren en la última cifra almacenada). De aquí resultan:
( ) T333333.0803518.0)1( −=x
( )T66)1( 10692.010139.0 −− ⋅⋅=r
No obstante ser este residuo “pequeño”, se obtiene la corrección:
( ) T433176.0348127.0)1( −=∆x
( ) T900156.0455391.0)1()1()2( −=∆+= xxx
y es obvio que este resultado difiere más de la solución exacta ( ) T11 −=x que la
aproximación )1(x antes obtenida. ¡Para resolver este sistema de ecuaciones se
requiere trabajar con un mínimo de 8 cifras significativas!
2.7.Métodos Iterativos para la Solución de Sistemas de Ecuaciones Lineales
En los acápites siguientes se tratan dos tipos distintos de métodos iterativos. Estos
procesos pueden ser muy eficientes cuando la matriz de coeficientes, A , es de baja
densidad, más aún si la evaluación de productos de la forma Av no requiere la previa
determinación y el almacenamiento de A en forma explícita.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 28
2.7.1 Métodos de Relajación
Estos procedimientos son adecuados sólo cuando la diagonal principal de la matriz de
coeficientes es dominante. En general, se considera una aproximación inicial, tal como
0x =)0( , y ésta es sucesivamente mejorada hasta obtener una solución suficientemente
precisa.
Considérese el sistema de orden n : bxA = , con 0≠iia para todo i . En el método de
Jacobi se calculan las aproximaciones L)3()2()1( ,, xxx mediante:
−= ∑
≠
+
ij
kjiji
ii
ki xab
ax )()1( 1
(2.38)
La aproximación es arbitraria; con frecuencia 0x =)0( . Si los )1( +kix se determinan en el
orden habitual, al determinar )1( +krx ya se han previamente obtenido las nuevas
aproximaciones )1(1
)1(2
)1(1 , +
−++ k
rkk xxx L . Sin embargo, en el método de Jacobi no se hace
uso de estas nuevas aproximaciones hasta la iteración siguiente, difiriendo en esto del
método de Gauss - Seidel:
−−= ∑∑
+=
−
=
++n
ij
kjij
i
j
kjiji
ii
ki xaxab
ax
1
)(1
1
)1()1( 1 (2.39)
Nótese que sólo se requiere almacenar las últimas aproximaciones a los ix .
En el ejemplo siguiente se usan las dos alternativas:
−−
=
−−−−−−
−−
75.2
1
75.2
1
5110
1501
1051
0115
4
3
2
1
x
x
x
x
La solución exacta es
( )T50.025.050.025.0 −−=x
Con el método de Jacobi se obtienen las sucesivas aproximaciones:
k )(1
kx )(2kx )(
3kx )(
4kx
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
3 0.242 0.508 -0.242 -0.508
4 0.2532 0.4968 -0.2532 -0.4968
5 0.24872 0.50128 -0.24872 -0.50128
6 0.250512 0.499488 -0.250512 -0.499488
7 0.249795 0.500205 -0.249795 -0.500205
8 0.250082 0.499918 -0.250082 -0.499918
9 0.249967 0.500033 -0.249967 -0.500033
10 0.250013 0.499987 -0.250013 -0.499987
11 0.249995 0.500005 -0.249995 -0.500005
12 0.250002 0.499998 -0.250002 -0.499998

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 29
k )(1
kx )(2kx )(
3kx )(
4kx
13 0.249999 0.500001 -0.249999 -0.500001
14 0.250000 0.500000 -0.250000 -0.500000
15 0.250000 0.500000 -0.250000 -0.500000
La convergencia es mejor con el método de Gauss – Seidel:
k )(1
kx )(2kx )(
3kx )(
4kx
0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
En algunos casos la convergencia puede acelerarse con sobrerelajación:
)()()1( ki
ki
ki rxx β+=+ (2.40a)
−−= ∑∑
=
−
=
+n
ij
kjij
i
j
kjiji
ii
ki xaxab
ar )(
1
1
)1()( 1 (2.40b)
El valor óptimo de β depende de A e incluso de la aproximación )(kx . Cuanto mayores sean los valores absolutos de los términos de la diagonal principal, respecto a la suma de los valores absolutos de los restantes coeficientes de la misma fila, más se aproxima β a 1. Para el ejemplo precedente, utilizando 05.1=β se obtienen:
k )(1
kx )(2kx )(
3kx )(
4kx
0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
6 0.250000 0.500000 -0.250000 -0.500000
Estos métodos no son necesariamente más precisos que los procesos de eliminación. El
ejemplo al inicio de la sección 2.6 muestra que si el sistema es mal condicionado puede
aceptarse como correcta una solución totalmente equivocada, pero con la que se tiene
un residuo “pequeño”.

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 30
2.7.2 Convergencia
En esta sección se analiza la convergencia de los métodos de relajación. Un paso típico
en la solución de bxA = puede escribirse como:
fxGx +=+ )()1( kk (2.41)
Esto puede verse más fácilmente si se considera la descomposición:
( )si TITDA ++= (2.42)
donde D es una matriz diagonal, con elementos iia ; iT y sT son matrices triangulares,
inferior y superior respectivamente, con ceros en la diagonal principal, cuyos coeficientes
son los iiij aa . Por ejemplo:
−+
+
−
=
−−
00
0
10
01
0
00
20
02
21
1221
21
Con esta notación, para el método de Jacobi se tiene:
( ) bDxTTx 1)()1( −+ ++−= ksi
k (2.43a)
es decir: ( )si TTG +−= (2.43b)
mientras que para el método de Gauss-Seidel puede escribirse:
bDxTxTx 1)()1()1( −++ +−−= ks
ki
k (2.44a)
y por lo tanto: ( ) si TTIG 1−+−= (2.44b)
De modo similar, para el método de sobre relajación se tiene:
( ) ( )[ ]si TITIG β−β−β+= − 11 (2.45)
Por otro lado, dado, que la solución exacta, x , debe cumplir la ecuación (2.41), se tiene
que:
fxGx += (2.46)
y restando (2.46) de (2.41):
( ) ( )xxGxx −=−+ )()1( kk (2.47a)
de donde:
( ) ( ) ( ) ( )xxGxxGxxGxx −==−=−=− +−+ )0(1)1(2)()1( kkkkL (2.47b)
Además, si nφφφφ L321 ,, son los vectores característicos de la matriz G , a los que
corresponden los valores característicos nλλλλ L321 ,, , puede escribirse:
( ) nn φα++φα+φα+φα=− L332211)0( xx
ya que los vectores característicos constituyen una base completa. Es relativamente
fácil probar que:
( ) ( ) nknn
kkkkk φλα++φλα+φλα+φλα=−=− L333222111)0()( xxGxx (2.47c)
Para tener convergencia:
( ) 0xx =−∞→
)(k
kLim (2.48a)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 31
y por tanto se requiere 1<λ i para todo i , o lo que es lo mismo:
( ) 1≤λ=ρ ii
máxG (2.48b)
( )Gρ se denomina el radio espectral de la matriz G .
Para k suficientemente grande el error se multiplica por ( )Gρ en cada paso, es decir se
tiene aproximadamente ( )[ ]Gρ− 10log cifras decimales exactas adicionales en cada
paso.
No es práctico determinar con gran precisión los valores característicos de G (esto
significaría más trabajo que resolver el sistema de ecuaciones), pero ciertos límites
pueden ser fácilmente establecidos.
Para el método de Jacobi: iiijij aag −= si ji ≠ (2.49a)
0=iig
y utilizando el teorema de Gerschgorin (véase el capítulo relativo a la evaluación de
valores y vectores característicos):
( ) ∑≤λ=ρj
iji
ii
gmáxmáxG o bien ∑i
jij
gmáx (2.49b)
con lo que la condición de convergencia ( ) 1≤ρ G puede rescribirse:
∑≠=
>n
jii
ijjj aa1
∑≠=
>n
ijj
ijii aa1
(2.49c)
Estas son condiciones suficientes pero no necesarias. La convergencia es más rápida
cuanto más fuertes son las desigualdades.
Para el método de Gauss – Seidel ( ) ( )[ ]iii
srmáx −=ρ 1G (2.50a)
donde:
∑+=
>n
ij ii
ij
i a
ar
1
∑−
=
>1
1
i
j ii
iji a
as (2.50b)
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el método de Jacobi (aunque en general el método de Gauss -Seidel converge más
rápidamente).
Un análisis similar del método de sobre relajación permite establecer la condición
adicional: 20 ≤β<
2.7.3 Métodos de Máxima Gradiente y de Gradiente Co njugada
En la primera parte de esta sección se consideran métodos para la solución de sistemas
de ecuaciones bxA = con matriz A simétrica y definida positiva, es decir, 0>vAvT
para todo vector v no nulo.
Considérese la función:
bxxAxx TTf −=21)( (2.51)
Si x es la solución exacta de bxA = se tiene que:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 32
( ) ( )( ) ( )xxAxx
bxxAxbxxAxxx
−−=
−−−=−T
TTTTff
21
21
21)()(
Pero, siendo A definida positiva: ( ) ( ) 021 ≥−− xxAxx T
Y por lo tanto 0)()( ≥− xx ff , es decir, )()( xx ff ≥ (2.52)
La igualdad solo se da si xx = . La solución de bxA = es entonces equivalente a una
minimización de )(xf .
Dada la aproximación inicial )0(x , a la que corresponden el residuo )0()0( xAbr −= y el
valor )(xf , debe determinarse una nueva aproximación, )1(x , tal que )()( )0()1( xx ff < .
Para reducir el valor de )(xf lo más rápidamente posible, la corrección debe hacerse en
la dirección de máxima gradiente. Debe entonces determinarse esta dirección, z , tal
que:
0
)0( )(=α
α+α
zxfd
d
sea máxima (en valor absoluto). Siendo bxxAxx TTf −=21)( , puede escribirse:
)(
)()()()()0()0(2
21
)0()0()0(21)0(
xrzzAz
bzxzxAzxzx
f
fTT
TT
+α−α=
α+−α+α+=α+ (2.53a)
de donde:
)0(
0
)0( )( rzzx Tfd
d −=α+α =α
Esto significa que debe tomarse la dirección )0(rz = (2.53b)
Ahora puede determinarse 0α de modo que )( )0(0
)0( rx α+f sea un mínimo.
Rescribiendo (2.53a) con )0(rz = y derivando con respecto a α :
0)( )0()0()0()0()0()0( =−α=α+α
rrrArrxTT
fd
d
de donde:
)0()0(
)0()0(
0rAr
rrT
T
=α
(dado que A es definida positiva, nunca se presenta el caso 0)0()0( =rArT
)
Finalmente:
)0(0
)0()1( rxx α+=
El proceso puede repetirse en sucesivos ciclos:
)()( kk xAbr −= (2.54a)
)()(
)()(
kTk
kTk
krAr
rr=α (2.54b)
)()()1( kk
kk rxx α+=+ (2.54c)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 33
Este método es siempre convergente, pero no puede conocerse a priori en cuantos
ciclos se tendrá la precisión requerida.
En los párrafos siguientes se estudia una modificación de este proceso, el método de
Gradiente Conjugada, para el que – al menos en teoría - puede garantizarse la
convergencia en un número de pasos igual o inferior al orden del sistema de ecuaciones.
Considérese el sistema de ecuaciones de orden n , bxA = . Dada una solución
aproximada, )0(x , la solución exacta, x , puede escribirse como:
xxx ∆+= )0(
x∆ puede expresarse como combinación lineal de n vectores linealmente
independientes. En particular, si se consideran vectores 12210 ,,, −− nn sssss L , que
satisfacen las relaciones de ortogonalidad:
ijijTi c δ=sAs
puede escribirse:
11)1()(
)()1(
11)1()2(
00)0()1(
−−−
+
α+==
α+=
α+=
α+=
nnnn
kkkk
sxxx
sxx
sxx
sxx
LL
LL
alternativamente:
∑−
=
α+=1
0
)0(n
k
kk sxx (2.55)
Suponiendo que los vectores ks son conocidos, los coeficientes kα pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:
( ) ∑−
=
α=−=−=1
)()()(n
ik
kkiii sAxxAxAbr (2.56)
premultiplicando por Tjs se obtiene:
01
)( =α=∑−
=
n
ik
kTjk
iTj sAsrs si ij < (2.57)
jTjj sAsα= si ij ≥
de donde puede escribirse:
jTj
jTj
jsAs
rs )(
=α (2.58a)
Alternativamente, puede utilizarse
jTj
jTj
jsAs
rr )()(
=α (2.58b)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 34
La expresión alternativa )()( )0(j
Tj
Tjj sAsrs=α no es conveniente, por la acumulación
de errores de redondeo.
Dado que los 12210 ,,, −− nn sssss L son n vectores linealmente independientes en un
espacio n -dimensional, el error siempre puede ser expresado como una combinación
lineal de estos vectores , es decir el proceso debería llegar a la solución exacta (salvo
errores de redondeo) en n pasos.
El vector 1+ks se obtiene eliminando de )1( +kr la componente según ksA :
kkk
k srs β−= ++
)1(1 (2.59)
donde:
kTk
kTk
ksAs
rAs )1( +
=β (2.60)
En el proceso de determinación de pueden tenerse errores de cancelación importantes si
son aproximadamente paralelos.
Es relativamente fácil probar que si kssss L210 ,, son A -ortogonales, entonces 1+ks
calculado con (2.59) resulta también A -ortogonal a todos los vectores previamente
hallados. Para empezar, con ks :
( ) ( ) 0)1(´
)1()1(1 =−=β−=
+++
+ kTk
kTk
TkkT
kkkkT
kkTk sAs
sAs
rAsrAssrAssAs
Por otro lado, de (2.57) se concluye que:
j
Tkj
Tk sArsAs )(
1 =+
y
( ))()1(1 jj
jj rrsA −
α= −
y por lo tanto, para kj < :
011 )()()1()(
1 =
α−
α= −
+jTk
j
jTk
jj
Tk rrrrsAs
El método de gradiente conjugada puede resumirse en los pasos siguientes:
Dado )0(x , determinar )0(0
)0( xAbsr −==
Y luego para 12,1,0 −= nk L :
kk sAq = (no se requiere A en forma explícita)
kTk
kTk
kqs
rr )()(
=α
kkkk sxx α+=+ )()1( (2.61)
kk
kk qrr α−=+ )()1(
)()(
)1()1()1(
kTk
kTk
kTk
k
Tk
krr
rr
qs
qr +++
−==β

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 35
kkk
k srs β−= ++
)1(1
Como ejemplo, considérese la solución del sistema de ecuaciones bAx= definido por:
−−−
−=
210
121
012
A
=4
0
0
b
Con la aproximación inicial 0)0( =x se obtienen:
)0(0
)0( xAbsr −== ( )T400
00 sAq = ( )T840 −
)()( 00)0()0(
0 qsrr TT=α
1/2
00)0()1( sxx α+= ( )T200
00)0()1( qrr α−= ( )T020
)()( 000)1(
0 qsqr TT=β
1/4
00)1(
1 srs β−= ( )T120
11 sAq = ( )T032−
)()( 11)1()1(
1 qsrr TT=α
2/3
11)1()2( sxx α+= ( )T38340
11)1()2( qrr α−= ( )T0034
)()( 111)2(
1 qsqr TT=β
4/9
11)2(
2 srs β−= ( )T949834
22 sAq = ( )T00916
)()( 22)2()2(
2 qsrr TT=α
3/4
22)2()3( sxx α+= ( )T321
El método de gradiente conjugada puede ser generalizado para resolver cualquier
sistema de ecuaciones bxA = (con A no singular):
Con )0(x arbitrario, se obtiene )0(0
)0( xAbsr −==
Y luego para 12,1,0 −= nk L :
kT
k sAq = (no se requiere A en forma explícita)
kTk
kTk
kqq
rr )()(
=α
kkkk qxx α+=+ )()1( (2.62)

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 36
kkkk qArr α−=+ )()1(
)()(
)1()1(
kTk
kTk
krr
rr ++
−=β
kkk
k srs β−= ++
)1(1
2.8 Sistemas Sobre-Determinados de Ecuaciones Linea les
El problema de determinación de los parámetros de un modelo lineal para aproximar un
conjunto de datos es frecuente. A fin de reducir la influencia de errores de medición, es
habitual hacer más mediciones que las estrictamente necesarias, de donde resultan más
ecuaciones que incógnitas.
Dada una matriz A de orden nm× ( nm> ) y un vector b de orden m , se requiere
determinar x de modo tal que xA sea la mejor aproximación posible a b .
Un proceso simple (y muy adecuado si los errores en los ib son estadísticamente
independientes) es el método de mínimos cuadrados, que consiste en minimizar la
magnitud del residuo xAbr −= (o minimizar rrr T=2) con respecto a las x . Dado
que:
xAAxbAxbbrr TTTTTTf +−== 2 (2.63)
y por lo tanto:
0xAAbAx
=+−=∂∂ TTf
22
el método de mínimos cuadrados puede formularse como la solución del sistema de
ecuaciones normales:
( ) bAxAA TT = (2.64)
Si ( )naaaaA L321= , la matriz simétrica AAC T= tiene elementos jTiijc aa= .
La matriz C es no singular sólo si todas las columnas ka de la matriz A son linealmente independientes.
Para formar las ecuaciones normales se requieren ( )321 +nmn operaciones. Para
resolver el sistema ( )36
1 nO operaciones. La mayor parte del trabajo está en formar las
ecuaciones normales.
Considérese por ejemplo
=
−−
1
2
1
3
2
1
101
110
011
100
010
001
3
2
1
x
x
x
las ecuaciones normales son en este caso:

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 37
−=
−−−−−−
6
1
1
311
131
113
3
2
1
x
x
x
de donde:
( )T375.125.1=x
Un método alternativo (y numéricamente mejor condicionado) se basa en al descomposición de la matriz de coeficientes, A , en el producto de una matriz ortogonal, Q , y una matriz triangular superior, R (en el capítulo relativo a valores y vectores característicos se describen procedimientos que pueden ser empleados para esto).
Al tenerse RQA = (2.65)
las ecuaciones normales ( ) bAxAA TT = pueden rescribirse:
( ) 0=− AxbAT
( ) 0=− xRQbQR TT
y dado que IQQ =T se obtiene:
( ) 0=− xRbQR TT
La matriz R no es singular y por tanto:
bQxR T= (2.66)
La matriz R es la misma que se obtendría al descomponer AAT en dos factores
triangulares por el método de Cholesky. Para el ejemplo precedente:
−−−
−−−
−==
−−
=4142.100
8165.06330.10
5774.05774.07321.1
3536.02041.05774.0
3536.06124.00
04082.05774.0
7071.000
3536.06124.00
3536.02041.05774.0
101
110
011
100
010
001
QRA
de donde:
−==
−−−
=2426.4
4082.0
5774.0
4142.100
8165.06330.10
5774.05774.07321.1
3
2
1
bQxR T
x
x
x
y finalmente: ( )T375.125.1=x