2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti...

37
H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 1 2. ÁLGEBRA LINEAL 2.1 Definiciones Una matriz Α = (a ij ), de orden n x m, es un conjunto de números dispuestos en n filas y m columnas. = nm n n n m m m a .... a a a ..... a .... a a a a .... a a a a .... a a a 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11 A Un elemento, a ij , se identifica por dos sub – índices, el primero de los cuales denota la fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de dimensión n: = 3 2 1 b b b M b Si en cambio n = 1, se tiene una matriz fila: [ ] m c c c K 2 1 = c . Si n = m se dice que la matriz es cuadrada (de orden n). Por ejemplo: = 256 81 16 1 64 27 8 1 16 9 4 1 4 3 2 1 A = 4 3 2 1 0 0 0 0 0 0 0 0 0 0 0 0 d d d d D = 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 n I A, D e I n son matrices cuadradas. La matriz [ ] n d d d diag K 2 1 = D es una matriz diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el de [ ] ( ij diag δ = = 1 1 1 K n I , que es una matriz unidad (o identidad) de orden n. La matriz identidad tiene en el álgebra matricial un papel similar al uno en álgebra común. Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada), cuyos elementos son todos ceros. Las matrices cuadradas cuyos elementos tienen simetría conjugada: * = ji ij a a (donde * indica conjugada compleja) se denominan Hermitianas. Por ejemplo: + - - + + + - - - + = 4 3 2 1 0 3 2 3 1 2 3 1 1 5 2 0 2 3 2 1 i i i i i i i i i i H 1 - = i es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales, es decir ji ij a a = , se tiene una matriz simétrica.

Transcript of 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti...

Page 1: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 1

2. ÁLGEBRA LINEAL

2.1 Definiciones

Una matriz ΑΑΑΑ = (aij), de orden n x m, es un conjunto de números dispuestos en n filas y m

columnas.

=

nmnnn

m

m

m

a....aaa

.....

a....aaa

a....aaa

a....aaa

321

3333231

2232221

1131211

A

Un elemento, aij, se identifica por dos sub – índices, el primero de los cuales denota la

fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de

dimensión n:

=

3

2

1

b

b

b

Mb

Si en cambio n = 1, se tiene una matriz fila: [ ]mccc K21=c . Si n = m se dice que

la matriz es cuadrada (de orden n). Por ejemplo:

=

25681161

642781

16941

4321

A

=

4

3

2

1

000

000

000

000

d

d

d

d

D

=

1000

0100

0010

0001

nI

A, D e In son matrices cuadradas. La matriz [ ]nddddiag K21=D es una matriz diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal

principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el

de [ ] ( )ijdiag δ== 111 KnI , que es una matriz unidad (o identidad) de orden n. La

matriz identidad tiene en el álgebra matricial un papel similar al uno en álgebra común.

Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada),

cuyos elementos son todos ceros.

Las matrices cuadradas cuyos elementos tienen simetría conjugada: ∗= jiij aa (donde *

indica conjugada compleja) se denominan Hermitianas. Por ejemplo:

+−−+++−−

−+

=

43210

323123

1152

02321

ii

iii

iii

ii

H 1−=i

es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,

es decir jiij aa = , se tiene una matriz simétrica.

Page 2: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2

Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los

elementos con valor significativo están agrupados alrededor de la diagonal principal se

denomina matriz banda. Por ejemplo:

−−−

−−−−

=

11

121

121

121

11

B

Las líneas paralelas a la diagonal principal se llaman codiagonales. El número total de

diagonal y codiagonales con elementos significativos en el ancho de banda (3 en este

ejemplo). Para matrices simétricas puede también hablarse de un ancho de semi – banda; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz

banda tiene baja densidad. Por densidad se entiende la razón entre el número de

elementos con valor significativo y el número total de elementos.

Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal

principal son cero se dice que ésta es una matriz triangular inferior (superior):

=

nmnnn lLlll

K

Llll

Lll

Ll

321

333231

2221

11

0

00

000

L

=

nm

n

n

n

u

uu

uuu

uuuu

L

K

L

L

L

000

00

0

333

22322

1131211

U

En lo que sigue se usan letras negritas para denotar matrices. Para las matrices

columna y para las matrices filas se usan minúsculas, mientras que para las matrices

rectangulares (incluyendo las matrices cuadradas) se usan mayúsculas. En todos los

casos, los elementos de una matriz se indican en minúsculas.

2.2 Operaciones Básicas con Matrices

Subdivisión o partición . El conjunto de elementos de una matriz A puede ser dividido

en otros más pequeños mediante líneas horizontales y/o verticales. Las distintas partes,

A11, A12, etc. son submatrices de la matriz A. Las submatrices pueden tratarse como

elementos comunes de una matriz, excepto que deben operarse según las reglas del

álgebra matricial.

Igualdad . Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es

igual al correspondiente elemento de la otra. A = B implica ijij ba = para todo i, j.

Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una

tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)

algebraicamente los correspondientes elementos de las dos matrices originales:

CBA =± ijijij cba =±

La suma (resta) de matrices es asociativa y conmutativa:

( ) ( )CBACBA ++=++ ABBA +=+

Page 3: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 3

Derivada e integral . Análogamente, puede definirse la derivada de una matriz:

ijij

ba

=∂∂

⇒=∂∂

ααB

A

y la integral de una matriz en forma similar.

Multiplicación por un escalar . El producto de una matriz por un escalar es otra matriz

del mismo orden cuyos elementos son los de la matriz original multiplicados por el

escalar:

ijij ba =⇒= αα BA

Multiplicación de dos matrices . Dos matrices, A (m x p) y B (p x n) pueden ser

multiplicadas en el orden A B sólo si son conformables para el producto, es decir, si el

número de columnas de A es igual al número de filas de B. El producto C (m x n) es

una matriz cuyos elementos se obtienen de:

njmibacp

kkjikij ,1,1

1

==⋅=∑=

Por ejemplo, si:

=4310

264

135

A

=23

42

51

B

BAC ⋅=

702443510

22322614

14312315

32

21

11

=⋅+⋅+⋅=

=⋅+⋅+⋅==⋅+⋅+⋅=

c

c

c

K

=⇒

7028

4822

3914

C

La multiplicación de matrices es asociativa y distributiva, pero en general no es

conmutativa:

CBACBA )()( ⋅=⋅ ACABCBA +=+ )( BAAB ≠

Siendo el orden de multiplicación importante, es frecuente enfatizarlo, diciendo por

ejemplo que en el producto AB la matriz A premultiplica a B, o bien que B postmultiplica

a A. En algunos casos BAAB = ; se dice entonces que A y B son conmutables.

Es fácil verificar que el producto de dos matrices triangulares inferiores (superiores) es

otra matriz triangular inferior (superior).

Transposición . La transpuesta AT de una matriz A es aquella cuyas filas son las

columnas de A (y viceversa). Si )( ijT b== BA , entonces jiij ab = :

=63

52

41

A

=

654

321TA

La transpuesta de una matriz simétrica es obviamente la matriz original. Productos del

tipo AAT resultan siempre en matrices simétricas. Lo mismo puede decirse de

productos SAAT si S es simétrica.

Cuando se transpone un producto matricial la secuencia de los factores debe invertirse:

Page 4: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 4

( ) TTTT ABCCAB KK =

Determinante de una matriz cuadrada . Es un número que resulta de:

∑±==!

321detn

nrkji aaaa KAA

Donde cada término de la suma incluye un solo elemento de cada fila y de cada

columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..

n, los índices de las columnas en cada término de la suma pueden ser obtenidos como

permutación del orden normal. Según el número de cambios requeridos para esta

permutación sea par o impar se asigna al producto correspondiente el signo + o -. La

suma incluye las n! permutaciones posibles.

Las siguientes propiedades facilitan el cómputo de la determinante de una matriz

cuadrada A cualquiera:

• Si se intercambian dos filas (columnas) la determinante cambia de signo.

• La determinante de una matriz, A , es igual a la determinante de su transpuesta.

• El valor de la determinante de una matriz A no se altera si una columna (fila)

multiplicada por un escalar se suma algebraicamente a otra columna (fila):

bcada

bcd

ba

dc

ba−=

−=

0detdet

• En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o

proporcionales) es cero. Más aún,si dos o más columnas (filas) de una matriz A son

linealmente dependientes, es decir α1a1+ α2a2+ α3a3+...+ αn-1an-1+ αnan = 0 para un

conjunto de coeficientes αi de los que por lo menos uno es distinto de cero, la

determinante es cero. Se dice entonces que la matriz A es singular. Considérese por

ejemplo el caso:

=110

121

011

A

A es singular puesto que: ( ) ( ) ( )

=

+

−+

0

0

0

1

1

0

1

1

2

1

1

0

1

1

1

• La determinante de una matriz triangular es igual al producto de los elementos de su

diagonal principal.

• Para un producto matricial se cumple que:

( ) )det()det()det(det CBACBA KK ⋅=⋅

Así, por ejemplo, si:

=

=

24000

24600

12620

4321

1671

0131

0011

0001

25681161

642781

16941

4321

A

entonces: ( ) ( ) 288246211)det( =⋅⋅⋅⋅=A

Page 5: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 5

Inversa de una matriz . Si una matriz A es no singular, es posible obtener su “inversa”,

A-1, que satisface:

nIAAAA == −− 11 ( ) AA =−− 11

Obviamente nn II =−1 . La inversa de una matriz diagonal es otra matriz diagonal, cuyos

elementos son inversas de los elementos de la matriz original. La inversa de una matriz

triangular (inferior o superior) es otra matriz triangular del mismo tipo.

La inversión de matrices permite efectuar la operación equivalente a la división del

álgebra común.

CABCAB 1−=⇒= (véanse los comentarios del ítem 2.5.5)

Para la inversa de un producto matricial se cumple:

( ) 1111 −−−− = ABCCAB KK

Una matriz Q se denomina ortogonal si: nT IQQ = . Particularmente, si Q es una matriz

cuadrada se tiene entonces que TQQ =−1 . Por ejemplo:

−=

θθθθ

cossen

sencosR

es ortogonal, puesto que:

TRR =

−=−

θθθθ

cossen

sencos1

.

Refiriéndose a una matriz con coeficientes complejos, U, se dice que ésta es unitaria si

IUU =*

2.3 Espacios y Subespacios Vectoriales

Una matriz columna de orden n es un conjunto números que pueden ser interpretados

como componentes de un vector en un espacio de dimensión n.

Se dice que un conjunto de vectores v1 v2 v3 .... v5 son linealmente dependientes si

existen números α1 α2 α3 .... α5, no todos cero, tales que:

055332211 =++++ vvvv αααα K

Alternativamente, puede decirse que los vectores son linealmente dependientes si uno

cualquiera de ellos puede expresarse como combinación lineal de los otros:

∑≠

=ri

iir c vv (y linealmente independientes si esto no es posible).

p vectores linealmente independientes de orden n ( pn ≥ ) conforman una base de un

espacio vectorial de dimensión p. Por otro lado, q vectores, de los que p ( qp ≤ ) son

linealmente independientes, están contenidos en un espacio de dimensión p.

Si los vectores linealmente independientes x1 x2 .... xp constituyen una base de un

espacio vectorial de dimensión p, un sub – conjunto de estos puede considerarse como

base de un sub – espacio contenido en el espacio vectorial original.

Page 6: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 6

Las columnas (o filas) de una matriz rectangular A pueden tratarse como vectores. El

número de vectores linealmente independientes define el “rango” de la matriz. Una

matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si

todas las columnas son linealmente independientes. Lo contrario implica que una o más

columnas (filas) pueden obtenerse como combinación lineal de las otras y la

determinante es cero.

2.4 Sistemas de Ecuaciones Lineales

Se ha estimado que un 75% de los problemas de ingeniería se presenta, en alguna

etapa del trabajo, la solución de un sistema de ecuaciones lineales:

nnnnnnn

nn

nn

nn

bxaxaxaxa

bxaxaxaxa

bxaxaxaxa

bxaxaxaxa

=++++⋅⋅⋅

=++++=++++

=++++

K

K

K

K

332211

33333232131

22323222121

11313212111

(2.1a)

o bien: bAx =

=

nnnnnnn

n

n

n

b

b

b

b

x

x

x

x

aaaa

aaaa

aaaa

aaaa

MM

K

L

K

K

K

3

2

1

3

2

1

321

3333231

2232221

1131211

(2.1b)

En las secciones siguientes se supone que el sistema de ecuaciones tiene solución

única, es decir, que 0)det( ≠A .

La solución de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las

matemáticas “clásicas” y los métodos numéricos modernos. Así, la Regla de Cramer:

=

nnnjnn

nj

nj

nj

nnnnn

n

n

n

j

aaaa

aaaa

aaaa

aaaa

abaa

abaa

abaa

abaa

x

KK

L

KK

KK

KK

KK

L

KK

KK

KK

21

333231

222221

111211

21

333231

222221

111211

det

det

(2.2)

si bien proporciona fórmulas explícitas es tremendamente ineficiente cuando se trata de

resolver sistemas con más de 3 incógnitas (excepto para casos muy especiales de la

matriz de coeficientes).

Muchos métodos frecuentemente utilizados en ingeniería, como por ejemplo los métodos

de elementos finitos para la solución de ecuaciones en derivadas parciales, resultan en

Page 7: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 7

el planteamiento de grandes sistemas de ecuaciones lineales. El costo de análisis y en

muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran

medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo

utilizado en su solución.

2.5 Métodos Directos para la Solución de Sistemas de Ecuaciones Lineales

Este acápite considera métodos que, de no haber errores de redondeo, producen la

solución exacta en un número finito de pasos. Para sistemas Ax = b, en los que A es de

alta densidad, los métodos directos son en general los más eficientes (para las

computadoras actualmente utilizadas). Sin embargo, cuando un gran número de

elementos de A son cero, y en especial cuando A es definida positiva ( 0>AxxT para

cualquier 0≠x ), puede ser más conveniente utilizar un método iterativo en que se

obtiene una secuencia de soluciones aproximadas que convergen a la solución exacta.

2.5.1. Sistemas Triangulares

La solución de sistemas de ecuaciones lineales es particularmente simple cuando la

matriz de coeficientes es triangular. Por ejemplo, considérese un sistema Ux = b en el

que U es triangular superior:

nnnn

nnnnnnn

nn

nn

nn

bxu

bxuxu

bxuxu

bxuxuxu

bxuxuxuxu

==+

=++=+++=++++

−−− 11,1

33333

22323222

11313212111

KK

K

K

K

(2.3)

Si U es no singular ( 0≠iiu para todo i), las incógnitas pueden evaluarse en el orden: n,

n-1, n-2, n-3, ... 2, 1:

nn

nn u

bx = (2.4a)

−= ∑

+=

n

ik

kikiii

i xubu

x1

1 (2.4b)

Este proceso se denomina “sustitución inversa”. Análogamente, para un sistema Lx = b,

en el que L es una matriz triangular inferior no singular ( 0≠iil para todo i), puede

utilizarse una sustitución directa o “reducción”:

11

11 l

bx = (2.5a)

−= ∑

=

1

1

1 i

k

kikiii

i xlbl

x (2.5b)

En ambos casos, la solución del sistema requiere n divisiones y ( )121 −nn operaciones

de multiplicación y suma (casi lo mismo que para multiplicar una matriz triangular por un

vector).

Page 8: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 8

2.5.2 Método de Gauss

Éste es el más importante de los métodos directos para la solución de sistemas de

ecuaciones lineales. La idea básica está en combinar las distintas ecuaciones para ir

eliminando incógnitas en forma sistemática y obtener finalmente un sistema triangular,

fácil de resolver. Considérese el sistema de orden n:

)1()1(3

)1(32

)1(21

)1(1

)1(3

)1(33

)1(332

)1(321

)1(31

)1(2

)1(23

)1(232

)1(221

)1(21

)1(1

)1(13

)1(132

)1(121

)1(11

nnnnnnn

nn

nn

nn

bxaxaxaxa

bxaxaxaxa

bxaxaxaxa

bxaxaxaxa

=++++

=++++

=++++

=++++

K

KK

K

K

K

(2.6)

o en forma compacta: Ax = b. En lo que sigue se supone que A es no singular.

Supóngase también que 011 ≠a . Puede entonces eliminarse x1 de la ecuación i si de

ésta se resta la ecuación 1 multiplicada por:

)1(11

)1(1

1a

al ii = (2.7a)

Con ello se obtiene:

)2()2(3

)2(32

)2(2

)2(3

)2(33

)2(332

)2(32

)2(2

)2(23

)2(232

)2(22

)1(1

)1(13

)1(132

)1(121

)1(11

nnnnnn

nn

nn

nn

bxaxaxa

bxaxaxa

bxaxaxa

bxaxaxaxa

=+++

=+++

=+++

=++++

K

KK

K

K

K

(2.7b)

donde

)1(11

)1()2(

)1(11

)1()2(

blbb

alaa

iii

jiijij

−=

−= (2.7c)

En forma similar, puede eliminarse x2 de las ecuaciones i = 3,4,..n restando de la

ecuación i la ecuación 2 multiplicada por:

)2(22

)2(2

2a

al ii =

y así sucesivamente hasta obtener el sistema triangular:

)()(

)3(3

)3(33

)3(33

)2(2

)2(23

)2(232

)2(22

)1(1

)1(13

)1(132

)1(121

)1(11

nnn

nnn

nn

nn

nn

bxa

bxaxa

bxaxaxa

bxaxaxaxa

=

=++

=+++

=++++

KK

K

K

K

(2.8)

o en notación matricial: Ux = b.

Los elementos )1(1,1

)3(33

)2(22

)1(11 ,, −

−−n

nnaaaa K que se usan como divisores en esta reducción

se llaman “pivotes”. El proceso – tal como ha sido planteado hasta el momento – falla si

alguno de estos es cero. Esto en general no ocurre si la matriz A tiene diagonal

Page 9: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 9

dominante (es decir, si ∑≠

>ij

ijii aa ) o si A es simétrica (AT = A) y definida positiva

(vTAv > 0 para v arbitrario).

El siguiente ejemplo ilustra el proceso:

=

190

44

10

2

25681161

642781

16941

4321

)1(

)1(

)1(

4

3

2

1

x

x

x

x

Los números indicados a la izquierda (entre paréntesis) son los factores l i1 por los que es

necesario multiplicar la ecuación 1 antes de restarla de la ecuación i, para lograr el

objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.

=

188

42

8

2

25278140

602460

12620

4321

)7(

)3(

4

3

2

1

x

x

x

x

Análogamente:

=

132

18

8

2

1683600

24600

12620

4321

)6( 4

3

2

1

x

x

x

x

=

24

18

8

2

24000

24600

12620

4321

4

3

2

1

x

x

x

x

finalmente:

2432

81262

18246

2424

4321

432

43

4

=+++=++

=+=

xxxx

xxx

xx

x

1

1

1

1

1

2

3

4

−==

−==

x

x

x

x

Para estimar el esfuerzo de cómputo es habitual referirse al número de "operaciones"

requeridas. La costumbre es contar como una operación a la combinación de una suma

(o resta, o simplemente una copia) con una multiplicación (o división). Esta práctica

proviene de las épocas en que el tiempo requerido para efectuar una multiplicación o una

división era un orden de magnitud mayor que el necesario para una suma o una resta,

pudiendo despreciarse estas últimas. La reducción de la matriz de coeficientes requiere

de un número de operaciones de orden 33

1 n . La reducción del segundo miembro y la

sustitución inversa requieren aproximadamente n2 operaciones. Si se tuvieran varios

sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... sólo

se requeriría efectuar la reducción de A una vez, por lo que el número de operaciones

sería siempre aproximadamente 33

1 n . Más precisamente, se hacen nnn 3223

31 2 ++

Page 10: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 10

operaciones para resolver un sistema de n ecuaciones lineales, pero si n es grande sólo

el primer término es importante.

El proceso antes descrito falla cuando se presenta un pivote, )(iiia , igual a cero. Un

ejemplo simple de tal situación es el siguiente:

=

1

2

1

221

211

111

3

2

1

x

x

x

La matriz de coeficientes no es singular y el sistema tiene una solución única

( )T111 −=x . Sin embargo, después del primer paso (efectuado en el orden indicado

anteriormente), se obtiene:

=

0

1

1

110

100

111

3

2

1

x

x

x

y siendo 0)2(22 =a , no es posible proseguir como habitualmente. La solución es en este

caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si 0)( =iiia , algún otro

elemento de la misma columna, )(ijia , debe ser distinto de cero (lo contrario implicaría

una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad

de A). Intercambiando las filas j e i puede entonces continuarse la reducción. Dados los

elementos )(ijia de la columna i, es conveniente escoger como pivote aquel de máximo

valor absoluto, puesto que el uso de pivotes pequeños introduce fuertes errores en la

solución. El ejemplo siguiente es ilustrativo:

=

× −

9

7

11

1103

2

111

x

x

Trabajando con 10 cifras significativas se obtiene:

( )

×−=

×−× −

102

1

10

11

10333333333.37

7

10333333333.30

110000000000.3

x

x

de donde: 72 =x

01 =x

La solución correcta es, sin embargo, 21 =x . Es fácil comprobar que no se presenta

este problema si se evita el pivote pequeño intercambiando previamente las ecuaciones:

=

× − 7

9

1103

11

2

111 x

x

El intercambio de filas al que se ha hecho referencia se denomina “intercambio parcial”.

Alternativamente, puede pensarse en un “intercambio completo”, en que se selecciona el

siguiente pivote como el elemento de máximo valor absoluto entre todos los elementos

de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas

(incógnitas) para continuar el proceso como se ha descrito.

Page 11: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 11

El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la

estabilidad numérica, y requiere bastante menos trabajo que el proceso con intercambio

total.

2.5.3 Descomposición A = LU

Supóngase que A es tal que el proceso de reducción del método de Gauss puede

efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la

descomposición A = LU donde L es una matriz triangular inferior con 1=iil y U es una

matriz triangular superior, es única. Esto puede probarse fácilmente por inducción. Para

el caso del primer ejemplo:

=

24000

24600

12620

4321

1671

0131

0011

0001

25681161

642781

16941

4321

Los elementos de L son justamente los coeficientes ijl usados durante la reducción; U

es en cambio ¡la matriz A reducida!

Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma

matriz de coeficientes pueden ser resueltos simultáneamente. Sin embargo, no siempre

se conocen desde un principio todos los vectores de coeficientes del segundo miembro.

Por ejemplo, puede querer resolverse Ax1 = b y Ax2 = x1. Aún en este caso, al resolver

el segundo sistema no es necesario volver a reducir la matriz A como al inicio. El

sistema Ax = b es equivalente a LUx = b, o bien a los dos sistemas triangulares: Ly = b

, Ux = y. Siendo L y U conocidos, estos dos sistemas pueden resolverse en O(n2)

operaciones. L y U pueden almacenarse en las mismas posiciones de memoria que en

la matriz A: Como )()( iii

ikiki aal = se determina con el objeto de hacer 0)1( =+i

kia ,

kil puede almacenarse en las posición de kia . Por otro lado, no es necesario almacenar

los elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos

de U son aquellos de la matriz reducida, el efecto de la reducción o descomposición en

la distribución de memoria es de la forma:

nnnnn

n

n

n

nnnnn

n

n

n

ulll

uull

uuul

uuuu

aaaa

aaaa

aaaa

aaaa

K

L

K

K

K

K

L

K

K

K

321

3333231

2232221

1131211

321

3333231

2232221

1131211

Para el ejemplo precedente:

24671

24631

12621

4321

25681161

642781

16941

4321

En los casos en los que se efectúan intercambios de filas y/o columnas es siempre

posible (si A no es singular) obtener factores triangulares L y U tales que LU = A’,

Page 12: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 12

donde A’ es la matriz que resulta de efectuar los intercambios mencionados en la matriz

original A.

2.5.4 Otros Métodos Directos

Todos los métodos tratados en esta sección pueden considerarse como variantes del

método de Gauss.

Una posible alternativa es la de calcular los elementos de L y U mediante las fórmulas:

nkkjulauk

pjppkjkjk ⋅⋅⋅+=−= ∑

=

,1,1

1

(2.9a)

nkiulau

lk

pkppiki

kkki ⋅⋅⋅+=

−= ∑

=

,11 1

1

(2.9b)

en lugar de efectuar “reducciones” como anteriormente. Esta modificación (Doolitle) es

conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos

resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se

hacen con una precisión mayor que aquella con la que se almacenan los resultados.

El método de Crout efectúa la factorización A = LDR, donde L es la misma matriz

triangular inferior obtenida durante el proceso de Gauss, D es una matriz diagonal y R es

una matriz triangular superior con coeficientes 1 en su diagonal principal. D y R están

relacionados con la U de Gauss.

ijd

ur

ud

ii

ijij

iiii

>=

= (2.10)

En particular, para A simétrica: R = LT. Este método no posee ventajas ni desventajas

con relación al de Gauss, bien sea en cuanto a estabilidad numérica y precisión, como

en el número de operaciones necesarias.

Si durante el proceso de reducción se usa la ecuación i para eliminar xi, no sólo de las

ecuaciones que siguen a la i sino también de la ecuaciones precedentes, se tiene el

método de Gauss – Jordan. Para el ejemplo antes considerado:

=

190

44

10

2

25681161

642781

16941

4321

4

3

2

1

x

x

x

x

=

188

42

8

2

25278140

602460

12620

4321

4

3

2

1

x

x

x

x

Page 13: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 13

=

−−

132

18

8

6

1683600

24600

12620

8301

4

3

2

1

x

x

x

x

Nótese que se utilizó la segunda ecuación para reducir no solamente las ecuaciones 3 y

4, sino también la ecuación 1. Análogamente:

−=

24

18

10

3

24000

24600

12020

4001

4

3

2

1

x

x

x

x

=

24

6

2

1

24000

0600

0020

0001

4

3

2

1

x

x

x

x

de donde se obtiene fácilmente la solución.

El método de Gauss- Jordan es más simple de programar, pero requiere casi 1.5 veces

el número de operaciones del método de Gauss tradicional.

Finalmente, para concluir esta sección, debe mencionarse que el método de Gauss es

aplicable también a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:

−+−

=

−++

i

i

i

x

x

x

i

ii

i

211

48

24

310

121

012

3

2

1

−+−

=

−+

i

i

i

x

x

x

i

i

i

211

35

24

310

110

012

3

2

1

+−

=

+−

3

35

24

100

110

012

3

2

1

i

i

x

x

x

i

i

de donde:

[ ] 1)1(2)24(

2)1(3)35(

3

21

1

2

3

=−−−==+−+=

=

iix

iix

x

2.5.5 Inversión de Matrices

Si la inversa, A-1, de una matriz A se conoce, la solución de un sistema Ax = b puede

escribirse x = A-1b. Podría entonces parecer conveniente determinar A-1, en especial si

se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin

embargo, la solución puede ser obtenida con mucho menos operaciones – y en general

con mucha más precisión – utilizando la descomposición A = LU. La solución de los dos

sistemas triangulares Ly = b y Ux = y requiere sólo O(n2) operaciones (por cada

columna de b ó x). Por otro lado, la multiplicación A-1b también demanda O(n2)

Page 14: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 14

operaciones. Sin embargo, la determinación de A-1 requiere aproximadamente el triple

de trabajo que para obtener L y U. El número de operaciones necesarias para obtener

la inversa de una matriz cuadrada (no simétrica) de orden n es 12 23 +−+ nnn .

No obstante esto, en algunos casos se necesita la inversa en forma explícita. La inversa

puede obtenerse de un modo eficiente resolviendo n sistemas de ecuaciones lineales:

AX = In, donde X = A-1. El siguiente ejemplo utiliza una variante del método de Gauss

con este objeto:

=413

312

111

A

En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la

derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las

filas las mismas operaciones que en A:

413

312

111

100

010

001

−−

120

110

111

−−

103

012

001

−−

100

110

201

−−

121

012

011

100

010

001

1

121

111

231−=

−−−

−A

Alternativamente, si la descomposición A = LU de una matriz A se conoce, la inversa

puede obtenerse de A-1 = U-1L-1, también en O(n2) operaciones. Si en los cómputos

para L y U se hacen intercambios de filas, el producto U-1L-1 resulta la inversa de una

cierta matriz A’. La matriz A-1 puede obtenerse a partir de (A’)-1 intercambiando

columnas en secuencia inversa a los cambios de fila durante el proceso.

Para la matriz antes considerada:

LUA =

−−

=

100

110

111

123

012

001

413

312

111

La inversa de una matriz triangular es otra matriz del mismo tipo, fácil de determinar.

Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser

obtenida por sustitución directa o “reducción”: LY = In.

0=ijy ji < (2.11a)

Page 15: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 15

−= ∑

=

11 i

jkkjikij

iiij yl

ly δ ji ≥ (2.11b)

En forma análoga, la inversa, U-1, de una matriz triangular superior, U, es también una

matriz triangular superior. Cada fila i, puede determinarse mediante UZ = In:

−= ∑

=

11 j

ikkjikij

jjij uz

uz δ ji ≤ (2.12a)

0=ijz ji > (2.12b)

Para las matrices L y U del ejemplo considerado:

−−−=

−−= −−

100

110

211

121

012

00111 UL

−−−

−== −−−

121

111

231111 LUA

2.5.6 Casos Especiales

Matrices Simétricas Definidas Positivas.

Para una matriz simétrica: )1()1(kjjk aa = . Si se efectúa la reducción de Gauss sin

intercambio de filas y/o columnas se tiene también que: )()( ikj

ijk aa = para ji < , nk ≤ .

En otras palabras, la sub – matriz que debe aún reducirse en un paso dado es también

simétrica. Esto puede probarse por inducción, teniendo en cuenta las condiciones

iniciales de simetría y además que:

)()(

)()()()()1( i

ijiii

ikii

kji

ijkii

kji

kj aa

aaalaa −=−=+ (2.13a)

)()(

)()()()()1( i

ikiii

ijii

jki

ikjiijk

ijk a

a

aaalaa −=−=+ (2.13b)

Puede observarse que, si los coeficientes en la etapa i son simétricos, aquellos en la

etapa 1+i también lo son, puesto que se obtienen operando del mismo modo con

números iguales.

Considérese, por ejemplo, el sistema de ecuaciones con coeficientes simétricos:

=

−−−

−−−

0

0

1

0

5410

4641

1464

0145

4

3

2

1

x

x

x

x

En las sucesivas etapas del proceso de eliminación, las sub matrices que quedan por

reducir siguen siendo simétricas:

Page 16: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 16

=

−−−

−−

0

0

1

0

5410

40

10

0145

4

3

2

1

529

516

516

514

x

x

x

x

=

−−

−−

145

78

4

3

2

1

1465

720

720

715

516

514 1

0

00

00

10

0145

x

x

x

x

=

−−

6778

4

3

2

1

65

720

715

516

514 1

0

000

00

10

0145

x

x

x

x

de donde

=

7

12

13

8

5

1

4

3

2

1

x

x

x

x

La simetría de la matriz por reducirse permite hacer: )()( iii

iikki aal = (utilizando )(i

ika en

lugar de )(ikia ) y restringir los cálculos de: )()()1( i

ijkii

kji

kj alaa −=+ a las columnas njk ≤≤ ,

en lugar de nji ≤≤ . El número de operaciones para la reducción es entonces

)( 26

1 nO , aproximadamente la mitad que para el caso general.

También los requerimientos de memoria pueden reducirse, almacenando los coeficientes

de la matriz en un arreglo monodimensional. Para el caso de una matriz simétrica de

alta densidad el siguiente esquema de numeración de los coeficientes es apropiado:

+ )1(

15

1410

1396

12853

117421

21 nn

MM

MM

MM

MM

MM

MM

Es evidente que intercambios de filas y columnas destruyen la simetría, a menos que se

tome siempre como pivote un elemento de la diagonal principal. Tales intercambios no

son necesarios si la matriz es definida positiva (xTAx > 0 para x arbitraria, no nula), ya

que en tal caso:

0)( >kiia nki ≤≥ ,1

)()(2)( kjj

kii

kij aaa ≤ njik ≤≤ , (2.14)

)()1( 2 kii

kii aa ≤+ nik ≤<

Estas condiciones garantizan que no se presentan pivotes pequeños.

Para el caso de matrices simétricas definidas positivas puede también utilizarse el

método de Cholesky. Éste método efectúa la descomposición A = RTR, donde R es una

matriz triangular superior cuyos elementos pueden obtenerse (por filas) de:

Page 17: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 17

21

1

1

2

−= ∑

=

i

ppiiiii rar (2.15a)

L,2,11 1

1

++=

−= ∑

=

iijrrar

ri

ppjpiij

iiij (2.15b)

Para el ejemplo anterior se obtiene:

( ) == 21

1111 ar 2.2360

== 111212 rar -1.7888

== 111313 rar 0.44721

== 111414 rar 0

( ) =−= 21

2122222 rar 1.6733

( ) =−= 2213122323 rrrar -1.9123

( ) =−= 2214122424 rrrar 0.5976

( ) =−−= 21

223

2133333 rrar 1.4639

( ) =−−= 33242314133434 rrrrrar -1.9518

( ) =−−−= 21

234

224

2144444 rrrar 0.9129

es decir:

−−

=

9129.0000

9518.14639.100

5976.09123.16733.10

04472.07888.12360.2

R

El sistema Ax = b puede entonces rescribirse como RTRx = b o bien RTy = b; Rx = y

Resolviendo el primer sistema triangular:

=

2781.1

7808.0

5976.0

0

y

y finalmente:

=

7

12

13

8

5

1x

Puede anotarse que R está relacionada con las L y U de Gauss mediante RT= LD;

R = D –1U; donde D = diag ( )nnuuu L2211 .

Page 18: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 18

Matrices Banda.

Los sistemas de ecuaciones en que los coeficientes forman matrices banda son

frecuentes. Tales sistemas se resuelven eficientemente por el método de Gauss y otros

similares, ya que éstos conservan la estructura de banda de las matrices: A = LU:

−−

−−

−−

−−

=

−−−

−−−−

10000

11000

01100

00110

00011

11000

01100

00110

00011

00001

21000

12100

01210

00121

00011

Nótese que A–1 = U–1L–1 no es una matriz banda:

=−

11111

12222

12333

12344

12345

1A

y por lo tanto no conviene hallar 1−A en forma explícita.

Particularmente simples de tratar son los sistemas con matrices banda simétricas y

definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles

esquemas para almacenar los coeficientes en un arreglo monodimensional son en este

caso:

)21()14(

)20(

7

136

19125

18114

17103

1692

1581

⋅⋅⋅⋅

⋅⋅⋅⋅

⋅⋅⋅

=A

Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un

número fijo de coeficientes en cada codiagonal, lo que facilita la programación. Siendo

el ancho de la semibanda, m, mucho menor que el número de ecuaciones, n, las

posiciones de memoria “perdidas” son despreciables. Este esquema de almacenamiento

(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente

constante.

Otra posibilidad es:

⋅⋅⋅⋅⋅⋅

⋅⋅⋅⋅

⋅⋅⋅

=

20

1917

181612

15119

141086

13753

421

A

Page 19: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 19

Esta forma de almacenamiento es más eficiente cuando el ancho de banda es variable

(como ocurre en la mayor parte de los problemas reales). Se guardan los coeficientes

por columnas, desde el “perfil” superior a la diagonal principal. Se requiere un arreglo de

apuntadores o índices que indican las posiciones ocupadas por los coeficientes de la

diagonal principal (que son los más referidos durante el proceso de solución). Nótese

que al aplicar el método de Gauss (o cualquier variante de ese procedimiento) no se

producen valores significativos por encima del perfil original y por lo tanto no se requiere

más memoria que aquella en la situación inicial.

Se necesitan nm posiciones de memoria (donde n es el orden de la matriz y m << n el

ancho de semibanda), mucho menos que las n2 posiciones para la matriz completa o las

( )121 +nn para una matriz simétrica de alta densidad. Por otro lado, la reducción de la

matriz de coeficientes demanda sólo ( )22

1 nmO operaciones, ya que:

0=ijl excepto para mjij +<≤

0=iju excepto para miji +<≤

Esto debe compararse con ( )36

1 nO operaciones para reducir una matriz simétrica de

alta densidad. La reducción del segundo miembro y la sustitución inversa requieren

( )nmO 2 , en lugar de ( )2nO operaciones. En la práctica, rara vez se tiene un ancho de

banda constante, pero aún así estos estimadores son útiles, si se considera m como la

media cuadrática de los anchos de semibanda en las ecuaciones.

Un caso especial es aquel en que la matriz de coeficientes es “tridiagonal”:

=

−−

−−−

n

n

n

n

nn

nnn

c

c

c

c

c

x

x

x

x

x

ab

bab

bab

bab

ba

1

3

2

1

1

3

2

1

1

112

332

221

11

MMO (2.16)

Los únicos coeficientes significativos son aquellos de la diagonal principal y de dos

codiagonales, es decir, dos líneas paralelas a la referida diagonal.

Se observa que al descomponer la matriz de coeficientes, A, en sus factores triangulares

LU los factores mantienen la estructura banda:

=

−−−

n

n

n

n

nn

nnn

r

b

r

br

br

br

q

q

q

q

ab

bab

bab

bab

ba

1

4

33

22

11

1

2

2

1

1

112

332

221

11

1

1

1

1

1

O

OOOO

La determinación de los iq y ir es muy simple:

Page 20: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 20

iiii

iii

bqar

n,,ia/bq

ar

−=−==

=

++ 11

11

121 L (2.17a)

y, considerando L y = c:

12111

11

−=−==

++ n,,iyqcy

cy

iiii L (2.17b)

de donde se obtiene x resolviendo U x = y:

1211 ,,nir/)xby(x

r/yx

iiiii

nnn

L−=−==

+

Para resolver un sistema de n ecuaciones lineales con matriz de coeficientes tridiagonal

se requieren sólo 45 −n operaciones. Como se indicó anteriormente, se cuenta como

una operación la combinación de una multiplicación o división con una suma, resta o

almacenamiento del resultado.

Grandes sistemas de ecuaciones lineales

(con matrices de coeficientes banda, simétricas y definidas positivas).

Cuando la memoria de la computadora es insuficiente para almacenar todos los

coeficientes del sistema de ecuaciones, se recurre al disco. El acceso a este medio es

(en términos relativos) muy lento y en lo posible debe tratar de minimizarse su uso.

Es frecuente subdividir la información de sistemas de ecuaciones excesivamente

grandes en “bloques” de una o más ecuaciones (o columnas).

Los datos de cada bloque se almacenan en disco. Éstos son leídos a la memoria

principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez

operados. La solución del sistema de ecuaciones por el método de Gauss (u otro similar)

requiere mantener en memoria principal la información de por lo menos dos bloques en

forma simultánea. Así por ejemplo, durante el proceso de reducción, las ecuaciones del

bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques

sucesivos k+1, k+2, ...., k+n (n en general es pequeña), lo que implica que, estando el

bloque k en memoria, los bloques sucesivos deben ser leídos, parcialmente reducidos, y

regrabados en secuencia. Algo similar ocurre con el proceso de sustitución inversa.

2.6. Errores en la Solución de Sistemas de Ecuaciones Lineales

En la solución práctica de grandes sistemas de ecuaciones lineales se realizan millones

de operaciones y en cada una ocurren errores de redondeo, ¿Cómo afectan estos

errores a los resultados? ¿Cómo puede estimarse la magnitud del error en la solución?

Podría pensarse que, habiendo resuelto el sistema A x = b, la magnitud del residuo r = b – A x sea una buena medida del error introducido en x. !Esto es falso! Considérese por ejemplo:

A =

659.0913.0

563.0780.0 b =

254.0

217.0

Page 21: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 21

Y supóngase que se ha resuelto A x = b obteniendo x1 = (0.341 -0.087)T ¿Qué tan

buena es esta solución?

r1 = b – A x1 = (10-6 0)T

Por otro lado si se afirma que la solución es x2 = (0.999 -1.001)T se obtiene el residuo.

r2 = b – A x2 = (1.343x10-3 1.572x10-3)T

¿Es x1 mejor solución que x2? No. La solución exacta es x = (1 -1)T.

Aunque la magnitud del vector residuo r = b – A x no da una indicación directa del error

en x, es posible utilizar residuos para estimar el error e incluso para corregir la solución.

Esto se discute más adelante.

2.6.1 Normas de Vectores y Matrices

Con el propósito de discutir los errores al resolver sistemas de ecuaciones lineales, se

define como norma (o medida) de un vector:

∞≤≤++= pxx pppp

1)( /121 Kx (2.18a)

Dos casos particulares son de interés:

2/122

212

)( K++= xxx (norma Euclidiana) (2.18b)

ixmáx=∞x (máximo valor absoluto) (2.18c)

Es relativamente fácil probar que:

0≥x sólo hay igualdad si x = 0

xx aa = (2.19)

yxyx +≤+

Estas propiedades son familiares en relación a la norma Euclidiana o “longitud” de un

vector.

La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la

definición de norma de un vector:

p

p

pmáx

x

xAA = ( )0x ≠ (2.20a)

La norma 2

A es 2/1

máxλ , donde máxλ es el máximo valor característico de ATA (ver

capítulo 3). Por otro lado:

∑=

∞=

n

1j

iji

amáxA (2.20b)

Estas normas satisfacen condiciones similares a las normas de vectores. Además:

BABA ≤ (2.21)

Page 22: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 22

2.6.2 Condicionamiento de una matriz:

En esta ecuación se analizan los efectos de una pequeña perturbación Aδ en la matriz

A, o de una perturbación bδ en b.

Si x es la solución exacta de A x = b, cuando se considera la matriz de coeficientes

AA δ+ la solución resulta xx δ+ :

bxxAA =δ+δ+ )()( (2.22)

de donde:

)(1 xxAAx δ+δ−=δ −

tomando normas:

xxAAx δ+δ≤δ −1

y dividiendo entre xx δ+ :

( )A

AA

xx

x δΚ≤

δ+δ

(2.23)

donde ( ) 1−= AAAK (2.24)

es el número de condicionamiento de la matriz A. Dado que 2/1

2

1−− λ= mínA , donde

minλ es el menor valor característico de la matriz ATA, puede escribirse:

( ) ( ) 2/1

2 / mínmáxK λλ=A (2.25)

Por otro lado: para una perturbación bδ en b:

bbxxA δ+=δ+ )( (2.26)

de donde:

bAx δ=δ −1

bAx δ≤δ −1

y dado que b = A x, lo que implica A

bx ≥

se obtiene:

( )b

bA

x

x δ≤

δK (2.27)

Las ecuaciones (2.23) y (2.27) indican que, si ( )AK es grande, pequeños cambios en A

o en b pueden originar cambios importantes en la solución.

Si se tienen errores relativos de orden ∈ tanto en A como en b, (2.23) y (2.27) pueden

combinarse, para escribir:

xAx )(2 K∈≤δ (2.28)

Page 23: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 23

Los errores de redondeo introducidos en el proceso de solución pueden ser

considerados como equivalentes a perturbaciones en las matrices A y b iniciales. ( )AK

es también un buen indicador de los efectos de los errores de redondeo en la solución.

La expresión (3) implica que si A y b están dadas con t cifras significativas, el número de

cifras que puede esperarse sean correctas en la solución, s, puede estimarse mediante:

[ ])(log10 AKts −≥ (2.29)

Para el ejemplo precedente: ∞A = 0.913 + 0.659 = 1.572

además:

−−

=−

780.0913.0563.0659.0

1061A

de donde ∞

−1A = 0.913 x 106 + 0.780 x 106 = 1.693 x 106

( )∞

−∞∞ = 1AAAK = 1.572 x 1.693 x 106 = 2.7 x 106

Alternativamente, trabajando con normas Euclidianas:

=

751250.0040807.1

0040807.1441969.1AAT

cuyos valores característicos son máxλ = 2.1932, mínλ = 4.56 x 10-13

de donde ( ) ( ) 2/1mínmáx2 / λλ=AK = 2.2 x 106

Ambos resultados indican un mal condicionamiento de la matriz A.

Note que en el ejemplo anterior la matriz A no era simétrica, por lo que fue necesario

evaluar los valores característicos de AAT . Si A fuera simétrica, los valores

característicos de AAT serían exactamente los cuadrados de los valores característicos

de A.

2.6.3 Errores de redondeo en la solución de sistema s de ecuaciones lineales por el método de Gauss (y otros métodos de elimina ción similares)

Las relaciones teóricas utilizadas en la reducción son:

)()( / iii

ikiki aal =

)()()1( iijki

ikj

ikj alaa −=+

(2.30)

)()()1( iiki

ik

ik blbb −=+

Sin embargo, como resultado de los errores de redondeo, los valores calculados (aquí

indicados en barras) satisfacen:

)1)(/( 1

)()(δ+=

i

ii

i

kiki aal

)1))(1(( 32

)()()1(δ+δ+−=

+ iijki

ikj

ikj alaa (2.31)

)1))(1(( 54

)()()1(δ+δ+−=

+ i

iki

i

k

i

k blbb

donde ∈≤δ i , siendo ∈ el máximo error relativo de redondeo. Alternativamente puede

escribirse:

Page 24: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 24

)()()(/)(

iii

iki

ikiki aeal +=

)()()()1( ikj

iijki

ikj

ikj ealaa +−=

+ (2.32)

)()()()1(

ik

i

iki

i

k

i

k eblbb +−=+

y puede probarse que:

)()(

i

kii

ki ae ∈≤

∈≤+ )1()(

)( ,.3i

kj

i

kji

kj aamáxe (2.33)

∈≤+ )1()(

)( ,.3i

k

i

ki

k bbmáxc

Por otro lado, considerando que . kjkj aa =)1(, 1=kkl , pueden utilizarse las expresiones

precedentes para escribir kja en función de los )1(

, ijki al . (es decir los elementos de las

matrices L y U). Se obtiene así:

( ) ∑∑==

=+s

i

iijki

r

i

ikjkj alea

1

)(

1

(2.34a)

donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que kk bb =)1(, se

obtiene:

( ) ∑∑=

=

=+k

i

i

iki

k

i

ikk blcb

1

)(1

1

(2.34b)

Esto demuestra que las matrices calculadas:

)( kil=L

)()(i

ija=U

)( )(iib=y

No son factores exactos de A y b sino de A + ∆A y b + ∆b:

ULAA =∆+

yLbb =∆+

Los elementos de ∆A son sumatorias de los ( )ikje ; los elementos de ∆b son sumatorias

de los ( )ikc . Las expresiones (4) dan una medida de estas perturbaciones. Obsérvese

que las expresiones (2.23) y (2.27) son aplicables también en este caso, y un valor de

)(AK alto indica que los errores de redondeo tendrán efectos importantes en la

solución.

Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el

crecimiento de los )(ikja , )(i

kb . Este es el propósito al realizar intercambios de filas y/o

columnas.

Finalmente, debe mencionarse que en el proceso de sustitución inversa, para obtener x

resolviendo yxU = , los errores acumulados son despreciables en términos relativos a

los que resultan de la reducción.

Page 25: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 25

Las ecuaciones precedentes permiten una estimación a-posteriori de la magnitud del

error. A-priori puede establecerse (1):

)1(

,

)(

,,

ijji

kij

kjin

amáx

amáxg = (2.35)

teniendo que:

12 −≤ nng para intercambio parcial (filas)

n 25.08.1 Lnn ng ≤ para intercambio total.

Estos límites son teóricos. Nótese por ejemplo que para un sistema de orden 100 se

tendría 29103.6 xgn ≤ para intercambio parcial y 18≤ng para intercambio completo, lo

que justificaría el trabajo adicional necesario para la segunda alternativa. Sin embargo,

en la práctica rara vez se observa un ng mayor que 10, aún con intercambio parcial.

Para matrices simétricas definidas positivas se tiene que 1≤ng .

2.6.4 Algunas consideraciones relativas a unidades. Equilibrio de las ecuaciones.

En un sistema de ecuaciones A x = b... los aij, bi, xj pueden expresarse en diversos

sistemas de unidades. Un cambio de unidades equivale a considerar b = D1 b’; x = D2 x’

y por lo tanto (D1 A D2) x’ == D1 b’. En estas expresiones las matrices D1 y D2 son

diagonales. Puede demostrarse que, si se utilizan los mismos pivotes y las D1 y D2 solo

contienen potencias enteras de la base del sistema de numeración utilizado, los

resultados son los mismos (habida cuenta de los cambios de unidades).

Sin embargo las unidades utilizadas pueden afectar la selección de pivotes,

especialmente si sólo se hace intercambio parcial.

En tal caso, es recomendable equilibrar las ecuaciones. Para las incógnitas deben

seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben

multiplicarse por factores D1 tales que:

11

=≤≤ ij

njamáx i=1,2,3,...n

2.6.5 Método iterativo para mejorar la solución

Considérese el sistema de ecuaciones bAx = para el que se tiene la solución

aproximada )0(x . Si x es la solución exacta, se tiene que:

)0()0( xxx ∆+=

y entonces:

)0()0( rxA =∆

donde: )0()0( Axbr −=

Al determinar . )0(x . se obtienen los factores triangulares aproximados L y U tales que

AAUL ∆+= , siendo A∆ pequeño. Esta descomposición requiere aproximadamente

( )33

1 nO operaciones.

A partir de )0(x puede determinarse )0(r en ( )2nO operaciones y resolverse:

Page 26: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 26

rzL =

zxU =∆

también en ( )2nO operaciones. Dado que L y U no son los factores exactos de A , y

además se introducen nuevos errores de redondeo, es necesario iterar:

)()( ii xAbr −= )()( ii rzL = (2.36)

)()( ii zxU =∆ )()()1( kkk xxx ∆+=+

Pero nada se ganaría si las operaciones se hicieran siempre con el mismo número de cifras significativas empleadas en los cómputos originales. Si los ija ib ix están dados con t dígitos, el cómputo de los residuos:

∑=

−=n

j

kjiji

ki xabr

1

)()(

debe hacerse con t2 dígitos (para minimizar errores de cancelación). Sin embargo, el

almacenamiento de los resultados puede hacerse en precisión simple, es decir, con t

dígitos.

Los vectores )1(x∆ y )2(x permiten también estimar el número de condicionamiento:

( ))2(

)1(1

x

xA

ε≤κ

n (2.37)

donde n es el orden del sistema y ∈ es el máximo error relativo de redondeo (al operar

en precisión simple). Si )1(x∆ no es mucho menor que )1(x , o lo que es lo mismo,

si ( ) εκ nA no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,

la única alternativa sería operar con mayor precisión en toda la solución.

Considérese, por ejemplo, el sistema de ecuaciones:

−=

.0

1

.0

623

2117

375

3

2

1

x

x

x

y supóngase que la computadora opera en base 10 con 3 cifras significativas. La

factorización de la matriz de coeficientes, ULA = , resulta en:

−=

17.0

20.220.1

00.300.700.5

00.183.160.0

00.140.1

00.1

623

2117

375

De la reducción del segundo miembro, es decir la solución de byL = se obtiene:

( )T83.100.100.0 −−=y

Finalmente por sustitución inversa, es decir resolviendo yxU = , se determina

( )Tx 8.106.203.35)1( −−=

Page 27: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 27

Para esta solución aproximada se tiene el residuo:

( )T100.0100.0100.0)1()1( =−= xAbr

El cómputo de los ∑− jiji xab deben hacerse en doble precisión, almacenándose los

resultados ir en precisión simple.

Resolviendo los dos sistemas triangulares: )1(rzL = y zxU =∆ )1( se obtiene:

( ) T195.0391.0685.0)1( −−=∆x

Y entonces:

( ) T0.110.210.36)1()1()2( −−=∆+= xxx

(redondeado a 3 cifras significativas). Este resultado es mejor que )1(x (en este caso el

resultado es exacto, aunque debería decirse que por accidente).

Puede verificarse fácilmente que la matriz A del ejemplo anterior es bien condicionada.

Por otro lado, considérese nuevamente el sistema:

=

254.0

217.0

659.0913.0

563.0780.0

2

1

x

x

para el cual se obtuvo anteriormente ( )Aκ de orden 2 x 106. Supóngase que se opera

en base 10 con 6 cifras significativas:

=

−6103

000563.0000780.0

00000.105117.1

00000.1

659.0913.0

563.0780.0

se pierden cifras significativas en el elemento 22a de esta última matriz al restar dos

números que solo difieren en la última cifra almacenada). De aquí resultan:

( ) T333333.0803518.0)1( −=x

( )T66)1( 10692.010139.0 −− ⋅⋅=r

No obstante ser este residuo “pequeño”, se obtiene la corrección:

( ) T433176.0348127.0)1( −=∆x

( ) T900156.0455391.0)1()1()2( −=∆+= xxx

y es obvio que este resultado difiere más de la solución exacta ( ) T11 −=x que la

aproximación )1(x antes obtenida. ¡Para resolver este sistema de ecuaciones se

requiere trabajar con un mínimo de 8 cifras significativas!

2.7.Métodos Iterativos para la Solución de Sistemas de Ecuaciones Lineales

En los acápites siguientes se tratan dos tipos distintos de métodos iterativos. Estos

procesos pueden ser muy eficientes cuando la matriz de coeficientes, A , es de baja

densidad, más aún si la evaluación de productos de la forma Av no requiere la previa

determinación y el almacenamiento de A en forma explícita.

Page 28: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 28

2.7.1 Métodos de Relajación

Estos procedimientos son adecuados sólo cuando la diagonal principal de la matriz de

coeficientes es dominante. En general, se considera una aproximación inicial, tal como

0x =)0( , y ésta es sucesivamente mejorada hasta obtener una solución suficientemente

precisa.

Considérese el sistema de orden n : bxA = , con 0≠iia para todo i . En el método de

Jacobi se calculan las aproximaciones L)3()2()1( ,, xxx mediante:

−= ∑

+

ij

kjiji

ii

ki xab

ax )()1( 1

(2.38)

La aproximación es arbitraria; con frecuencia 0x =)0( . Si los )1( +kix se determinan en el

orden habitual, al determinar )1( +krx ya se han previamente obtenido las nuevas

aproximaciones )1(1

)1(2

)1(1 , +

−++ k

rkk xxx L . Sin embargo, en el método de Jacobi no se hace

uso de estas nuevas aproximaciones hasta la iteración siguiente, difiriendo en esto del

método de Gauss - Seidel:

−−= ∑∑

+=

=

++n

ij

kjij

i

j

kjiji

ii

ki xaxab

ax

1

)(1

1

)1()1( 1 (2.39)

Nótese que sólo se requiere almacenar las últimas aproximaciones a los ix .

En el ejemplo siguiente se usan las dos alternativas:

−−

=

−−−−−−

−−

75.2

1

75.2

1

5110

1501

1051

0115

4

3

2

1

x

x

x

x

La solución exacta es

( )T50.025.050.025.0 −−=x

Con el método de Jacobi se obtienen las sucesivas aproximaciones:

k )(1

kx )(2kx )(

3kx )(

4kx

0 0 0 0 0

1 0.2 0.55 -0.2 -0.55

2 0.27 0.48 -0.27 -0.48

3 0.242 0.508 -0.242 -0.508

4 0.2532 0.4968 -0.2532 -0.4968

5 0.24872 0.50128 -0.24872 -0.50128

6 0.250512 0.499488 -0.250512 -0.499488

7 0.249795 0.500205 -0.249795 -0.500205

8 0.250082 0.499918 -0.250082 -0.499918

9 0.249967 0.500033 -0.249967 -0.500033

10 0.250013 0.499987 -0.250013 -0.499987

11 0.249995 0.500005 -0.249995 -0.500005

12 0.250002 0.499998 -0.250002 -0.499998

Page 29: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 29

k )(1

kx )(2kx )(

3kx )(

4kx

13 0.249999 0.500001 -0.249999 -0.500001

14 0.250000 0.500000 -0.250000 -0.500000

15 0.250000 0.500000 -0.250000 -0.500000

La convergencia es mejor con el método de Gauss – Seidel:

k )(1

kx )(2kx )(

3kx )(

4kx

0 0 0 0 0

1 0.2 0.59 -0.16 -0.464

2 0.286 0.5144 -0.2356 -0.49424

3 0.255760 0.502304 -0.247696 -0.499078

4 0.250922 0.500369 -0.249631 -0.499853

5 0.250147 0.500059 -0.249941 -0.499976

6 0.250024 0.500009 -0.249991 -0.499996

7 0.250004 0.500002 -0.249998 -0.499999

8 0.250001 0.500000 -0.250000 -0.500000

9 0.250000 0.500000 -0.250000 -0.500000

En algunos casos la convergencia puede acelerarse con sobrerelajación:

)()()1( ki

ki

ki rxx β+=+ (2.40a)

−−= ∑∑

=

=

+n

ij

kjij

i

j

kjiji

ii

ki xaxab

ar )(

1

1

)1()( 1 (2.40b)

El valor óptimo de β depende de A e incluso de la aproximación )(kx . Cuanto mayores sean los valores absolutos de los términos de la diagonal principal, respecto a la suma de los valores absolutos de los restantes coeficientes de la misma fila, más se aproxima β a 1. Para el ejemplo precedente, utilizando 05.1=β se obtienen:

k )(1

kx )(2kx )(

3kx )(

4kx

0 0 0 0 0

1 0.210000 0.621600 -0.165900 -0.481803

2 0.295197 0.507233 -0.240892 -0.497478

3 0.251172 0.500414 -0.249680 -0.499972

4 0.250096 0.500005 -0.249990 -0.499998

5 0.249998 0.500000 -0.250000 -0.500000

6 0.250000 0.500000 -0.250000 -0.500000

Estos métodos no son necesariamente más precisos que los procesos de eliminación. El

ejemplo al inicio de la sección 2.6 muestra que si el sistema es mal condicionado puede

aceptarse como correcta una solución totalmente equivocada, pero con la que se tiene

un residuo “pequeño”.

Page 30: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 30

2.7.2 Convergencia

En esta sección se analiza la convergencia de los métodos de relajación. Un paso típico

en la solución de bxA = puede escribirse como:

fxGx +=+ )()1( kk (2.41)

Esto puede verse más fácilmente si se considera la descomposición:

( )si TITDA ++= (2.42)

donde D es una matriz diagonal, con elementos iia ; iT y sT son matrices triangulares,

inferior y superior respectivamente, con ceros en la diagonal principal, cuyos coeficientes

son los iiij aa . Por ejemplo:

−+

+

=

−−

00

0

10

01

0

00

20

02

21

1221

21

Con esta notación, para el método de Jacobi se tiene:

( ) bDxTTx 1)()1( −+ ++−= ksi

k (2.43a)

es decir: ( )si TTG +−= (2.43b)

mientras que para el método de Gauss-Seidel puede escribirse:

bDxTxTx 1)()1()1( −++ +−−= ks

ki

k (2.44a)

y por lo tanto: ( ) si TTIG 1−+−= (2.44b)

De modo similar, para el método de sobre relajación se tiene:

( ) ( )[ ]si TITIG β−β−β+= − 11 (2.45)

Por otro lado, dado, que la solución exacta, x , debe cumplir la ecuación (2.41), se tiene

que:

fxGx += (2.46)

y restando (2.46) de (2.41):

( ) ( )xxGxx −=−+ )()1( kk (2.47a)

de donde:

( ) ( ) ( ) ( )xxGxxGxxGxx −==−=−=− +−+ )0(1)1(2)()1( kkkkL (2.47b)

Además, si nφφφφ L321 ,, son los vectores característicos de la matriz G , a los que

corresponden los valores característicos nλλλλ L321 ,, , puede escribirse:

( ) nn φα++φα+φα+φα=− L332211)0( xx

ya que los vectores característicos constituyen una base completa. Es relativamente

fácil probar que:

( ) ( ) nknn

kkkkk φλα++φλα+φλα+φλα=−=− L333222111)0()( xxGxx (2.47c)

Para tener convergencia:

( ) 0xx =−∞→

)(k

kLim (2.48a)

Page 31: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 31

y por tanto se requiere 1<λ i para todo i , o lo que es lo mismo:

( ) 1≤λ=ρ ii

máxG (2.48b)

( )Gρ se denomina el radio espectral de la matriz G .

Para k suficientemente grande el error se multiplica por ( )Gρ en cada paso, es decir se

tiene aproximadamente ( )[ ]Gρ− 10log cifras decimales exactas adicionales en cada

paso.

No es práctico determinar con gran precisión los valores característicos de G (esto

significaría más trabajo que resolver el sistema de ecuaciones), pero ciertos límites

pueden ser fácilmente establecidos.

Para el método de Jacobi: iiijij aag −= si ji ≠ (2.49a)

0=iig

y utilizando el teorema de Gerschgorin (véase el capítulo relativo a la evaluación de

valores y vectores característicos):

( ) ∑≤λ=ρj

iji

ii

gmáxmáxG o bien ∑i

jij

gmáx (2.49b)

con lo que la condición de convergencia ( ) 1≤ρ G puede rescribirse:

∑≠=

>n

jii

ijjj aa1

∑≠=

>n

ijj

ijii aa1

(2.49c)

Estas son condiciones suficientes pero no necesarias. La convergencia es más rápida

cuanto más fuertes son las desigualdades.

Para el método de Gauss – Seidel ( ) ( )[ ]iii

srmáx −=ρ 1G (2.50a)

donde:

∑+=

>n

ij ii

ij

i a

ar

1

∑−

=

>1

1

i

j ii

iji a

as (2.50b)

y finalmente se concluye que las condiciones para la convergencia son las mismas que

para el método de Jacobi (aunque en general el método de Gauss -Seidel converge más

rápidamente).

Un análisis similar del método de sobre relajación permite establecer la condición

adicional: 20 ≤β<

2.7.3 Métodos de Máxima Gradiente y de Gradiente Co njugada

En la primera parte de esta sección se consideran métodos para la solución de sistemas

de ecuaciones bxA = con matriz A simétrica y definida positiva, es decir, 0>vAvT

para todo vector v no nulo.

Considérese la función:

bxxAxx TTf −=21)( (2.51)

Si x es la solución exacta de bxA = se tiene que:

Page 32: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 32

( ) ( )( ) ( )xxAxx

bxxAxbxxAxxx

−−=

−−−=−T

TTTTff

21

21

21)()(

Pero, siendo A definida positiva: ( ) ( ) 021 ≥−− xxAxx T

Y por lo tanto 0)()( ≥− xx ff , es decir, )()( xx ff ≥ (2.52)

La igualdad solo se da si xx = . La solución de bxA = es entonces equivalente a una

minimización de )(xf .

Dada la aproximación inicial )0(x , a la que corresponden el residuo )0()0( xAbr −= y el

valor )(xf , debe determinarse una nueva aproximación, )1(x , tal que )()( )0()1( xx ff < .

Para reducir el valor de )(xf lo más rápidamente posible, la corrección debe hacerse en

la dirección de máxima gradiente. Debe entonces determinarse esta dirección, z , tal

que:

0

)0( )(=α

α+α

zxfd

d

sea máxima (en valor absoluto). Siendo bxxAxx TTf −=21)( , puede escribirse:

)(

)()()()()0()0(2

21

)0()0()0(21)0(

xrzzAz

bzxzxAzxzx

f

fTT

TT

+α−α=

α+−α+α+=α+ (2.53a)

de donde:

)0(

0

)0( )( rzzx Tfd

d −=α+α =α

Esto significa que debe tomarse la dirección )0(rz = (2.53b)

Ahora puede determinarse 0α de modo que )( )0(0

)0( rx α+f sea un mínimo.

Rescribiendo (2.53a) con )0(rz = y derivando con respecto a α :

0)( )0()0()0()0()0()0( =−α=α+α

rrrArrxTT

fd

d

de donde:

)0()0(

)0()0(

0rAr

rrT

T

(dado que A es definida positiva, nunca se presenta el caso 0)0()0( =rArT

)

Finalmente:

)0(0

)0()1( rxx α+=

El proceso puede repetirse en sucesivos ciclos:

)()( kk xAbr −= (2.54a)

)()(

)()(

kTk

kTk

krAr

rr=α (2.54b)

)()()1( kk

kk rxx α+=+ (2.54c)

Page 33: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 33

Este método es siempre convergente, pero no puede conocerse a priori en cuantos

ciclos se tendrá la precisión requerida.

En los párrafos siguientes se estudia una modificación de este proceso, el método de

Gradiente Conjugada, para el que – al menos en teoría - puede garantizarse la

convergencia en un número de pasos igual o inferior al orden del sistema de ecuaciones.

Considérese el sistema de ecuaciones de orden n , bxA = . Dada una solución

aproximada, )0(x , la solución exacta, x , puede escribirse como:

xxx ∆+= )0(

x∆ puede expresarse como combinación lineal de n vectores linealmente

independientes. En particular, si se consideran vectores 12210 ,,, −− nn sssss L , que

satisfacen las relaciones de ortogonalidad:

ijijTi c δ=sAs

puede escribirse:

11)1()(

)()1(

11)1()2(

00)0()1(

−−−

+

α+==

α+=

α+=

α+=

nnnn

kkkk

sxxx

sxx

sxx

sxx

LL

LL

alternativamente:

∑−

=

α+=1

0

)0(n

k

kk sxx (2.55)

Suponiendo que los vectores ks son conocidos, los coeficientes kα pueden obtenerse

utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:

( ) ∑−

=

α=−=−=1

)()()(n

ik

kkiii sAxxAxAbr (2.56)

premultiplicando por Tjs se obtiene:

01

)( =α=∑−

=

n

ik

kTjk

iTj sAsrs si ij < (2.57)

jTjj sAsα= si ij ≥

de donde puede escribirse:

jTj

jTj

jsAs

rs )(

=α (2.58a)

Alternativamente, puede utilizarse

jTj

jTj

jsAs

rr )()(

=α (2.58b)

Page 34: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 34

La expresión alternativa )()( )0(j

Tj

Tjj sAsrs=α no es conveniente, por la acumulación

de errores de redondeo.

Dado que los 12210 ,,, −− nn sssss L son n vectores linealmente independientes en un

espacio n -dimensional, el error siempre puede ser expresado como una combinación

lineal de estos vectores , es decir el proceso debería llegar a la solución exacta (salvo

errores de redondeo) en n pasos.

El vector 1+ks se obtiene eliminando de )1( +kr la componente según ksA :

kkk

k srs β−= ++

)1(1 (2.59)

donde:

kTk

kTk

ksAs

rAs )1( +

=β (2.60)

En el proceso de determinación de pueden tenerse errores de cancelación importantes si

son aproximadamente paralelos.

Es relativamente fácil probar que si kssss L210 ,, son A -ortogonales, entonces 1+ks

calculado con (2.59) resulta también A -ortogonal a todos los vectores previamente

hallados. Para empezar, con ks :

( ) ( ) 0)1(´

)1()1(1 =−=β−=

+++

+ kTk

kTk

TkkT

kkkkT

kkTk sAs

sAs

rAsrAssrAssAs

Por otro lado, de (2.57) se concluye que:

j

Tkj

Tk sArsAs )(

1 =+

y

( ))()1(1 jj

jj rrsA −

α= −

y por lo tanto, para kj < :

011 )()()1()(

1 =

α−

α= −

+jTk

j

jTk

jj

Tk rrrrsAs

El método de gradiente conjugada puede resumirse en los pasos siguientes:

Dado )0(x , determinar )0(0

)0( xAbsr −==

Y luego para 12,1,0 −= nk L :

kk sAq = (no se requiere A en forma explícita)

kTk

kTk

kqs

rr )()(

kkkk sxx α+=+ )()1( (2.61)

kk

kk qrr α−=+ )()1(

)()(

)1()1()1(

kTk

kTk

kTk

k

Tk

krr

rr

qs

qr +++

−==β

Page 35: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 35

kkk

k srs β−= ++

)1(1

Como ejemplo, considérese la solución del sistema de ecuaciones bAx= definido por:

−−−

−=

210

121

012

A

=4

0

0

b

Con la aproximación inicial 0)0( =x se obtienen:

)0(0

)0( xAbsr −== ( )T400

00 sAq = ( )T840 −

)()( 00)0()0(

0 qsrr TT=α

1/2

00)0()1( sxx α+= ( )T200

00)0()1( qrr α−= ( )T020

)()( 000)1(

0 qsqr TT=β

1/4

00)1(

1 srs β−= ( )T120

11 sAq = ( )T032−

)()( 11)1()1(

1 qsrr TT=α

2/3

11)1()2( sxx α+= ( )T38340

11)1()2( qrr α−= ( )T0034

)()( 111)2(

1 qsqr TT=β

4/9

11)2(

2 srs β−= ( )T949834

22 sAq = ( )T00916

)()( 22)2()2(

2 qsrr TT=α

3/4

22)2()3( sxx α+= ( )T321

El método de gradiente conjugada puede ser generalizado para resolver cualquier

sistema de ecuaciones bxA = (con A no singular):

Con )0(x arbitrario, se obtiene )0(0

)0( xAbsr −==

Y luego para 12,1,0 −= nk L :

kT

k sAq = (no se requiere A en forma explícita)

kTk

kTk

kqq

rr )()(

kkkk qxx α+=+ )()1( (2.62)

Page 36: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 36

kkkk qArr α−=+ )()1(

)()(

)1()1(

kTk

kTk

krr

rr ++

−=β

kkk

k srs β−= ++

)1(1

2.8 Sistemas Sobre-Determinados de Ecuaciones Linea les

El problema de determinación de los parámetros de un modelo lineal para aproximar un

conjunto de datos es frecuente. A fin de reducir la influencia de errores de medición, es

habitual hacer más mediciones que las estrictamente necesarias, de donde resultan más

ecuaciones que incógnitas.

Dada una matriz A de orden nm× ( nm> ) y un vector b de orden m , se requiere

determinar x de modo tal que xA sea la mejor aproximación posible a b .

Un proceso simple (y muy adecuado si los errores en los ib son estadísticamente

independientes) es el método de mínimos cuadrados, que consiste en minimizar la

magnitud del residuo xAbr −= (o minimizar rrr T=2) con respecto a las x . Dado

que:

xAAxbAxbbrr TTTTTTf +−== 2 (2.63)

y por lo tanto:

0xAAbAx

=+−=∂∂ TTf

22

el método de mínimos cuadrados puede formularse como la solución del sistema de

ecuaciones normales:

( ) bAxAA TT = (2.64)

Si ( )naaaaA L321= , la matriz simétrica AAC T= tiene elementos jTiijc aa= .

La matriz C es no singular sólo si todas las columnas ka de la matriz A son linealmente independientes.

Para formar las ecuaciones normales se requieren ( )321 +nmn operaciones. Para

resolver el sistema ( )36

1 nO operaciones. La mayor parte del trabajo está en formar las

ecuaciones normales.

Considérese por ejemplo

=

−−

1

2

1

3

2

1

101

110

011

100

010

001

3

2

1

x

x

x

las ecuaciones normales son en este caso:

Page 37: 2. ÁLGEBRA LINEAL - Miscelaneas Blog's – Ingenieria Civil · PDF fileH. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 2 Una matriz cuadrada en la que la mayor parte de los

H. Scaletti - Métodos Numéricos: Álgebra Lineal 2 - 37

−=

−−−−−−

6

1

1

311

131

113

3

2

1

x

x

x

de donde:

( )T375.125.1=x

Un método alternativo (y numéricamente mejor condicionado) se basa en al descomposición de la matriz de coeficientes, A , en el producto de una matriz ortogonal, Q , y una matriz triangular superior, R (en el capítulo relativo a valores y vectores característicos se describen procedimientos que pueden ser empleados para esto).

Al tenerse RQA = (2.65)

las ecuaciones normales ( ) bAxAA TT = pueden rescribirse:

( ) 0=− AxbAT

( ) 0=− xRQbQR TT

y dado que IQQ =T se obtiene:

( ) 0=− xRbQR TT

La matriz R no es singular y por tanto:

bQxR T= (2.66)

La matriz R es la misma que se obtendría al descomponer AAT en dos factores

triangulares por el método de Cholesky. Para el ejemplo precedente:

−−−

−−−

−==

−−

=4142.100

8165.06330.10

5774.05774.07321.1

3536.02041.05774.0

3536.06124.00

04082.05774.0

7071.000

3536.06124.00

3536.02041.05774.0

101

110

011

100

010

001

QRA

de donde:

−==

−−−

=2426.4

4082.0

5774.0

4142.100

8165.06330.10

5774.05774.07321.1

3

2

1

bQxR T

x

x

x

y finalmente: ( )T375.125.1=x