Download - 3. Valores y Vectores Característicos · PDF fileH. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 2 Sin embargo, si A y B son simétricas (como es, por ejemplo,

Transcript

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 1

3. Valores y Vectores Característicos

3.1. Introducción

El producto de una matriz cuadrada, A, por un vector (matriz columna), x, es otro vector,

cuyas componentes son habitualmente no proporcionales a x. Sin embargo, puede

existir un vector φφφφ no nulo tal que:

A φ φ φ φ = λ φ φ φ φ (3.1a)

Se dice entonces que φφφφ es un vector característico (también llamado vector propio,

eigenvector o modo) de la matriz A. El correspondiente escalar λ es un valor

característico (también llamado valor propio, autovalor o eigenvalor). Nótese que si un

vector satisface las ecuaciones (3.1a) también un múltiplo arbitrario (un vector "paralelo")

es solución. Sin embargo, se trata esencialmente de la misma solución; los vectores

característicos sólo se califican como distintos si sus componentes no son

proporcionales.

Por ejemplo,

=

−−

1

11

1

1

21

12

−=

−−

1

13

1

1

21

12

en este caso

=1

11φφφφ y

−=

1

12φφφφ son vectores característicos, a los que corresponden

los valores propios 1 y 3, respectivamente. Otros vectores, no paralelos a los dos antes

mencionados, no cumplen la condición (3.1a):

=

−−

3

0

2

1

21

12

El vector

3

0 no puede expresarse como un múltiplo de

2

1.

El problema clásico de valores y vectores característicos consiste en la determinación de

los vectores φφφφ y los correspondientes escalares λ para los que se cumple (3.1a). Con

frecuencia se presenta el problema general:

A φ φ φ φ = λ B φφφφ (3.1b)

En muchas aplicaciones las matrices A y B son simétricas y definidas positivas. En

algunos casos se hacen hipótesis simplificadoras que resultan en B diagonal. El

problema clásico, definido en (3.1a), corresponde al caso particular B = I.

3.1.1 Conversión del Problema General a la Forma C lásica

Un problema de la forma general (3.1b) puede convertirse a otro equivalente de la forma

clásica (3.1a). Así por ejemplo, si B es no singular puede determinarse:

B-1 A φ φ φ φ = λ φ φ φ φ (3.2)

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 2

Sin embargo, si A y B son simétricas (como es, por ejemplo, el caso en problemas de

vibración, en los que esas matrices son respectivamente rigideces y masas) conviene

más hacer la descomposición (Cholesky):

B = RT R (3.3a)

y efectuar entonces el cambio de variables

φ φ φ φ = R-1 z (3.3b)

con lo que se obtiene:

(R-1)T A R-1 z = λ z (3.3c)

Esto es particularmente fácil si B es diagonal.

B = B½ B½

φ φ φ φ = B-½ z (3.4)

B-½ A B-½ z = H z = λ z

Donde ji

ijij

bb

ah = .

Nótese que los valores característicos son los mismos que los del problema original; los

correspondientes vectores característicos se relacionan mediante (3.4b).

3.1.2 Polinomio Característico y Valores Propios

Las ecuaciones A φ φ φ φ = λ B φφφφ pueden también rescribirse como:

(A - λ B) φφφφ = 0 (3.5a)

que tiene soluciones no triviales sólo si la matriz (A - λ B) es singular, es decir, si:

( ) ( ) 0det =λ−=λ BAp (3.5b)

( )λp se denomina polinomio característico. Siendo A y B matrices cuadradas de orden

n, ( )λp es un polinomio de grado n, cuyas raíces son λ1, λ2, ٠٠٠ λn. En lo que sigue se

supone, sin perder generalidad, que: nλ≤⋅⋅⋅≤λ≤λ≤λ 321

3.1.3 Independencia Lineal de los Vectores Caracte rísticos

Asociado a cada uno de los n valores característicos λ i se tiene un vector φφφφi. Si λ i es

una raíz de multiplicidad m, el correspondiente vector φφφφi puede obtenerse resolviendo el

sistema de ecuaciones homogéneas: (A - λ i B) φφφφi = 0 suponiendo m componentes

arbitrarias en φφφφi.

Los vectores característicos correspondientes a valores característicos distintos son

linealmente independientes. Supóngase que éste no fuera el caso, pudiéndose obtener

uno de los vectores como combinación lineal de otros que sí son linealmente

independientes:

∑=

=j

i

iis c1

φφφφφφφφ (3.6a)

Y entonces:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 3

∑∑==

==j

i

iιi

j

i

iis λcc11

φφφφφφφφΑφΑφΑφΑφ ΒΒΒΒΑΑΑΑ (3.6b)

Por otro lado, por la definición del problema, (3.1b):

∑=

==j

i

isisss λcλ

1

φφφφφφφφΑφΑφΑφΑφ ΒΒΒΒΒΒΒΒ (3.6c)

Restando (3.6b) de (3.6c) se obtiene: ( ) 0=λ−∑=

j

i

iisi λc1

ΒφΒφΒφΒφ

Si isλ λ≠ debería entonces tenerse ci = 0 para todo i, lo que se opone a la hipótesis.

Excepcionalmente pueden presentarse valores característicos repetidos. Aún en este

caso es factible obtener vectores característicos linealmente independientes. Sin

embargo, el conjunto de vectores asociados a los valores característicos repetidos define

un subespacio, tal que cualquier vector del subespacio (es decir una combinación lineal

de aquellos tomados como base) es también un vector característico:

A φφφφ i = λ i B φφφφi

A φφφφ i = λ i B φφφφi (3.7)

A ( c1 φφφφ1 + c2 φφφφ2 + c3 φφφφ3 + … ) = λ i B ( c1 φφφφ1 + c2 φφφφ2 + c3 φφφφ3 + … )

Teniéndose n vectores característicos linealmente independientes de dimensión n, estos

constituyen una base completa. Cualquier otro vector de tal dimensión puede

expresarse como combinación lineal de los vectores característicos:

v = α1 φφφφ1 + α2 φφφφ2 + α3 φφφφ3 + … + αn φφφφn (3.8)

Por ejemplo, con los vectores característicos antes obtenidos:

−−

=

1

1

1

1

2

121

23

3.1.4 Ortogonalidad de los Vectores Característico s

Si las matrices A y B son Hermitianas (o simplemente simétricas) y definidas positivas,

los valores característicos de A φφφφ = λ B φ φ φ φ son todos reales y positivos. Para probar

esto basta considerar:

rsrrs φφφφφφφφφφφφφφφφ BΑ** λ= (3.9a)

srssr φφφφφφφφφφφφφφφφ BΑ** λ= (3.9b)

El superíndice * denota aquí conjugada traspuesta. La conjugada transpuesta de la

segunda de estas expresiones es (recuérdese que sλ es un escalar):

rssrs φφφφφφφφφφφφφφφφ BΑ*** λ= (3.9c)

y al ser A y B Hermitianas (es decir A* = A y B* = B), restando (3.9c) de (3.9a) se

obtiene:

( ) 0** =λ−λ rssr φφφφφφφφ B (3.9d)

Si r=s, al ser B una matriz definida positiva se tendría 0>rr φφφφφφφφ B* . Por lo tanto, siendo

sr λ=λ , se tendría 0=λ−λ *rr lo que implica que todos los λ son números reales. Si

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 4

además A es definida positiva, es decir 0>rr φφφφφφφφ A* , se concluye que los valores

característicos son todos positivos.

Por otro lado, si sr λ≠λ se tiene que 0≠λ−λ *sr y en consecuencia (3.9d) implica que:

rsrrs b δ=φφφφφφφφ B* (es decir, cero si sr ≠ ) (3.10a)

y además, observando las expresiones precedentes:

rsrrs a δ=φφφφφφφφ A* (3.10b)

Las propiedades de ortogonalidad expresadas en (3.10) son la base para la

descomposición modal utilizada al resolver sistemas de ecuaciones diferenciales en

aplicaciones tales como el análisis sísmico lineal.

Refiriéndose nuevamente al ejemplo inicial:

( ) 21

1

21

1211 =

−−

( ) 61

1

21

1211 =

−−

( ) 01

1

21

1211 =

−−

3.1.5 Normalización de los Vectores Característic os

Como se mencionó anteriormente los vectores característicos se definen por la

proporción de sus elementos, pudiéndose escalar o "normalizar" en forma arbitraria. Es

frecuente escalarlos de modo que:

rsrs δ=φφφφφφφφ B* (3.11a)

Se dice entonces que los vectores están normalizados respecto a la matriz B. En tal

caso se tiene también:

rsrrs δλ=φφφφφφφφ A* (3.11b)

3.1.6 Cociente de Rayleigh

Si se conoce un vector característico φφφφi, el correspondiente valor λ i puede determinarse

con el cociente de Rayleigh:

( )i

Ti

iTi

i φφφφφφφφφφφφφφφφφφφφ

B

Α=ρ (3.12)

Esta expresión puede aplicarse también con aproximaciones a los vectores propios. Si x

es una aproximación a un vector característico con un error de orden ε, el cociente de

Rayleigh, ρ(x), aproxima el correspondiente valor característico con un error de orden ε 2.

3.1.7 Teorema de Gershgorin

Supóngase que iλ es un valor característico de la matriz A y que iφφφφ es el

correspondiente vector, con componentes L321 vvv :

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 5

iii φφφφφφφφ λ=A (3.13a)

La componente de mayor valor absoluto en iφφφφ es sv . Dividiendo la ecuación s en (3.13a)

entre sv e intercambiando ambos miembros:

++++

+

s

nsnss

ss

ssi v

vaa

v

va

v

va LL

22

11 (3.13b)

y por lo tanto:

snssssi aaaa +++++=−λ LL 021 (3.13c)

En consecuencia, cada valor característico iλ está dentro de por lo menos uno de los

círculos con centro en ssa y radio igual a la suma de los valores absolutos de la

correspondiente fila s.

Por ejemplo, considerando la matriz:

−−

=41

12A

que es definida positiva, puede asegurarse que sus valores característicos (que son

números reales) están dentro de los intervalos (1,3) y (3,5). Efectivamente, en este caso

23±=λ .

3.1.8 Formas polinómicas

Supóngase que se conocen los valores y vectores característicos de una matriz, A:

A φφφφ = λ φφφφ (3.14a)

¿Cuáles son los valores característicos de la matriz A2 = A A?

(AA) φφφφ = A (A φφφφ) = A (λ φφφφ) = λ (A φφφφ)= λ2 φφφφ

Este resultado puede extenderse para la matriz Ak (siendo k un exponente). Los

vectores característicos son los mismos que los de la matriz A, mientras que los

correspondientes valores característicos son λk:

Ak φφφφ = λk φφφφ (3.14b)

Esto es incluso válido para exponentes negativos. Por ejemplo, multiplicando ambos

miembros de (3.15a) por λ-1A-1 se obtiene:

A-1 φφφφ = λ-1 φφφφ (3.14c)

Por otro lado, combinando linealmente expresiones de la forma (3.14b) y teniendo en

cuenta que A0 = I (así como λ0 = 1):

(c0 I+ c1 A+ c2 A2 + c3 A

3 +...) φφφφ = (c0 + c1 λ+ c2 λ2 + c3 λ3 +...) φφφφ (3.14d)

Por ejemplo, si:

−−

=21

12A

tiene valores característicos 1 y 3, la matriz:

−−

==54

452 AAA

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 6

tiene valores característicos 1 y 9 (es decir, los cuadrados de 1 y 3). Los vectores

característicos son los mismos para ambas matrices.

3.2 Métodos de Iteración con Vectores

Los métodos que se presentan en esta sección son los más eficientes cuando sólo se

requieren un valor característico y su vector asociado, o en todo caso cuando el número

de valores y vectores característicos por determinar es pequeño.

3.2.1 Iteración Directa

En la iteración "directa" se considera un vector inicial 0x y se obtiene una secuencia de

vectores corregidos, kx , mediante:

jj xAxB =+1 (3.15a)

1

11

+

++ =

j

jj r

xx (3.15b)

donde rj+1 es un escalar que normaliza el vector utilizado en la iteración. Lo habitual es

tomar rj+1 como el elemento de máximo valor absoluto en 1+jx , lo que significa escalar el

vector de aproximación de modo que la mayor componente sea igual a 1..

Este proceso converge al vector característico nφφφφ , asociado al valor característico de

mayor módulo, nλ . En efecto, la aproximación inicial x0 puede escribirse como:

x0 = α1 φφφφ1 + α2 φφφφ2 + α3 φφφφ3 + … + αn-1 φφφφn-1 + αn φφφφn (3.16a)

Recuérdese que los n vectores característicos son linealmente independientes y

constituyen una base completa en el espacio de dimensión n. Entonces (suponiendo

que B no es singular):

∑∑ λα=α= iiiii φφφφφφφφ BAxA 0 (3.16b)

01

1 AxBx −= = (α1 λ1) φφφφ1 + (α2 λ2) φφφφ2 + …+ (αn λn) φφφφn (3.16c)

y por lo tanto:

( )∑ λα=n

iir11

1x φφφφi (3.16d)

Se observa que, si las componentes de x0 eran αi, aquellas de x1 resultan proporcionales

a αi λi. Repitiendo pasos análogos a los indicados en (3.18), puede comprobarse que la

aproximación xk puede expresarse como combinación lineal de los vectores

característicos con coeficientes proporcionales a kiiλα (en este caso k es un exponente).

En consecuencia, si 121 λ≥≥λ≥λ≥λ −− Lnnn , las componentes según φφφφn crecen

más rápidamente que las otras y se tiene que:

=∞→ k

kLim x φφφφn (3.17a)

nkk

rLim λ=∞→

(3.17b)

Esto es válido aún cuando αn = 0 puesto que, por lo menos al tratar con grandes

matrices, los errores de redondeo (debidos a la aritmética imperfecta del computador)

introducen siempre una componente según φφφφn. La convergencia es muy rápida si

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 7

1−λ>>λ nn o si x0 es aproximadamente paralelo a φφφφn (es decir, si la componente αn

es importante en relación a las demás). En cambio, si los últimos valores característicos

son similares la convergencia es en general muy lenta. Por otro lado, no se tienen

dificultades para el caso (más académico que práctico) en que 1−λ=λ nn : en tal caso el

proceso converge a un vector característico que resulta ser la proyección de x0 en el

subespacio definido por los vectores φφφφn y φφφφn-1.

Considérese por ejemplo el problema A φ φ φ φ = λ B φφφφ con las matrices:

−−−

−=

110

132

025

A

=300

020

001

B

Aún cuando en este caso se tienen matrices simétricas, el procedimiento descrito se

aplica a matrices cuadradas cualesquiera.

En este caso se obtienen:

k x k Ax k 1+kx r k+1 ρ (xk+1)

0 1.00000 5.00000 5.00000 5.00000

0.00000 -2.00000 -1.00000

0.00000 0.00000 0.00000 5.481481

1 1.00000 5.40000 5.40000 5.40000

-0.20000 -2.60000 -1.30000

0.00000 0.20000 0.06667 5.502594

2 1.00000 5.48148 5.48148 5.48148

-0.24074 -2.73457 -1.36728

0.01235 0.25309 0.08436 5.503559

3 1.00000 5.49887 5.49887 5.49887

-0.24944 -2.76370 -1.38185

0.01539 0.26483 0.08828 5.503603

4 1.00000 5.50259 5.50259 5.50259

-0.25130 -2.76994 -1.38497

0.01605 0.26735 0.08912 5.503605

5 1.00000 5.50339 5.50339 5.50339

-0.25169 -2.77128 -1.38564

0.01620 0.26789 0.08930 5.503605

6 1.00000 5.50356 5.50356 5.50356

-0.25178 -2.77156 -1.38578

0.01623 0.26801 0.08934 5.503605

El procedimiento converge al valor característico: φφφφ3 =

−01623.0

25180.0

00000.1

que corresponde al valor característico de mayor módulo, λ3 = 5.503605.

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 8

El valor de r es aproximadamente λn, pero el cociente de Rayleigh, ρ(x)" proporciona

siempre una aproximación mejor.

3.2.2 Iteración Inversa

El proceso de iteración directa antes descrito converge al vector característico asociado

al valor característico de mayor módulo. Éste puede ser útil al considerar el

condicionamiento de las matrices de coeficientes en grandes sistemas de ecuaciones, o

al analizar la estabilidad numérica de ciertos métodos para integrar sistemas de

ecuaciones diferenciales, pero por lo general tiene poca importancia en la respuesta del

sistema estudiado. Para determinar la respuesta de un sistema se requieren más bien

los valores característicos de menor módulo y sus vectores asociados.

Para determinar el vector característico asociado al valor propio de menor módulo (el

modo fundamental) puede usarse una "iteración inversa":

jj xBxA =+1 (3.18a)

1

11

+

++ =

j

jj r

xx (3.18b)

En este caso si:

x0 = α1 φφφφ1 + α2 φφφφ2 + α3 φφφφ3 + … + αn-1 φφφφn-1 + αn φφφφn (3.19a)

la aproximación xk puede expresarse como combinación lineal de los vectores

característicos con coeficientes proporcionales a kii λα (nuevamente, k es aquí un

exponente):

xk = k1

1

λα

φφφφ1 + k2

2

λα

φφφφ2 + k3

3

λα

φφφφ3 + … + kn

n

1

1

λα

φφφφn-1 + kn

n

λα

φφφφn (3.19b)

En consecuencia, si nλ≤⋅⋅⋅≤λ≤λ≤λ 321 al emplear la iteración inversa se tiene

que:

=∞→ k

kLim x φφφφ1 (3.20a)

1

1

λ=

∞→ kk

rLim (3.20b)

Los comentarios anteriores relativos a la convergencia de la iteración directa son

también válidos. En este caso la velocidad de convergencia depende de la razón λ2 / λ1.

Para las matrices del caso anterior y considerando, por ejemplo, el vector inicial:

=2

1

0

0x

se obtiene el vector asociado al valor característico de menor módulo, es decir, λ1.

Nótese que r es ahora una aproximación de 1 / λ1, mientras que en la iteración directa lo

era de λn. También en este caso se observa que el cociente de Rayleigh es siempre una

mejor aproximación al valor característico.

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 9

k x k Bx k 1+kx r k+1 ρ (xk+1)

0 0.00000 0.00000 2.66667 12.66667

1.00000 2.00000 6.66667

2.00000 6.00000 12.66667 0.154734

1 0.21053 0.21053 1.42105 6.44737

0.52632 1.05263 3.44737

1.00000 3.00000 6.44737 0.154625

2 0.22041 0.22041 1.42993 6.46463

0.53469 1.06939 3.46463

1.00000 3.00000 6.46463 0.154624

3 0.22119 0.22119 1.43102 6.46696

0.53594 1.07187 3.46696

1.00000 3.00000 6.46696 0.154624

4 0.22128 0.22128 1.43116 6.46727

0.53610 1.07221 3.46727

1.00000 3.00000 6.46727 0.154624

5 0.22129 0.22129 1.43118 6.46731

0.53613 1.07225 3.46731

1.00000 3.00000 6.46731 0.154624

6 0.22129 0.22129 1.43118 6.46731

0.53613 1.07226 3.46731

1.00000 3.00000 6.46731 0.154624

En muchas aplicaciones B es diagonal y A no lo es, por lo que la iteración directa es

más simple. Sin embargo, un paso típico de la iteración inversa requiere

aproximadamente el mismo número de operaciones que un paso de iteración directa.

Supóngase que se tienen matrices de orden n y que A es una matriz de alta densidad

(es decir, con pocos coeficientes no significativos). El número de operaciones

requeridas para efectuar el producto Ax es de orden n2. Aquí se cuenta como una

"operación" la combinación de una multiplicación o división con una suma o resta.

También se ha supuesto que n es grande, por lo que n2 es mucho mayor que n. La

división de Ax entre los coeficientes (de la diagonal principal) de B requiere un número

de operaciones de orden n, que puede despreciarse. Es interesante observar que si

previamente se realizó (una sola vez) la factorización A = LU, la solución del sistema de

ecuaciones Ax = b requiere también un número de operaciones de orden n2, mientras

que el producto Bx demanda sólo n operaciones. Por otro lado, si la matriz A es de baja

densidad y tiene un ancho de semibanda promedio m, tanto un producto de la forma Ax

como la solución de las ecuaciones Ax = b requieren aproximadamente mn operaciones.

3.2.3 Traslación

La velocidad de convergencia de la iteración inversa depende de las razones 1 / λi. Si

12 λ≈λ la convergencia es lenta; siendo en cambio muy rápida si 21 λ<<λ . La

convergencia puede acelerarse mediante una "traslación" 1λ≈µ :

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 10

A φ φ φ φ = λ B φφφφ (3.21a)

(A - µB) φ φ φ φ = (λ−µ) B φφφφ (3.21b)

Nótese que el nuevo sistema (3.21b) tiene los mismos vectores característicos que el

sistema original (3.21a) y valores característicos λ i - µ. Desde el punto de vista del

polinomio característico, se ha trasladado el origen:

-50

0

50

100

150

0 1 2 3 4 5 6 7

µµµµ

p( µµ µµ

)

Si 1λ≈µ puede lograrse que:

µ−λ>>µ−λ 21

y por tanto:

µ−λ<<

µ−λ 21

11

,

con lo que la convergencia mejora en forma apreciable.

Para el ejemplo anterior, efectuando una traslación µ = 0.154 se tiene:

−−−

−=−

538.010

1692.22

02846.4

154.0 BA

y por iteración inversa:

k x k Bx k 1+kx r k+1 ρ (xk+1)

0 0.00000 0.00000 692.29 3129.01

1.00000 2.00000 1677.41

2.00000 6.00000 3129.01 0.000624

1 0.22125 0.22125 354.79 1603.26

0.53608 1.07216 859.55

1.00000 3.00000 1603.26 0.000624

2 0.22130 0.22130 354.80 1603.29

0.53613 1.07226 859.57

1.00000 3.00000 1603.29 0.000624

Se obtienen: λ1 = 0.154 + 0.000624 = 0.154624 y φφφφ1 =

00000.153613.022129.0

.

El siguiente algoritmo usa el cociente de Rayleigh para efectuar la traslación. Iniciando

el proceso con 00 xBy = y µ0 = 0:

( ) kkk yxBA =µ− +1

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 11

11 ++ = kk xBy

11

11

++

++ +µ=µ

kTk

kTk

kkyx

yx (3.22)

( ) 121

111 +−

+++ = kkTkk yyxy

En relación con las expresiones precedentes:

By =∞→ k

kLim φφφφ1 (3.23a)

1λ=µ∞→ k

kLim (3.23b)

La convergencia es cúbica.

3.2.4 Determinación de Otros Vectores Característi cos

En los párrafos precedentes se ha visto cómo mediante iteración directa o inversa

pueden obtenerse φφφφn o φφφφ1 respectivamente. Podría determinarse un valor característico

intermedio y su vector asociado por iteración inversa con una traslación adecuada; sin

embargo, esto requeriría un procedimiento previo para definir la traslación.

En los que sigue se describe la determinación de sucesivos vectores característicos

aprovechando las condiciones de ortogonalidad para el caso en que las matrices A y B

son simétricas. La idea básica consiste en iterar con vectores ortogonales a los

previamente obtenidos. Desafortunadamente, el proceso acumula los errores de los

vectores previos y cada nuevo vector se determina siempre con menos precisión que el

anterior. En la práctica se observa que se pierde una cifra significativa por cada nuevo

vector; por tanto, no es factible determinar por este método más de unos 10 vectores

característicos. En algunas aplicaciones esto puede no ser suficiente.

A partir de un vector arbitrario:

v = α1 φφφφ1 + α2 φφφφ2 + α3 φφφφ3 + ... + αn φφφφn (3.24a)

puede obtenerse un vector ortogonal a los vectores característicos ya conocidos

haciendo uso de las relaciones de ortogonalidad:

φφφφiT B v = α1 φφφφi

T B φφφφ1 + α2 φφφφiT B φφφφ2 + ... + αn φφφφi

T B φφφφn

φφφφiT B v = αi φφφφi

T B φφφφi (3.24b)

es decir:

αi = ( φφφφiT B v ) / ( φφφφi

T B φφφφi ) (3.24c)

Luego es suficiente restar de v los αi φφφφi para obtener un vector que (salvo por la

imprecisión en la aritmética no tiene componentes según los vectores característicos

previamente hallados.

Para el ejemplo antes tratado, suponiendo que se haya obtenido el primer vector

característico:

φφφφ1 =

000000000.1

536128843.0

221295029.0

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 12

y considerando v =

010

se obtiene α1 = 0.295889928, de donde:

x0 = v - α1 φφφφ1 =

29589.0

84136.0

06548.0

es un vector ortogonal a φφφφ1. Si se hace una iteración inversa con x0 se obtiene

(suponiendo que se operara con una aritmética infinitamente precisa) el vector

característico φφφφ2:

k x k Bx k 1+kx r k+1 ρ (xk+1)

0 -0.06548 -0.06548 0.24319 0.64072

0.84136 1.68272 0.64072

-0.29589 -0.88767 -0.24696 1.20534

1 0.37956 0.37956 0.40775 0.82960

1.00000 2.00000 0.82960

-0.38544 -1.15631 -0.32671 1.17649

2 0.49150 0.49150 0.43668 0.84594

1.00000 2.00000 0.84594

-0.39382 -1.18147 -0.33553 1.17517

3 0.51620 0.51620 0.44210 0.84715

1.00000 2.00000 0.84715

-0.39663 -1.18990 -0.34275 1.17504

4 0.52187 0.52187 0.43603 0.82913

1.00000 2.00000 0.82913

-0.40460 -1.21379 -0.38466 1.17113

Es importante hacer notar que, como consecuencia de los errores de redondeo se

introducen en las aproximaciones xj componentes según los vectores característicos

originalmente eliminados.. En los resultados precedentes se tienen las siguientes

componentes según φφφφ1:

k α1

0 -1.565 x 10-6

1 -1.580 x 10-5

2 -0.000123

3 -0.000941

4 -0.007188

5 -0.056063

Como estas componentes tienden a crecer más rápidamente que la propia solución, es

necesario eliminarlas cada 4 ó 5 pasos, utilizando el mismo proceso inicial:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 13

xj = v - ∑−

=

α1

1

j

i

i φφφφi (3.25)

Para el caso del ejemplo:

( )

−=

−−

−=

40787.0

03006.1

53829.0

000000000.1

536128843.0

221295029.0

056093.0

46393.0

00000.1

52588.0

0x

y luego de escalar este vector:

k x k Bx k x k+1 r k+1 ρ (xk+1)

5 0.52258 0.52258 0.44489 0.85094

1.00000 2.00000 0.85094

-0.39597 -1.18790 -0.33696 1.17511

6 0.52282 0.52282 0.44496 0.85098

1.00000 2.00000 0.85098

-0.39599 -1.18796 -0.33698 1.17511

7 0.52288

1.00000

-0.39599

se obtienen: 17511.185098.0

12 ==λ y φφφφ2 =

− 39599.000000.152288.0

3.2.5 Deflación

Otra alternativa es hacer una deflación, obteniendo un nuevo sistema φλ=φ BA~~

, de

orden menor, con los mismos valores característicos del problema original, excepto los

previamente determinados. En lo que sigue se aplica esta idea a un problema de la

forma clásica φφφφφφφφ λ=H .

Considérese una matriz ortogonal, P , cuya última columna es igual al vector

característico 1φ previamente determinado:

( )1121 φ= −npppP L (3.26)

Al hacer el cambio de variable zP=φ se obtiene zPzPH λ= y premultiplicando por TP : ( ) zzPHP λ=T . Sin embargo, al ser la última columna de P igual a 1φ y

suponiendo que ese vector haya sido normalizado de modo que 111 =φφT se tiene:

λ=

1

~

0

0HPHPT (3.27)

Esta matriz tiene los mismos valores característicos que la matriz original, H . Lo mismo

se puede decir de H~

, excepto por 1λ .

Hay múltiples posibilidades para formar P . En el proceso propuesto por Rutishauser se

hacen las operaciones equivalentes a trabajar con 121 −= nJJJP L , donde:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 14

1

1

1

1

+

+

−=

k

k

k

k

kk

kkk cs

sc

columnacolumna

fila

fila

O

O

J (3.28a)

Nótese que ( ) 121121 −−= nTTT

nT JJJHJJJPHP LL , pudiéndose evaluar fácilmente los

sucesivos productos, ya que en cada caso sólo se alteran dos filas y dos columnas.

Los coeficientes kc y ks se determinan a partir de las componentes L321 xxx del

vector característico previamente hallado, 1φφφφ . Definiendo:

223

22

21

2kk xxxxq L+++= (3.28b)

se tiene:

1

1

1

+

+

+

=

=

k

kk

k

kk

q

xc

q

qs

(3.28c)

Para el ejemplo considerado anteriormente, sería necesario primero convertir el

problema a la forma clásica. Al ser B diagonal:

−−−

−==

−−

333333.0408248.00

408248.05.1414214.1

0414214.1521

21

BABH

Y para φφφφφφφφ λ=H pueden obtenerse (por iteración inversa):

Para φφφφφφφφ λ=H pueden obtenerse (por iteración inversa):

=90987.0

39827.0

11625.0

1φφφφ

Luego:

00000.1

90987.041489.041489.0

95994.028019.011625.0

3

222

111

====

===

q

csq

csq

Con el propósito de observar que, efectivamente, la última columna de P es igual a 1φ se está evaluando aquí la referida matriz:

−=90987.0414898.00

41489.090987.00

001

100

095994.028019.0

028019.095994.0

P

es decir:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 15

−−=

90987.041489.00

39827.087342.028019.0

11625.025494.095994.0

P

de donde:

−−

=15462.000

019271.127561.0

027561.048594.5

PHPT

Nótese el 1λ en la esquina inferior derecha. Los valores característicos de

−−

=19271.127561.0

27561.048594.5~H son 1751.12 =λ y 5036.53 =λ , es decir, iguales a los

restantes valores característicos del problema original. Los correspondientes vectores resultan:

=9980.0

0638.02z y

−=

0638.0

9980.03z

de donde:

=−

021

kk

zPBφφφφ

El factor 21−

B se requiere para obtener los vectores del problema general en su forma

original.

3.3 Métodos de Transformación

Los métodos de este grupo son eficientes sólo si se requieren todos o una alta

proporción de los valores y vectores característicos. La idea básica de estos procesos

consiste en hacer un cambio de variables:

φ φ φ φ = P z (3.29a)

para transformar A φ φ φ φ = λ B φφφφ en:

( P-1A P ) z = λ ( P-1B P ) z (3.29b)

Este sistema tiene los mismos valores característicos que el sistema original y vectores

propios relacionados por (3.29a). Si las transformaciones son tales que las nuevas

matrices tienen valores y vectores característicos fáciles de determinar, se ha resuelto

indirectamente el problema original.

3.3.1 Método de Jacobi

El método de Jacobi (1846) puede considerarse como prototipo de los métodos de

transformación. En este procedimiento se transforma el problema original a uno de la

forma:

λ=

nnnn z

zz

b

bb

z

zz

a

aa

MOMO2

1

2

1

2

1

2

1

(3.30)

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 16

que tiene como vectores característicos las columnas de la matriz identidad y como

valores característicos los iii ba=λ . Los valores característicos del sistema original

son los mismos. P es en este caso una matriz ortogonal:

P-1 = PT (3.31)

cuyas columnas son la propia solución buscada. Ésta se determina mediante un

proceso iterativo que se describe a continuación.

En la forma que aquí se presenta, este método se aplica a problemas de la forma

clásica, A φ φ φ φ = λ φ φ φ φ, siendo A una matriz simétrica (real). Más adelante se consideran las

modificaciones requeridas para problemas de la forma general.

Empezando con A(0) = A y llamando φφφφ(0) a los vectores característicos del problema

original, el paso k del proceso se define como:

φφφφ(k) = Pk φφφφ(k+1) (3.32a)

A(k) ( Pk φφφφ(k+1) ) = λ ( Pk φφφφ(k+1) )

y si P es una matriz ortogonal, premultiplicando por PT se obtiene:

( PkTA(k) Pk ) φφφφ(k+1) = λ φφφφ(k+1)

Lo que equivale a considerar un problema similar al original:

A(k+1) φφφφ(k+1) = λ φφφφ(k+1) (3.32b)

Siendo:

A(k+1) = PkTA(k) Pk (3.32c)

Nótese que se mantiene la simetría de la matriz. Los valores característicos de esta

nueva matriz son los mismos de la matriz original; los correspondientes vectores se

relacionan por expresiones de la forma (3.32a).

En el método de Jacobi las matrices Pk corresponden a una rotación plana:

jfila

ifila

jcolicol

kk

kkk

θθθ−θ=

1

cossen

sencos

1

O

O

P (3.33)

El objetivo de un paso es hacer cero un coeficiente aij = aji. Puede verificarse

fácilmente que:

( ) ( ) 0sencossencos 22)(11 =θ−θ+θθ−== ++kk

kijkk

(k)ii

(k)jj

)(kji

)(kij aaaaa

(3.34a)

y por tanto:

40

22tg

)()(

)( π≤θ≤

−=θ kk

jjk

ii

kij

kaa

a (3.34b)

Sólo los elementos de dos filas y de dos columnas ( )ji, se alteran en cada paso.

Además, como se mantiene la simetría de la matriz A sólo deben calcularse los

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 17

coeficientes de la submatriz triangular superior (o inferior) de A(k+1). Con la notación

c = cos θ k; s = sen θ k:

( ) ( ) 0c

2

2

22)(11

2)()(2)(1

221

=−+−==

+=

++=

++

+

+

sacsaaaa

cacsa-sa a

sacsac aa

kij

(k)ii

(k)jj

)(kji

)(kij

kjj

kij

kii

)(kjj

(k)jj

(k)ij

(k)ii

)(kii

(3.35a)

casaaa

sacaaa

kjr

(k)ir

)(krj

)(kjr

kjr

(k)ir

)(kri

)(kir

)(11

)(11

+−==

+==++

++

(3.35b)

En un cierto paso se hacen cero los elementos aij y aji. Sin embargo, las sucesivas

rotaciones reintroducen valores significativos en estas posiciones, por lo que es

necesario repetir el proceso en varios "ciclos" para todos los elementos de fuera de la

diagonal principal. El proceso es convergente. Si en un ciclo dado los cocientes

[ ])()(

2)(

kjj

kii

kij

ijaa

a=γ (3.36)

son de orden ε, éstos se reducen a orden ε2 en el siguiente ciclo.

El número de ciclos completos necesarios para que la matriz A sea suficientemente

aproximada a una matriz diagonal depende del orden de la matriz. Para matrices de

orden 50 ó 60 pueden ser necesarios 8 a 10 ciclos. Cada ciclo demanda O(2n3)

operaciones.

Desde un punto de vista teórico sería más eficiente hacer cero los elementos aij en

orden decreciente de los ijγ , definidos por (3.36), pero las comparaciones necesarias

son relativamente lentas. Por eso se prefiere seguir un orden fijo en la selección de los

elementos y efectuar las rotaciones sólo si ijγ es mayor que una tolerancia, variable en

función del número de ciclo, m (por ejemplo 10-2m). La convergencia del proceso se

puede verificar con una medida similar.

Para determinar los vectores característicos es suficiente efectuar el producto de las

matrices Pk ya que:

φφφφ(k) = Pk φφφφ(k+1) (3.37a)

y por lo tanto:

φφφφ = φ φ φ φ(0) = P1 P2 P3 ... Pm (3.37b)

Para ilustrar el método de Jacobi considérese el problema A φ φ φ φ = λ φ φ φ φ con:

−−

=

4310

363-1

13-63-

013-2

)0(A

En el primer paso se hacen cero los coeficientes a12 y a21. En las expresiones

precedentes:

362 )0(21

)0(12

)0(22

)0(11 −==== aaaa

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 18

( ) ( )471858.0sen881675.0cos5.1

62

322tg =θ=θ⇒=

−−

=

1000

0100

0088167504718580

0047185808816750

1

..

.-.

P

==

4388167504718580

361168835338990

88167501168836055570

4718580533899003944490

1(0)T

1)1(

-..

-.-.-

..-.

..-.

PAPA

Luego se hacen cero los coeficientes a31:

533899.06394449.0 )1(31

)1(13

)1(33

)1(11 −==== aaaa

093978.0sen995574.0cos =θ=θ

=

1000

00.99557400.0939783

0010

00.0939783-00.995574

2P

==

403107388167501878350

031073050461030930

88167501030936055572929190

1878350029291903440510

2(1)T

2)2(

.-..

.-..-

..-..-

..-.

PAPA

Nótese que se tienen nuevamente valores significativos en las posiciones 12 y 21. Por

otro lado:

=

1000

00.99557400.0939783

00.0443444-0.8816750.469770

00.0828582-0.471858-0.877773

21PP

Procediendo en forma similar:

10309.30504.660555.7 )2(32

)2(23

)2(33

)2(22 −==== aaaa

615196.0sen788374.0cos =θ=θ

==

41.84721-2.559790.187835

1.84721-3.6289500.180203-

2.55979010.0270.23093-

0.1878350.180203-0.23093-0.344051

3(2)T

3)3( PAPA

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 19

=

1000

00.7848850.612474-0.0939783

00.5074430.722370.46977

00.355609-0.321026-0.877773

321 PPP

187835.04344051.0 )3(41

)3(14

)3(44

)3(11 ==== aaaa

0511758.0sen99869.0cos =θ=θ

==

0096348540115446220

854011628953008543420

5446220027103616270

00854342036162703344260

4(3)T

4)4(

..-.

.-..-

...-

.-.-.

PAPA

=

0.99869000.0511758-

0.004809410.7848850.612474-0.0938551

0.02404080.5074430.7223700.469154

0.04492070.355609-0.321026-0.876622

4321 PPPP

54462.200963.4027.10 )4(42

)4(24

)4(44

)4(22 ==== aaaa

343849.0sen939025.0cos −=θ=θ

==

07785374096101243450

7409616289536375008543420

0637509588103395760

12434500854342033957603344260

5(4)T

5)5(

..-.

.-..-.-

.-..-

..-.-.

PAPA

=

0.93779500.3433980.0511758-

0.2151150.7848850.573474-0.0938551

0.225811-0.5074430.6865900.469154

0.1525660.355609-0.286006-0.876622

54321 PPPPP

74096.107785.362895.3 )5(43

)5(34

)5(44

)5(33 −==== aaaa

649489.0sen760371.0cos =θ=θ

==

5907610414049003905980

011603548473701457220

414049048473709588103395760

03905980145722033957603344260

6(5)T

6)6(

..-.

..-.-

.-.-..-

..-.-.

PAPA

=≈

0.7130720.609087-0.3433980.0511758-

0.6733410.4570890.573474-0.0938551

0.1578780.5325070.6865900.469154

0.114957-0.369485-0.286006-0.876622

654321 PPPPPPΦ

con lo que termina un primer “ciclo”. Análogamente, al terminar el segundo ciclo:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 20

=

1.5727900.00001490.0003418-

05.082720.00151550.0006033-

0.00001490.001515511.02680.007656-

0.0003418-0.0006033-0.007656-0.317649

)12(A

=≈

0.7225180.584532-0.3614670.0750522-

0.6515780.3996230.640155-0.0771368

0.2010620.5665800.6192080.505117

0.11397-0.421440-0.275908-0.856314

1221 PPPΦ L

y al finalizar el tercer ciclo:

=

1.57279

5.08272

11.0269

0.317644

)18(A

No se muestran los coeficientes con valor absoluto menor que 10-6. Los coeficientes

de la diagonal de A(18) son (aproximaciones a) los valores característicos de la matriz

A. Nótese que no se obtienen en orden ascendente o descendente. Las columnas del

producto 1821 PPP L son los correspondientes vectores, que se obtienen normalizados:

ΦΦΦΦT ΦΦΦΦ = I. Esto se comprueba fácilmente, ya que las matrices kP son todas

ortogonales.

=≈

0.7225370.584614-0.3613730.074671-

0.6515580.3997770.640107-0.076907

0.2009230.5663580.6189910.505686

0.114202-0.421478-0.276628-0.856032

1821 PPPΦ L

3.3.2 Caso de Matrices Hermitianas.

El método de Jacobi puede también emplearse para hallar los valores y vectores

característicos de una matriz Hermitiana, H , cuyos coeficientes (en general complejos)

tienen simetría conjugada. En este caso se hacen productos de la forma:

kk

kk UHUH )(*)1( =+ (3.38)

en los que kU es una matriz unitaria, es decir, tal que *1kk UU =− (el superíndice *

denota en este caso la conjugada traspuesta). Para hacer cero el coeficiente ijh se

utiliza:

jfila

ifila

jcolicol

i

ik

e

e

φφφ−φ=

θ

θ

1

cossen

sencos

1

O

O

U (3.39)

Suponiendo que:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 21

icbh

ahk

ji

kii

+=

=)(

)(

dh

icbh

kjj

kij

=

−=)(

)(

(3.40a)

Las partes real e imaginaria de los nuevos coeficientes ( )ji, resultan:

( )( ) 02cossen2sensencossensencos

02sensen2cossencoscossencos222

222

=θφ−θφ−φ+θφφ−

=θφ−θφ−φ+θφφ−

ccbda

cbbad

de donde:

( )da

cbb

c

−θ+θ

sencos22tan

tan (3.40b)

3.3.3 Método de Jacobi Generalizado.

Es posible modificar el método de Jacobi "clásico" antes descrito para resolver

directamente el problema general A φ φ φ φ = λ B φφφφ.

En lo que sigue se supone que A y B son simétricas y que esta última es definida

positiva (y posiblemente no diagonal). Debe anotarse que si B fuera diagonal sería

más eficiente transformar el problema a la forma clásica.

Un paso del proceso general se define por:

A(k+1) = PkTA(k) Pk (3.41)

B(k+1) = PkTB(k) Pk

donde Pk es una matriz similar a la utilizada para el proceso clásico:

jfila

ifila

jcolicol

k

kk

γα=

1

1

1

1

O

O

P (3.42)

α y γ se determinan de:

( ) 01 )(11 =γ+γα++α== ++ (k)jjk

kijkk

(k)iik

)(kji

)(kij aaaaa

( ) 01 )(11 =γ+γα++α== ++ (k)jjk

kijkk

(k)iik

)(kji

)(kij bbbbb (3.43)

Estas dos ecuaciones son independientes, excepto en el caso en que

(k)jj

(k)jj

(k)ij

(k)ij

(k)ii

(k)ii

b

a

b

a

b

a== (3.44a)

en el que puede considerase, por ejemplo:

(k)jj

(k)ij

kka

a=γ=α 0 (3.44b)

Definiendo:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 22

( ))()()()(21

3

)()()()(2

)()()()(1

kjj

kii

kjj

kii

kij

kii

kij

kii

kij

kjj

kij

kjj

abbac

abbac

abbac

−=

−=

−=

(3.45a)

212333 )( ccccsignocd ++=

se obtienen:

d

c

d

ckk

12 =α−=γ (3.45b)

El radical en la expresión de d es siempre positivo si B es una matriz definida positiva.

Puede observarse que si B fuera la matriz identidad se obtendrían: θ−=γ−=α tgkk .

Los comentarios precedentes relativos a la convergencia son también aquí aplicables.

El número de operaciones en cada ciclo es de O(3n3).

El siguiente ejemplo ilustra los aspectos nuevos introducidos en esta sección. Se

pretende determinar los valores y vectores característicos del sistema: A φ φ φ φ = λ B φφφφ,

donde:

−−

=11

11A

=

21

12B

Para estas pequeñas matrices con un paso es suficiente:

i=1, j=2

a11 = 1 a22 = 1 a12 = a21 = -1

b11 = 2 b22 = 2 b12 = b21 = 1

c1 = 3 c2 = 3 c3 = 0

d=3 α = -γk =1

A(1) = P1TA(0) P1 =

=

−−

−00

04

11

11

11

11

11

11

B(1) = P1TB(0) P1 =

=

−60

02

11

11

21

12

11

11

de donde:

λ2 = 4/2 = 2

λ1 = 0/6 = 0

ΦΦΦΦ = P1 diag (bi-½) =

−=

− 4082.07071.0

4082.07071.0

610

021

11

11

La post multiplicación de P1 sólo es necesaria para escalar los vectores de modo que

ijjTi δ=φφφφφφφφ B . Al igual que en el procedimiento clásico los valores característicos (y los

correspondientes vectores) no quedan necesariamente ordenados.

3.3.4 El Método QR

Este proceso se aplica al problema clásico A φφφφ = λ φφφφ, donde A no requiere ser

simétrica, pudiendo tener valores característicos cero (o incluso negativos). En el caso

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 23

más general, para una matriz A cualquiera, el método QR es poco eficiente, ya que

requiere O( 34 n3) operaciones por paso. Sin embargo, sólo se requieren O(4n2)

operaciones por paso si A es de la forma Hessemberg:

=

OL

K

5554

454443

35343332

2524232221

1514131211

000

00

0

aa

aaa

aaaa

aaaaa

aaaaa

A (3.46)

es decir si es casi triangular superior, excepto por una codiagonal inferior. Para el caso

particular en que la matriz A es además simétrica (y por lo tanto tridiagonal):

=

OO

O43

332

221

11

ab

bab

bab

ba

A (3.47)

el método QR es aún más eficiente, requiriendo tan solo O(12n) por paso.

En todo caso es siempre posible efectuar la transformación a la forma Hessemberg

(tridiagonal si A y B son simétricas), requiriéndose un total de O( 35 n3) operaciones

(una sola vez).

Debe anotarse además que, a diferencia del método de Jacobi, el método QR mantiene

la posible configuración banda de la matriz y permite efectuar traslaciones (análogas a

las de una iteración inversa), tanto para acelerar la convergencia como para mejorar la

precisión en los valores característicos de interés. El objetivo del proceso conocido

como QR es la determinación de los valores característicos; conocidos estos, los

correspondientes vectores pueden obtenerse por iteración inversa con traslación.

Considerando A(0) = A, el paso básico del método QR consiste en hacer la

descomposición:

kkk RQA =)( (3.48a)

donde kQ es una matriz ortogonal (es decir, IQQ =kTk ) y kR es una matriz triangular

superior. Luego se efectúa el producto en orden cambiado:

kkk QRA =+ )1( (3.48b)

Obsérvese que premultiplicando (3.48a) por TkQ se obtiene:

kkT

k RAQ =)( (3.48c)

y por lo tanto:

kkT

kkkk QAQQRA )()1( ==+ (3.48d)

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 24

Nótese que si )(kA es simétrica )1( +kA también resulta simétrica. La expresión (3.48d)

indica además que )1( +kA es "similar" a )(kA : sus valores característicos son los

mismos, los correspondientes vectores se relacionan por una transformación lineal:

)()()( kkk φφφφφφφφ λ=A (3.49a)

al efectuar el cambio de variables:

)1()( += kk

k φφφφφφφφ Q (3.49b)

se obtiene:

)1()1()( ++ λ= kk

kk

k φφφφφφφφ QQA (3.49c)

( ) )1()1()( ++ λ= kkk

kTk φφφφφφφφQAQ (3.49d)

Ambas matrices tienen los mismos valores característicos (que en consecuencia son

los de la matriz original) y vectores característicos relacionados por (3.49b).

A medida que k crece )(kA converge a una matriz triangular superior (cuyos valores

característicos son los elementos de la diagonal principal); para el caso simétrico )(kA

converge a una matriz diagonal. Los valores característicos se obtienen en orden

descendente; así la aproximación al valor característico de menor módulo se obtiene en

la posición nn de la matriz.

La convergencia del proceso es análoga a la de la iteración inversa. Cuando en pasos

sucesivos se obtienen valores similares en el extremo inferior de la diagonal principal,

puede afirmarse que se tiene una aproximación al primer valor característico. La

convergencia puede acelerarse efectuando traslaciones:

)(knnk a=µ (3.50a)

IQRA kkkk µ−=+ )1( (3.50b)

Nótese que los valores característicos de esta nueva matriz son iguales a los de la

matriz original menos la translación. Cuando se logra que 0)( =knna puede hacerse una

traslación:

)(1,1

knnk a −−=µ (3.50c)

para mejorar la convergencia al segundo valor característico y análogamente se

procede para los otros valores requeridos. Por regla general se requieren sólo 2 pasos

por cada valor característico adicional. Al finalizar el proceso debe agregarse a los

valores λ obtenidos la suma de las traslaciones kµ efectuadas.

Los vectores característicos podrían obtenerse con el producto:

L321)0( QQQ=φφφφ (3.51)

pero este proceso es poco eficiente, siendo más conveniente obtener estos vectores

por iteraciones inversas con traslaciones iguales a los valores característicos ya

determinados. Esto permite también mejorar la precisión en los λ .

La determinación de Q y R en un paso puede hacerse en diversas formas. El proceso

más eficiente consiste en transformar A en una matriz triangular superior utilizando

matrices de rotación plana (como en el método de Jacobi):

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 25

( ) RAPPP =−TTT

nn 21311, L (3.52a)

y por lo tanto:

1,3121 −= nnPPPQ L (3.52b)

La matriz jiP , que permite hacer cero el coeficiente ji:

jfila

ifila

jcolicol

kk

kkk

θθθ−θ=

1

cossen

sencos

1

O

O

P (3.53a)

se obtiene mediante:

d

a kii

)(

cos =θ

d

a kji

)(

sen =θ (3.53b)

( ) ( )2)(2)( kii

kji aad +=

Sólo se requiere un ciclo de estas transformaciones para obtener R. No es necesario

iterar.

Para un ejemplo del proceso considérese la matriz:

=210

141

012)0(A

Esta es una matriz simétrica (lo cual no es un requisito para emplear el método QR) y,

siendo tridiagonal, tiene la “forma Hessemberg”.

Para transformar A en una matriz triangular superior R se hace primero cero el

coeficiente a21:

0.447214 sen0.894427cos

2.23606812 )0(21

011

=θ=θ=== daa )(

100

0.894427.447214

0.447214-.894427

21

=P

=210

.8944273.1304940

0.4472142.6832812.236068

)0(T21AP

Luego se hace cero a32, con lo que se obtiene una matriz triangular superior:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 26

3042900sen9525790cos

286335311304943 )0(32

022

..

.da.a )(

=θ=θ===

.952579.3042900

.304290-.9525790

001

32

=P

==1.63299300

1.4605323.2863320

0.4472142.6832812.236068

)0(T21

T321 APPR

Y se completa el primer paso efectuando el producto:

===1.555556.4969040

.4969043.2444441.469694

01.4696943.200000

3221111(1) PPRQRA

Análogamente, en el segundo paso:

=100

0.908739.417365

0.417365-.908739

21P

=.978097.2081500

.208150-.9780970

001

32P

==1.42749000

.7654542.3872420

2.6896863.521363

)1(T21

T322

L

APPR

===1.396226.2971320

.2971322.281193.996351

0.9963514.322580

3221222(2) PPRQRA

Y en el tercer paso:

=100

0.974449.224610

0.224610-.974449

21P

=.989134.1470170

.147017-.9891340

001

32P

==1.3385000

.4916632.0210760

.0667391.4832714.435924

)2(T21

T323 APPR

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 27

===1.323944.1967800

.1967802.020318.453953

0.4539534.655737

3221333(3) PPRQRA

Suponiendo que el coeficiente 323944.1)3(33 =a sea una buena aproximación al primer

valor característico, se efectúa una traslación:

=−0.1967800

.196780.696375.453953

0.4539533.331794

323944.1(3) IA

obteniéndose en el cuarto paso:

=.055581-.017396-0

.017396-.678541.088938

0.0889383.405209(4)A

Se hace entonces una nueva traslación:

1.268362-.055581 k4 =µ=µ⇒=µ ∑

obteniéndose:

=.000413-.0000100

.000010.731767.018800

0.0188003.463559(5)A

y nuevamente:

1.267949-.000413 k5 =µ=µ⇒=µ ∑

obteniéndose:

=000

0.732056.003973

0.0039733.464096(6)A

Se observa ahora que el coeficiente a33 es menor que 10-6, lo que implica que λ1 es

aproximadamente igual a la suma de las traslaciones previamente realizadas.

Conviene luego hacer una traslación igual al resultado obtenido para a22 a fin de

mejorar la precisión para el segundo valor característico:

2.732051 k6 =µ=µ⇒=µ ∑

=−.732051-00

00.003973

0.0039732.732050

732051.0(6) IA

Y puede trabajarse con la submatriz de un orden menor:

=

0.003973

.0039732.732050(6)A

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 28

0.000307sen1cos

2.7320510.0039732.732050 )6(21

611

=θ=θ=== daa )(

==

1.000000.000307

.000307-1.000000721 QP

−==

000001.0

.0008402.732051)6(217 APR T

=

00

073205.2)7(A

Los coeficientes indicados como 0 son menores que 10-6. Los valores característicos

de esta matriz son 0 y 2.732051. Para obtener aquellos de la matriz original deben

sumarse las traslaciones:

λ1 = -0.732051 + 2 = 1.267949

λ2 = 0 + 2 = 2

λ3 = 2.732051 + 2 = 4.732051

3.3.5. Transformación a la Forma Hessemberg

Si el método QR se aplicara a una matriz cualquiera sería en general poco eficiente,

puesto que requiere ( )33

4 nO operaciones por paso. Para reducir el número de

operaciones a ( )24nO por paso debe previamente transformarse la matriz a la forma

"Hessemberg" (es decir, una matriz que es casi triangular superior, teniendo además

coeficientes significativos en la primera codiagonal inferior):

=

− nnnn

n

n

n

n

hh

hhh

hhhh

hhhhh

hhhhh

1,

44443

3343332

224232221

114131211

0000

00

0

OMMMM

L

L

L

L

H (3.54)

Si la matriz original fuera simétrica, la transformación a la forma Hessemberg, que

puede hacerse conservando la simetría, produce una matriz tridiagonal. En tal caso el

QR requiere apenas n12 operaciones por paso. Cabe anotar que la forma

Hessemberg (tridiagonal para el caso simétrico) no se pierde en los sucesivos pasos

del método QR.

La transformación a la forma Hessemberg sólo requiere hacerse una vez. Por lo tanto

las ( )33

5 nO que se gastan en la transformación están plenamente justificadas.

Entre los procedimientos que se encuentran en la literatura para efectuar la

transformación, se propone el cambio de variables φφφφφφφφ B= , con lo que el problema

original φφφφφφφφ λ=Α se reescribiría como φφφφφφφφ λ=− BΑB 1 o bien φφφφφφφφ λ=H . En este

caso HBΑB =−1 o, lo que es lo mismo, HBBΑ = . En el proceso original de

Hessemberg se usa una matriz B de la forma:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 29

=

10

010

0010

00010

00001

432

4342

32

L

M

L

L

L

L

nnn bbb

bb

bB (3.55a)

con coeficientes arbitrarios en la primera columna (que por simplicidad se ha escrito

como la primera columna de la matriz identidad). Los coeficientes de las sucesivas

filas de H y columnas de B pueden entonces obtenerse con las expresiones:

∑ ∑+= =

−+=n

rk

r

k

krikkrikirir hbbaah1 1

1,2,1 += ri L (3.55b)

−+= ∑ ∑

+= =++

n

rk

r

k

krikkrikirrr

ri hbbaah

b1 1,1

1,

1 nri L,2+= (3.55c)

Este procedimiento podría fallar si en algún paso 0,1 =+ rrh . El proceso podría

recomenzarse con una primera columna de B diferente, lo que en general evitaría el

error, aunque esto no puede garantizarse. Por otro lado, el procedimiento antes

expuesto no mantiene la posible simetría de la matriz A .

También puede hacerse la transformación a la forma Hessemberg por rotaciones

planas (método de Givens) o reflexiones (Householder). El método de Householder

utiliza matrices ortogonales y simétricas, de la forma:

TwwIP 2−= (3.56)

donde w es un vector unitario: 1=wwT . Es fácil probar que 1−== PPP T .

La matriz P refleja al espacio en el "plano" que pasa por el orígen y es ortogonal a w .

Considérese un vector cualquiera uwv 10 α+α= donde 0=wuT . Entonces,

( )( ) uwuwwwIvP 10102 α+α−=α+α−= T . Nótese que la componente según w

ha cambiado de signo, es decir, el vector v ha sido reflejado en el plano ortogonal a

w .

La transformación de A en H mediante el método de Householder requiere 2−n

pasos ( n es aquí el orden del sistema) de la forma:

kk

kk PAPA )()1( =+ (3.57a)

donde:

( ) 1)(,1signo

2

+++=

θ−=

kkk

kkkk

kTk

k

Tkkkk

a evvw

ww

wwIP

(3.57b)

siendo:

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 30

=

+

+

)(

)(,2

)(,1

0

0

knk

kkk

kkkk

a

a

a

M

M

v una matriz que contiene los coeficientes de la columna k de

)(kA que están por debajo de la diagonal principal, y

=+

0

1

0

1

M

M

ke

la columna 1+k de la matriz identidad (de orden n).

Para que el proceso sea más eficiente, debe observarse que al premultiplicar A , cuyas

columnas son L321 aaa , por la matriz P , cada columna se modifica en forma

independiente. Las columnas de PAA = resultan:

( ) ( ) kjTkkjj

Tkkkj wawaawwIa θ−=θ−= (3.58a)

Igualmente, al postmultiplicar A por P las filas se modifican en forma independiente.

Llamando ahora ia a la fila i de la matriz PAA = , la correspondiente fila de PAA =

resulta:

( ) ( ) Tkkiki

Tkkkii wwaawwIaa θ−=θ−= (3.58b)

Por ejemplo, considérese la matriz:

)1(

4321

3432

2343

1234

AA =

=

Transformación de la primera columna a la forma Hessemberg:

=

1

2

3

0

1v 74166.31 =v

=

+

=+=

1

2

74166.6

0

0

0

1

0

74166.3

1

2

3

0

2111 evvw 03964.01 =θ

( )93096.023786.138619.100000.1)1(11 =θ AwT

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 31

=

3.069041.762140.613810

1.138091.524280.227620

4.27618-5.34522-5.34522-3.74166-

12300000.4

)1(1AP

−=θ

42543.0

22681.0

02190.2

00000.1

1)1(

11 wAP

==

2.643620.911282.25428-0

0.911281.070671.30143-0

2.25428-1.30143-8.285713.74166-

003.74166-00000.4

1)1(

1)2( PAPA

Transformación de la segunda columna a la forma Hessemberg:

−−

=

25428.2

30143.1

0

0

2v 60298.22 =v

−=

−=+=

25428.2

90441.3

0

0

0

1

0

0

60298.2

25428.2

30143.1

0

0

3222 evvw 09840.02 =θ

( )0.93647-0.61346-00000.10)2(22 =θ AwT

=

0.532540.47162-00

2.74510-1.32452-2.602980

2.25428-1.30143-8.285713.74166-

003.74166-00000.4

)2(2AP

0.06306

1.11774

1

0

2)2(

22 wAP

===

0.674700.22540-00

0.22540-3.039592.602980

02.602988.285713.74166-

003.74166-00000.4

2)2(

2)3( PAPAH

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 32

3.4 Métodos Mixtos

Los dos procesos que se describen en lo que sigue son adecuados para sistemas de

orden grande en el caso en que se requieran muchos vectores característicos.

3.4.1 Iteración con la Determinante de (A - µ B)

Los valores propios de φφφφφφφφ BA λ= son los ceros del polinomio característico

( ) ( ) 0det =λ−=λ BAp . Por ejemplo, si:

=

4200

2820

0282

0024

A

=

1000

0200

0020

0001

B

Las raíces del polinomio:

( )

0720864364644

4200

22820

02282

0024

det

234 =+λ−λ+λ−λ=

λ−λ−

λ−λ−

=λp

son los valores característicos. La determinación de los coeficientes del polinomio

característico es factible (utilizando, por ejemplo, el método de Hessemberg). Una vez

obtenidos los coeficientes del polinomio característico, se requiere determinar los

valores de λ para los que ( ) 0=λp . Sin embargo, éste es frecuentemente un

problema mal condicionado: pequeños errores en los coeficientes causan grandes

errores en las raíces. Por ello, los métodos en los que se hace una determinación

explícita del polinomio característico sólo son adecuados para pequeñas matrices.

Para matrices de orden elevado, pero con un ancho de banda comparativamente

pequeño, pueden determinarse los valores característicos por iteración, evaluando la

determinante de BA kµ− para una secuencia de valores kµ que se corrigen con

procesos tales como el método de la secante. Así, dadas las aproximaciones 1−µ k y

kµ a una raíz y habiéndose calculado ( ) BA 11 −− µ−=µ kkp y ( ) BA kkp µ−=µ se

obtiene una mejor aproximación, 1+µ k , mediante:

21)()()( 1

11 ≤η≤µ

µ−µµ−µ

η−µ=µ−

−+ k

kk

kkkk p

pp (3.59)

La evaluación de ( )µp no requiere tener el polinomio ( )λp en forma explícita.

Si BA µ− se descompone en el producto de una matriz triangular inferior, L , con

unos en la diagonal principal, por una matriz triangular superior, U , se tiene que:

( ) ( ) ( ) ( ) ( )ULLUBA detdetdetdet ==µ−=µp (3.60a)

donde:

( )( ) L

L

44332211

44332211

det

1det

uuuu

llll

===

U

L (3.60b)

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 33

y por lo tanto: ( ) nnuuuuup L44332211=µ

La descomposición de BA µ− en factores triangulares LU requiere pocas

operaciones si el ancho de banda es pequeño.

Particularmente importante es el caso en el que las matrices A y B son simétricas y

definidas positivas (todos los valores característicos son reales y positivos). En tal caso

puede aplicarse la propiedad de Sturm: el número de coeficientes negativos en la

diagonal principal de U al hacer la descomposición LUBA =µ− es igual al número

de valores característicos menores que kµ . Esta propiedad, combinada con la

iteración (3.59) u otra similar, permite obtener una primera aproximación a una raíz. Sin

embargo, el proceso debe combinarse con iteraciones inversas usando el cociente de

Rayleigh para refinar los valores obtenidos.

Para las matrices A y B antes indicadas, con 5.1=µ :

=

=−

454.1000

2824.300

024.30

0025.2

1523.00

01588.0

001800.

0001

5.2200

2520

0252

0025.2

5.1 BA

( ) 25.47454.1824.34.35.25.1 =⋅⋅⋅=p

Análogamente se obtienen:

kµ )( kp µ Número de coeficientes negativos

en la diagonal principal de U

1.5 47.25 0

1λ 2.0 0 0

2.5 -8.75 1

2λ 3.0 0 1

3.5 11.25 2

4.0 16.00 2

4.5 11.25 2

3λ 5.0 0 2

5.5 -8.75 3

4λ 6.0 0 3

6.5 47.25 4

3.4.2 Iteración en Subespacio

El método tratado en la sección precedente es eficiente cuando las matrices tienen

ancho de banda relativamente pequeño. Cuando el ancho de banda es grande es más

adecuado un proceso de iteración en subespacio, como se describe en este acápite.

Este método tiene por objeto determinar en forma simultánea los p vectores

característicos asociados a los valores característicos de menor módulo. La idea

básica es que es mucho más fácil iterar para obtener un subespacio que contenga a

estos vectores que iterar para obtener cada uno de ellos por separado.

Se trabaja con una colección de q vectores linealmente independientes ( pq > ). Los

q vectores iniciales definen un subespacio que no necesariamente contiene a los p

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 34

vectores de interés. Si esos p vectores característicos si estuvieran contenidos en el

subespacio, sería suficiente proyectar φφφφφφφφ BA λ= para obtener el sistema

zBzA λ= , de orden nq << , que sería fácil de resolver por métodos de

transformación. Los valores característicos del problema proyectado serían los mismos

del problema original, mientras que sus vectores característicos, z , corresponderían a

las proyecciones de los vectores φφφφ en el subespacio. No siendo éste el caso, se hacen

iteraciones inversas para mejorar los q vectores con los que se trabaja, de modo que

el subespacio por ellos definido sea más y más “paralelo” a los p vectores propios de

interés.

En lo que sigue, se supone que A y B son matrices simétricas. Siendo kX los q

vectores de aproximación, en cada ciclo del proceso se realizan los pasos siguientes:

a. Iteración inversa:

kk BXXA =+1

La matriz A debe factorizarse antes de iniciar las iteraciones. Los vectores 1+kX

son más “paralelos” a los primeros p vectores característicos.

b. Proyección de A y B en el subespacio definido por los vectores 1+kX :

11)1(

+++ = k

Tk

k XAXA

11)1(

+++ = k

Tk

k XBXB

Las matrices )1( +kA y )1( +kB son cuadradas, simétricas, de orden q .

c. Solución del problema de valores y vectores característicos proyectado:

11)1(

1)1(

+++

++ = kk

kk

k ΛΛΛΛQBQA

1+kΛΛΛΛ es una matriz diagonal, cuyos coeficientes son los valores característicos del

problema proyectado. Si los 1+kX definen un subespacio que contiene a los p

primeros vectores propios, los p menores valores en 1+kΛΛΛΛ son parte de la solución

buscada.

d. Determinación de nuevos vectores:

111 +++ = kkk QXX

Como consecuencia de los pasos c y d:

( ) qkkT

kkkTk

Tkk

Tk ΛΛΛΛ=== +

++++++++ 1

)1(1111111 QAQQXAXQXAX

( ) qkkT

kkkTk

Tkk

Tk IQBQQXBXQXBX === +

++++++++ 1

)1(1111111

es decir, los vectores 1+kX satisfacen las condiciones de ortogonalidad, lo que asegura

que la iteración inversa no produce q vectores todos iguales a 1φφφφ .

Si en las 0X hay componentes según todos los p vectores característicos de interés:

( )LL pk

k λλλ=∞→

21diagLim ΛΛΛΛ

( )LL pk

k φφφφφφφφφφφφ 21diagLim =∞→X

Habiéndose obtenido en dos ciclos sucesivos los estimados )(kpλ y )1( +λ k

p para el mayor

de los valores característicos requeridos, el cociente )1()()1( ++ λλ−λ kp

kp

kp da una

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 35

medida adecuada del error relativo y es útil para verificar la convergencia.

Adicionalmente, debe comprobarse que los valores y vectores obtenidos corresponden

a los p menores valores característicos. Para ello puede usarse la propiedad de

Sturm, factorizando BA µ− en LU con valores de µ ligeramente mayores a los λ

calculados.

Si A y B son simétricas, de orden n , ancho de semibanda m , y A es definida

positiva, el número de operaciones iniciales requeridas es de ( )221 nmO ,

esencialmente para la factorización de A . En cada ciclo de la iteración, considerando

nq << , deben hacerse ( )( )324 ++ qmnqO operaciones. Esto puede reducirse a

( )( )322 ++ qmnqO cuando B es diagonal. Para el procedimiento como se ha

descrito en los párrafos precedentes, se trabaja con ( )8,2min += ppq .

Habitualmente unos 10 ciclos de iteración son suficientes para obtener 6 cifras

significativas correctas en los p valores y vectores característicos. Las operaciones

finales requieren ( )pnmO 221 operaciones adicionales.

Aproximación Inicial

Para iniciar el proceso se requieren q vectores linealmente independientes, agrupados

en 0X . Si A y B fueran diagonales, los vectores característicos serían las columnas

ke de la matriz identidad. Aún cuando A y B no sean diagonales, éste puede ser un

buen criterio para construir la aproximación inicial 0X . En particular, deberían

escogerse las columnas cuyo índice k corresponde a los máximos kkkk ab . Con el

propósito de introducir componentes según todos los vectores característicos, se

acostumbra además considerar dos columnas con componentes arbitrarios (que

podrían ser todos iguales a 1, o iguales a los kkkk ab ).

En algunas aplicaciones es fácil obtener una buena aproximación al primer vector

característico, por ejemplo, como solución de un sistema de ecuaciones de la forma

bxA =1 . Las sucesivas columnas kx para una excelente aproximación inicial pueden

entonces obtenerse como vectores de Ritz, mediante un proceso recursivo que

combina pasos de iteración inversa con ortogonalización:

1−= kk xByA

j

k

j jTj

jTk

kk xxBx

xByyx ∑

=

−=

1

1

Determinación de Grupos de Vectores Característicos Haciendo Traslaciones

Si se requieren muchos vectores característicos, el procedimiento estándar de iteración

en subespacio puede hacerse más eficiente utilizando sucesivas traslaciones en

combinación con procedimientos de eliminación de las componentes según los

vectores ya conocidos.

En este caso se trabaja con subespacios de dimensión q , con el propósito de

determinar grupos de 2qp ≈ vectores. Habitualmente ( )mq ,4máx= , siendo m el

ancho (promedio) de semibanda. Para cada grupo de vectores, se realizan cómputos

iniciales que incluyen:

a. Determinación de la traslación (el proceso se inicia con 0=µ )

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 36

1

~9.01.0 +λ+λ=µ nn

nλ es el último valor característico para el que se ha logrado convergencia;

1

~+λn es la aproximación al siguiente valor característico.

b. Factorización: ULBA =µ−

c. Determinación de q vectores de aproximación inicial, 0X .

La iteración incluye los pasos siguientes:

a. Eliminación de las componentes de kX según los vectores característicos

previamente determinados (ver acápite 3.2.4).

b. Iteración inversa:

11

1

++

+

==

kk

kk

YZUL

XBY

c. Proyección de BA µ− y B en el subespacio definido por los vectores 1+kY :

11)1(

+++ = k

Tk

k YZA

11)1(

+++ = k

Tk

k ZBZB

Las matrices )1( +kA y )1( +kB son cuadradas, simétricas, de orden q .

d. Solución del problema de valores y vectores característicos proyectado:

( ) 11)1(

1)1()1(

+++

+++ =µ+ kk

kk

kk ΛΛΛΛQBQBA

e. Determinación de nuevos vectores:

111 +++ = kkk QZX

f. Verificación de la convergencia

Como en el procedimiento estándar, debe verificarse que se tienen los valores

característicos correctos utilizando la propiedad de Sturm.

Ejemplo simple

Supóngase que se requieren dos vectores característicos de φφφφφφφφ BA λ= , siendo:

−−−

−−−

=

2100

1210

0121

0012

A

=

2

0

1

0

B

En este caso particular la iteración inversa produce en un solo paso el subespacio que

incluye a los dos primeros vectores característicos, ya que dos de los valores

característicos son infinitos. Para hacer más eficiente el proceso debe factorizarse

primero la matriz A :

H. Scaletti - Métodos Numéricos: Valores y Vectores Característicos 3 - 37

LUA =

−−

−−

−=

25.1000

13333.100

015.10

0012

175.000

016667.0

0015.0

0001

Con la aproximación inicial:

=

01

00

10

00

0X

Se obtiene por iteración inversa:

=

02

00

10

00

0XB 01 XBXUL =

=

0.41.6

0.81.2

1.20.8

0.60.4

1X

Proyectando las matrices A y B en el subespacio definido por los vectores 1X :

==

2.18.0

8.02.311

)1( XAXA T

==

76.124.2

24.276.511

)1( XBXB T

se resuelve el problema proyectado (método de Jacobi generalizado):

1.00

50.0-

56.2 d

-0.64 c

56.2 c

28.1 c

3

2

1

=γ=α

−=⇒

===

−=

γα

=11

5.01

1

1P

=

20.10

000.6PAPT

=

96.00

012PBPT

de donde:

=

=

25.10

050.0

0

0

222

1111

ba

baΛΛΛΛ

−=

621020.1675288.0

310510.0675288.0Q

y finalmente se expresan los vectores en el sistema de referencia original:

( )2111

248408.0350577.0

124204.0350577.0

497816.0350577.0

248408.0675288.0

φφφφφφφφ=

== QXX