• No se han encontrado resultados

4. Autovalores y autovectores

N/A
N/A
Protected

Academic year: 2021

Share "4. Autovalores y autovectores"

Copied!
35
0
0

Texto completo

(1)

4. Autovalores y autovectores

4.1

Conceptos b´

asicos

Definici´on 4.1 [Variedad lineal invariante]

Una variedad linealV deKn se dice que esinvariante para una aplicaci´on A si cualquier vector x∈V se transforma, medianteA, en otro vector de V

Ax∈V ∀x∈V

Las variedades invariantes m´as simples son aquellas que tienen dimensi´on 1, por lo que una base est´a constituida por un ´unico vector v 6= 0.

Podemos observar que, en ese caso, cualquier vector x ∈ V puede expresarse de la forma x = αv con α 6= 0 si x 6= 0 y que, por tratarse de una variedad invariante, ha de serAx=βv, pero entonces:

Ax=Aαv =αAv=βv =⇒ Av= β

αv =λv

Definici´on 4.2 [Autovalores y autovectores de una matriz]

Las variedades invariantes de dimensi´on 1 vienen determinadas por un vector v 6= 0 tal que Av=λv.

Estos vectores reciben en nombre de autovectores o vectores propios de la matrizA y los correspondientes valores deλ reciben el nombre deautovalores

ovalores propios deA.

Proposici´on 4.1 Si v 6= 0 es un autovector de la matriz A asociado al au-tovalor λ, cualquier vector v proporcional a ´el, es tambi´en autovector de A

asociado a λ.

(2)

Demostraci´on. Por ser v un autovector asociado a λ se tiene que Av=λv. Si x=αv se verifica que

Ax =Aαv =αAv =αλv=λ(αv) = λx

La proposici´on anterior establece que lo que caracteriza a un autovector no es su norma ni su sentido, sino su direcci´on.

Proposici´on 4.2 Autovectores asociados a autovalores diferentes son lineal-mente independientes

Demostraci´on. Sean u y v dos autovectores de la matriz A asociados a los autovalores λ y µ respectivamente conλ6=µ.

Si u y v fuesen linealmente dependientes se verificar´ıa que u=αv con α 6= 0. Entonces:

λu=Au=A(αv) = αAv=αµv =µ(αv) = µu

y por tanto (λ−µ)u = 0, pero dado que u6= 0 se tiene que λ =µ en contra de la hip´otesis de que λ6=µ, lo que prueba el resultado.

Los autovalores de una matriz son, en general, n´umeros complejos. Sin em-bargo, las matrices herm´ıticas (en el caso real, las sim´etricas) tienen todos sus autovalores reales como prueba el siguiente teorema.

Teorema 4.3 Los autovalores de una matriz herm´ıtica son todos reales y au-tovectores correspondientes a dos autovalores diferentes son ortogonales. Demostraci´on. Sea A una matriz herm´ıtica, es decir, una matriz tal que A∗ = A y sea λ un autovalor de A asociado al autovector x. Se verifica entonces que Ax=λx.

Multiplicando la expresi´on anterior, por la izquierda porx∗ obtenemos que

x∗Ax=x∗λx=λx∗x (4.1)

Trasponiendo y conjugando la expresi´on (4.1) obtenemos

(x∗Ax)∗ = (λx∗x)∗ =⇒ x∗A∗x= ¯λx∗x =⇒ x∗Ax= ¯λx∗x (4.2) Si comparamos las expresiones (4.1) y (4.2) obtenemos que

(3)

Conceptos b´asicos 3

y dado quexes un autovector (un vector no nulo) sabemos quex∗x=kxk2 6= 0, por lo que podemos dividir por x∗x para obtener que λ= ¯λ, es decir, λ∈R. Por otra parte, sixe yson autovectores asociados a dos autovalores λ 6=µde una matriz herm´ıtica A se verifica que

Ax=λx =⇒ (Ax)∗ = (λx)∗ =⇒ x∗A=λx∗

x∗Ay =λx∗y =⇒ x∗µy =λx∗y =⇒ µx∗y=λx∗y =⇒ (λ−µ)x∗y= 0 y dado que λ6=µ =⇒ λ−µ6= 0 obtenemos que

x∗y= 0 ⇐⇒ x⊥y

Teorema 4.4 Si A una matriz regular y λ un autovalor suyo asociado al autovector v, se verifica que 1/λ es un autovalor de A−1 asociado al mismo autovector v.

Demostraci´on.Siλes un autovalor deAasociado av sabemos queAv=λv. Al tratarse de una matriz invertible (det(A) 6= 0) sus autovalores son todos no nulos, por lo que podemos dividir por λ y multiplicar por A−1 la ´ultima igualdad para obtener que A−1v = 1

λv es decir, 1/λ es un autovalor de A −1

asociado av.

Teorema 4.5 Si λes un autovalor de una matriz A asociado a un autovector

v y α una constante cualquiera se verifica que λ−α es un autovalor de la matriz A−αI asociado al mismo autovalor v.

Demostraci´on. Sabemos, por hip´otesis, queAv=λv, por lo que Av−αv= λv−αv y, por tanto,

(A−αI)v = (λ−α)v

es decir,λ−α es un autovector de A−αI asociado av.

Teorema 4.6 Si λes un autovalor de una matriz A asociado a un autovector

v y α (una constante cualquiera) no es autovalor de A entonces 1/(λ−α) es un autovalor de la matriz (A−αI)−1 asociado al autovector v.

La demostraci´on se basa en los Teoremas 4.4 y 4.5 y se deja al lector.

SeaAuna matriz cuadrada de ordenny supongamos que existenV1, V2, . . . , Vk subespacios invariantes tales queKn =V1 ⊕V2⊕ · · · ⊕Vk.

(4)

Si {xi1, xi2, . . . , xini} es una base de Vi se tiene que

B={x11, . . . , x1n1, x21, . . . , x2n2, . . . , xk1, . . . , xknk}

constituye una base de Kn. Si P es la matriz del cambio de base de la base can´onica a la base B, se tiene que

P−1AP =       J1 Θ · · · Θ Θ J2 · · · Θ .. . ... . .. ... Θ Θ · · · Jk      

donde cada Ji es una caja cuadrada de dimensi´onri = dim(Vi). La justificaci´on es queAxij = (0, . . . ,0, αi1, . . . , αini,0, . . . ,0)

T

B con 1≤i≤k, 1≤j ≤ni y, por tanto, puede verse f´acilmente que

AP =P       J1 Θ · · · Θ Θ J2 · · · Θ .. . ... . .. ... Θ Θ · · · Jk      

Definici´on 4.3 [Matriz diagonalizable]

Una matriz A se dice que es diagonalizable, si existe una matriz P, llamada

matriz de paso tal que P−1AP = D siendo D = diag(λ1, . . . , λn) la matriz diagonal cuyos elementos diagonales son los autovalores de la matriz A.

Es obvio que si Aposee un autovector es porque existe un vectorv 6= 0 tal que Av =λv, o lo que es lo mismo, tal que (λI−A)v = 0. Por tanto, el sistema (λI−A)x= 0 es compatible y adem´as indeterminado (infinitas soluciones), ya que siv 6= 0 es soluci´on del sistema, cualquier vector proporcional a ´el tambi´en lo es.

Se verifica entonces que rg (λI −A) < n (donde n representa el orden de la matriz) y, por tanto det(λI −A) = 0.

Definici´on 4.4 [Polinomio caracter´ıstico]

Al polinomio p(λ) = det(λI −A) se le denomina polinomio caracter´ıstico de la matriz A y a la ecuaci´on p(λ) = 0 ecuaci´on caracter´ıstica.

(5)

Conceptos b´asicos 5

N´otese que siλ es una ra´ız de la ecuaci´on caracter´ıstica de la matriz A, existe un autovector v asociado al autovalor λ. Por tanto, desde el punto de vista te´orico, el problema del c´alculo de los autovectores de una matriz se reduce a la resoluci´on de los sistemas (λiI −A)x = 0 obtenidos para las diferentes ra´ıces λi de la ecuaci´on caracter´ıstica.

Es decir, el c´alculo de los autovectores de una matriz, una vez calculados los autovalores, se reduce, te´oricamente, a la resoluci´on de un sistema de ecuacio-nes por cada autovalor.

Trataremos, por tanto, en primer lugar, de calcular sus autovalores a partir de la propiedad de ser las ra´ıces del polinomio caracter´ıstico de la matriz. Es decir, dada una matriz cuadrada A de orden n pretendemos calcular su polinomio caracter´ıstico P(λ) = det(λI −A) para, posteriormente, hallar sus ra´ıces mediante alguno de los m´etodos de resoluci´on de ecuaciones estudiados. Al serP(λ) = det(λI−A) su obtenci´on conlleva el c´alculo de un determinante de orden n que no es num´erico, pues contiene al par´ametro λ, lo cual no es f´acil de realizar.

¿C´omo evitar el c´alculo del determinante con el par´ametro λ?

M´etodo interpolatorio para la obtenci´on del polinomio carac-ter´ıstico

Este m´etodo consiste en dar n valores a λ, para calcular n determinantes y, posteriormente, resolver el sistema denecuaciones conninc´ognitas resultante. Sea P(λ) = det(λI −A) =λn+a

1λn−1+· · ·+an−2λ2+an−1λ+an. Dando a λ nvalores λ1, λ2, . . . , λn se tiene que:

λ=λ1 =⇒ λn1 +a1λn−11 +· · ·+an−2λ21+an−1λ1+an = det(λ1I−A) λ=λ2 =⇒ λn2 +a1λn−12 +· · ·+an−2λ22+an−1λ2+an = det(λ2I−A) . . . . . . . . λ=λn =⇒ λnn+a1λn−1n +· · ·+an−2λ2n+an−1λn+an= det(λnI−A)

donde det(λiI−A) 1 ≤i≤n son determinantes num´ericos.

La soluci´on del sistema resultante nos proporciona los coeficientes del polino-mio caracter´ıstico.

(6)

Ejemplo 4.1 Dada la matriz A =      1 3 2 5 4 2 −1 0 0 1 0 1 2 −2 −1 1      , su polinomio

ca-racter´ıstico es de grado cuatro P(λ) =λ4+a

1λ3+a2λ2+a3λ+a4, por lo que vamos a dar a λ cuatro valores:

λ = 0 =⇒ a4 = det (−A) = 41

λ = 1 =⇒ 1 + a1+ a2+ a3+a4 = det(I−A) = 74 λ =−1 =⇒ 1− a1+ a2− a3+a4 = det(−I−A) = −20 λ = 2 =⇒ 16 + 8a1+ 4a2 + 2a3+a4 = det(2I−A) = 67 dado que a4 = 41 el sistema se reduce a

a1+ a2+ a3 = 32 −a1+ a2− a3 =−62 8a1+ 4a2+ 2a3 = 10          =⇒ a1 =−4, a2 =−15 y a3 = 51

por lo que su polinomio caracter´ıstico es

P(λ) =λ4−4λ3−15λ2+ 51λ+ 41

4.2

Matrices normales

Un ejemplo de matriz, de ordenn,no diagonalizablelo constituyen las matrices de la forma A=       0 0 In−1 0 0 0 0 0      

cuyo polinomio caracter´ıstico esPA(λ) =λn y por tanto, con susnautovalores nulos.

Si introducimos en la matriz una perturbaci´on y en vez de la matrizAtomamos la matriz B =A+E =       0 0 In−1 0 ε 0 0 0      

(7)

Matrices normales 7

siendo ε > 0 muy peque˜no (incluso m´as peque˜no que la resoluci´on del orde-nador) se obtiene como polinomio caracter´ıstico PB(λ) = λn + (−1)nε que poseen ra´ıces distintas (las ra´ıcesn-´esimas de (−1)n−1ε), por lo resultan muy sensibles a cualquier perturbaci´on que se produzca en la matriz, por peque˜na que ´esta sea.

Nos preguntamos entonces,

¿C´omo afecta una peque˜na perturbaci´on a los autovalores de una matriz diagonalizable?

Teorema 4.7 SeanAuna matriz diagonalizable,B =A+E una perturbaci´on de dicha matriz, λi los autovalores de la matriz A y µ uno cualquiera de los autovalores de la matriz B con λi 6=µ.

En las condiciones anteriores se tiene que m´ın i |µ−λi| ≤ kPk P−1 kEk=kEkκ(P)

donde P representa a la matriz de paso que diagonaliza a la matriz A. Demostraci´on. Por ser A diagonalizable existeP tal que P−1AP =D. Sea x un autovector de B asociado a µ. Entonces Bx = µx o lo que es lo mismo:

(A+E)x=µx =⇒ (µI −A)x=Ex =⇒ (µI −P DP−1)x=Ex =⇒ P(µI −D)P−1x=Ex =⇒ (µI −D)(P−1x) = P−1Ex=P−1EP P−1x Supuesto que µ 6= λi cualquiera que sea i = 1,2, . . . , n, la matriz µI −D es regular, por lo que

P−1x= (µI−D)−1(P−1EP)P−1x y para cualquier norma multiplicativa se tiene

P −1 x≤ (µI−D) −1 P −1 EP P −1 x es decir 1≤ (µI−D) −1 P −1 EP Dado que (µI −D)−1 = diag

1 µ−λ1 , . . . , 1 µ−λn tenemos que 1≤m´ax i 1 µ−λi P−1 kEk kPk

(8)

por lo que m´ın i |µ−λi| ≤ P−1 kPk kEk=kEkκ(P)

Obs´ervese que la perturbaci´on cometida en los autovalores depende del n´umero de condici´on de la matriz de paso P y dado que esta no es ´unica.

Trataremos de elegir, entre todas las posibles matrices de paso, aquella cuyo n´umero de condici´on sea m´ınimo.

Corolario 4.8 SiA es unitariamente diagonalizable (diagonalizable mediante una matriz de paso unitaria), la perturbaci´on producida en los autovalores es menor o igual que la perturbaci´on producida en la matriz.

m´ın

i |µ−λi| ≤ kEk

Por tanto, las mejores matrices para el c´alculo efectivo de sus autovalores y autovectores son las diagonalizables unitariamente y ´estas reciben el nombre de matrices normales.

Es evidente que no podemos estudiar si una matriz es normal calculando sus autovalores y autovectores para comprobar que se puede diagonalizar por se-mejanza mediante una matriz de paso unitaria (matriz constituida por una base ortonormal de autovectores).

Es necesario, por tanto, encontrar alguna forma de detectar si una matriz es, o no es, normal sin necesidad de calcular sus autovalores y autovectores para ver si es posible diagonalizarla mediante una matriz de paso unitaria.

Caracterizaci´on de las matrices normales

Proposici´on 4.9 Sea T una matriz triangular. Si T∗T =T T∗ entonces T es diagonal.

Demostraci´on. Probaremos que se trata de una matriz diagonal por in-ducci´on en el orden de la matriz.

Para n= 1 es obvio. Para n= 2 es T = a b 0 c ! =⇒ T∗ = a 0 b c ! . T∗T = a 0 b c ! a b 0 c ! = |a| 2 ab ab |b|2+|c|2 !

(9)

Matrices normales 9 T T∗ = a b 0 c ! a 0 b c ! = |a| 2 +|b|2 bc bc |c|2 !

Dado que T∗T = T T∗, igualando ambas matrices se obtiene que |b|2 = 0 es decir b= 0 y, por tanto, T es diagonal.

Supongamos ahora que el teorema es cierto para cualquier matriz triangular con T∗T =T T∗ de orden n y vamos a probarlo para otra de orden n+ 1.

Sean T =       a1 a2 · · · an+1 0 .. . Tn 0       y T∗ =       a1 0 · · · 0 a2 .. . Tn∗ an+1       T T∗ =    n+1 X i=1 |ai| 2 TnTn∗    T ∗ T = |a1| 2 Tn∗T !

De la igualaci´on de ambas obtenemos que T T∗ =T∗T =⇒ |a2|

2

+· · ·+|an+1| 2

= 0 =⇒ a2 =a3 =· · ·=an+1 = 0 Como, adem´as, es TnTn∗ = Tn∗Tn, por hip´otesis de inducci´on sabemos que Tn es diagonal y, por tanto, T es diagonal.

Teorema 4.10 [Teorema de Schur]

Cualquier matriz cuadrada A es unitariamente semejante a una triangular superior T. Es decir, existe una unitaria U tal que

U∗AU =T.

Demostraci´on. Aplicamos inducci´on en el orden de la matriz A.

Si n = 1 e obvio. Supuesto cierto para n vamos a probarlo para una matriz de orden n+ 1.

Sean A ∈ K(n+1)×(n+1), λ un autovalor de A y x un autovector asociado a λ con kxk= 1.

Consideremos la matriz P = (x e2· · ·en) en la que sus columnas x, e2, . . . , en constituyen una base ortonormal de Kn+1

P∗AP = λ αij Θ An

(10)

Sea Q= 1 Θ Θ Un

!

en donde Un es la matriz unitaria que, por hip´otesis de inducci´on, verifica queUn∗AnUn= Triangular superior.

Si consideremos la matrizU =P Qes f´acil comprobar queU∗AU =Q∗P∗AP Q es una triangular superior.

Teorema 4.11 [Caracterizaci´on de las matrices normales] Una matriz A es normal si, y s´olo si, AA∗ =A∗A.

Demostraci´on. Supongamos queAA∗ =A∗A. Por el Teorema 4.10 sabemos que existe una matriz unitariaU tal queU∗AU =T conT triangular superior. Entonces A=U T U∗, por lo que

AA∗ = (U T U∗)(U T U∗)∗ =U T U∗U T∗U∗ =U T T∗U∗ A∗A= (U T U∗)∗(U T U∗) = U T∗U∗U T U∗ =U T∗T U∗

)

=⇒ T T∗ =T∗T

por lo que al ser T una matriz normal y triangular, la Proposici´on 4.9 nos asegura que es diagonal y, por tanto, A es diagonalizable unitariamente, es decir, es normal.

Rec´ıprocamente, siAes unitariamente diagonalizable (normal) existe una ma-triz unitaria U tal que U∗AU =D o lo que es lo mismo,A=U DU∗.

AA∗ =U DU∗(U DU∗)∗ =U DD∗U∗ =Udiag(|d1| 2 , . . . ,|dn| 2 )U∗ A∗A= (U DU∗)∗U DU∗ =U D∗DU∗ =Udiag(|d1| 2 , . . . ,|dn| 2 )U∗ ) =⇒ AA∗ =A∗A

¿C´omo podemos prever el comportamiento de los autovalores ante una pertur-baci´on cuando la matriz no es normal?

En otras palabras, ¿c´omo estudiar el condicionamiento de una matriz para el c´alculo de sus autovalores?

• Desviaci´on de la normalidad

Por el Teorema 4.10 cualquier matriz cuadrada A es unitariamente se-mejante a una triangular superior T donde

T =       t11 t12 · · · t1n 0 t22 · · · t2n .. . ... . .. ... 0 0 · · · tnn       =       t11 0 · · · 0 0 t22 · · · 0 .. . ... . .. ... 0 0 · · · tnn       +       0 t12 · · · t1n 0 0 · · · t2n .. . ... . .. ... 0 0 · · · 0      

(11)

Matrices normales 11

Es decir,T =D+M y, obviamente, A es normal si, y s´olo si, M = Θ. La norma de la matrizM recibe el nombre dedesviaci´on de la normalidad

y nos va a medir el condicionamiento del problema.

Adem´as,kMk2 no depende de U ni de T sino s´olo de A ya que

kMk22 =kTk22− kDk22 =kU∗AUk2 2− kDk 2 2 =kAk 2 2− n X i=1 |λi|2 =⇒ kMk2 = v u u tkAk22− n X i=1 |λi|2 • Matriz conmutatriz

Hemos visto queA es normal si, y s´olo si,

A∗A =AA∗ ⇐⇒ A∗A−AA∗ = Θ

Se denominamatriz conmutatriz de una matriz cuadrada A a la matriz C(A) = A∗A−AA∗

Evidentemente,A no es normal si A∗A−AA∗ 6= Θ.

La matrizC(A) =A∗A−AA∗ se le llamamatriz conmutatrizy su norma eucl´ıdea tambi´en nos permite medir el condicionamiento del problema. Ambas formas de medir el condicionamiento est´an relacionadas como muestra el siguiente resultado:

Teorema 4.12 Dada una matriz A∈Kn×n se verifica:

• kC(A)k 2 2 6kAk22 ≤ kMk 2 2 Desigualdad de Eberlein. • kMk22 ≤ r n3−3 12 kC(A)k 2 2 Desigualdad de Heurici.

Teorema 4.13 [Teorema espectral para matrices herm´ıticas] Sea A una matriz herm´ıtica de orden n. Existe una base de Cn constituida por autovectores de A. Dicho de otra forma, toda matriz herm´ıtica es diago-nalizable por semejanza (es normal).

(12)

4.3

etodos iterados para la obtenci´

on de

au-tovalores y autovectores

Los m´etodos que veremos a continuaci´on tratan de encontrar una sucesi´on convergente cuyo l´ımite nos permitir´a conocer los autovalores y autovectores de una matriz dada. El primero que estudiaremos consiste en buscar una sucesi´on de vectores que convergen a la direcci´on del autovector asociado al autovalor de mayor m´odulo de la matriz dada.

Vamos a comenzar, por ello, a estudiar c´omo podemos aproximar el autovalor correspondiente a un determinado autovector cuando lo que conocemos es una aproximaci´on de ´este.

Cociente de Rayleigh

Si nos limitamos a calcular la sucesi´on (xn) hasta obtener una aproximaci´onx adecuada del autovector podemos obtener el autovalor resolviendo el sistema vectorial λ x = Ax. Este sistema resulta, en general, incompatible por no ser x exactamente un autovector sino s´olo una aproximaci´on, por lo que la soluci´on que mejor se ajusta es la pseudosoluci´on del sistema, que nos dar´a una aproximaci´on del autovalor λ.

λ x∗x=x∗Ax =⇒ λ= x ∗Ax x∗x Definici´on 4.5 [Cociente de Rayleigh]

Dada una matriz cuadrada Ay un vector x, se denominacociente de Rayleigh

del vector x respecto de la matrizA al cociente xx∗∗Axx .

Podemos, por tanto, obtener una aproximaci´on del autovector por un m´etodo iterado para m´as tarde aproximar el autovalor mediante el cociente de Ray-leigh.

4.3.1

etodo de la potencia simple y variantes

M´etodo de la potencia simple

Sea A ∈ Rn×n una matriz diagonalizable y supongamos que sus autovalores verifican que:

|λ1|>|λ2| ≥ · · · ≥ |λn|

(13)

M´etodos iterados para la obtenci´on de autovalores y autovectores 13

Sea B ={x1, x2,· · ·, xn} una base de Rn formada por autovectores asociados aλ1, λ2, . . . , λn respectivamente. Se verifica entonces que

A2xi =A(Axi) = A(λixi) = λiAxi =λi(λixi) = λ2ixi por lo que es f´acil probar, por inducci´on, que

Akxi =λkixi para cualquier i= 1,2, . . . , n

Dado un vectorz0 ∈Rn se define, a partir de ´el, la sucesi´on (zn) con

zn=Azn−1 =A2zn−2 =· · ·=Anz0.

Si las coordenadas del vector z0 respecto de la base B son (α1, α2, . . . , αn) se tiene quez0 =α1x1+α2x2 +· · ·+αnxn, por lo que

zk = Akz0 =Ak(α1x1+· · ·+αnxn) =α1Akx1+· · ·+αnAkxn= = λk1α1x1+· · ·+λknαnxn =λk1 " α1x1+ n X i=2 λi λ1 k αixi #

Dado que |λ1|>|λi| se tiene que lim k→∞ λi λ1 k = 0 ∀i= 2,3, . . . , n.

Se verifica entonces que lim k→∞

zk λk 1

=α1x1 que es un autovector deA asociado al autovalor λ1.

Sik es suficientemente grande, se tiene

Azk=zk+1 ≈λk+11 α1x1 =λ1(λk1α1x1) =λ1zk

por lo que la sucesi´on (zn) nos proporciona un m´etodo para aproximar el autovalor λ1.

Teniendo en cuenta que, para valores de k suficientemente grandes se verifica que

Azk =zk+1 ≈λ1zk (4.3)

el m´etodo no converger´a a un vector en concreto ya que zk+1 ≈λ1zk6=zk.

Ahora bien, dado que zk+1 y zk tienen la misma direcci´on, ambos representan al autovector buscado.

(14)

Geom´etricamente la matriz A transforma al vector zk (para valores de k su-ficientemente grandes, en otro proporcional a ´el y dado que se verifica la ecuaci´on (4.3) ese factor de proporcionalidad es precisamente el autovalor bus-cado λ1.

Escalado

Si |λ1| > 1 la sucesi´on (zn) converge a una direcci´on determinada (la del autovector), pero las normas de los vectores van creciendo llegando a diverger a un vector de coordenadas infinitas. Si, por el contrario,|λ1|<1, la sucesi´on (zn) converge al vector nulo. Es decir: en ninguno de los dos casos podremos calcular ni el autovalor ni el autovector.

Como s´olo nos interesa la direcci´on y los vectores de la sucesi´on (zn) convergen a una determinada direcci´on, podemos dividir o multiplicar en cada paso el vector zk por una constante sin que ello modifique su direcci´on. Con ello conseguiremos que la sucesi´on (zn) converja a un autovector asociado a λ1. Este proceso de modificar las normas de los vectores recibe el nombre de

escalado.

La cantidad por la que se escala puede ser arbitraria, pero lo m´as ´util es escalar por la coordenada de mayor m´odulo.

De esa forma los vectores escalados wk y wk+1 = zk kzkk∞

al ser muy pr´oximos tendr´an la coordenada de mayor m´odulo en en la misma posici´on y adem´as valdr´an 1 por lo que se evita el problema de la divergencia a infinito o la convergencia al vector nulo. Adem´as, dado que llamando α al factor de pro-porcionalidad se verifica que

αwk =zk =Awk−1

el factor de proporcionalidadα existente entre los vectoreszk y wk es precisa-mente el autovalor λ1 buscado. En otras palabras, escalando los vectores por su coordenada de mayor m´odulo, el proceso converge a un autovector cuya coordenada de mayor m´odulo (antes de escalar) es el autovalor buscado. Ejemplo 4.2 Para calcular, por el m´etodo de la potencia simple, el autovalor de mayor valor absoluto de la matriz

A=    6 2 5 2 2 3 5 3 6   

(15)

M´etodos iterados para la obtenci´on de autovalores y autovectores 15 z1 =    13.0000 7.0000 14.0000    z2 =    11.5714 5.8571 12.1429    z3=    11.6824 5.8706 12.2118    z4 =    11.7013 5.8748 12.2254    z5 =    11.7039 5.8753 12.2273    z6 =    11.7042 5.8754 12.2275    z7=    11.7042 5.8754 12.2275   

El vector z7 es una aproximaci´on del autovector asociado al autovalor domi-nante. Su coordenada de mayor m´odulo es 12.2275, por lo queλ1 ≈12.2275. No obstante, dado que no hemos obtenido el l´ımite sino una aproximaci´on, no todas sus coordenadas tendr´an el mismo factor de proporcionalidad (variar´a en poco, pero variar´a), por lo que es m´as correcto decir: siz7 es un autovector asociado a λ es porque Az7 = λz7, sistema que, en general es incompatible, por lo que buscamosλ resolviendo el sistema superdeterminado en t´ermino de m´ınimos cuadrados, es decir, mediante el cociente de Rayleigh.

λ1 = z T 7Az7 zT 7z7 = 12.22753579693696.

Algoritmo de la Potencia Simple

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z; z = A*w; for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z= z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

(16)

Ejecutando este algoritmo con MatLab para la matriz del Ejemplo 4.2 obtene-mos la aproximaci´on 12.22753579693706 del autovalor con un error del orden de 1.986027322597819·10−15 en 17 iteraciones.

Una forma de acelerar el proceso es la siguiente: una vez calculado el va-lor de wn (vector zn escalado) aproximar el autovector mediante el sistema homog´eneo (A−λI)wn= 0 dondeλ es la aproximaci´on obtenida para el auto-valor mediante el cociente de Rayleigh aplicado a la matriz A y el vector wn. Esta aproximaci´on del autovector es la que utilizaremos en el siguiente paso del m´etodo de la potencia simple.

Hay que tener cuidado ya que puede darse le caso de que al aproximar el autovalor mediante el cociente de Rayleigh (cuando el vector wn est´a a´un distante del autovector) nos acerquemos a otro autovalor de la matriz y, al final, el proceso nos conduzca a un autovalor diferente del dominante.

Algoritmo de la Potencia Simple Mejorado

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z; z = A*w; l=(z’*A*z)/(z’*z); if rcond(A-l*eye(length(A)))>10^ (-15) z = (A-l*eye(length(A)))\z; end for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z= z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

(17)

M´etodos iterados para la obtenci´on de autovalores y autovectores 17

Ejecutando este algoritmo con MatLab para la matriz del Ejemplo 4.2 obtene-mos la aproximaci´on 12.22753579693706 del autovalor con un error del orden de 2.664535259100376·10−15 en tan s´olo 4 iteraciones, frente a las 17 que eran necesarias con algoritmo anterior.

Este m´etodo s´olo nos permite calcular, en caso de existir, el autovalor do-minante de una matriz. Existen sin embargo otras variantes del m´etodo de la potencia simple que nos permiten calcular cualquiera de sus autovalores a partir de una aproximaci´on de ellos. Debido a la existencia de dichas variantes es por lo que el m´etodo estudiado anteriormente es conocido como m´etodo de la potencia simplepara distinguirlo de los que estudiaremos a continuaci´on.

M´etodo de la potencia inversa

Sea A ∈ Rn×n una matriz diagonalizable regular para la que sus autovalores verifican que:

0<|λ1|<|λ2| ≤ · · · ≤ |λn| (4.4) Los autovalores µ1, µ2, . . . , µn de la matriz A−1 son los inversos de los autova-lores deA,

µi = 1

λi para i= 1,2, . . . , n. Invirtiendo la expresi´on (4.4) nos queda

1 |λ1| > 1 |λ2| ≥ · · · ≥ 1 |λn| ⇐⇒ |µ1|>|µ2| ≥ · · · ≥ |µn|

es decir, el autovalor de menor valor absoluto de la matriz A se corresponde con el de mayor valor absoluto de A−1, por lo que aplicando el m´etodo de la potencia simple a la matriz A−1 obtenemos el autovalor de menor valor absoluto de la matriz A.

Obs´ervese que debemos ir calculando, en cada paso, los vectores zn=A−1ωn−1 y ωn = zn

kznk∞

. Pues bien, el c´alculo de zn se realiza resolviendo, por alguno de los m´etodos estudiados, el sistema Azn = ωn−1 lo que nos evita calcular A−1 y arrastrar los errores que se cometan a lo largo de todo el proceso.

Este m´etodo es conocido como m´etodo de la potencia inversa y nos permite calcular, en caso de existir, el autovalor de menor valor absoluto de una matriz invertibleA.

(18)

Ejemplo 4.3 Para calcular, por el m´etodo de la potencia inversa, el autovalor de menor valor absoluto de la matriz del Ejemplo 4.2 aplicamos el m´etodo de la potencia inversa y partiendo del vector z0 = (1 1 1)T obtenemos:

z1=    0.5000 1.5000 −1.0000    z2=    1.6667 4.3333 −3.6667    z3=    1.8846 4.7308 −4.0769    z4=    1.9106 4.7724 −4.1220    z5=    1.9140 4.7777 −4.1278    z6=    1.9144 4.7784 −4.1285    z7=    1.9145 4.7785 −4.1286    z8=    1.9145 4.7785 −4.1287    z9=    1.9145 4.7785 −4.1287   

Tenemos, por tanto, que z9 es una aproximaci´on al autovector asociado al autovalor de menor valor absoluto de la matriz A, por lo que el cociente de Rayleigh nos proporcionar´a una aproximaci´on de ´este.

λ3 =

zT9Az9 zT

9z9

= 0.20927063325837.

Algoritmo de la Potencia Inversa

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z; z = A\w; for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z= z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

(19)

M´etodos iterados para la obtenci´on de autovalores y autovectores 19

Al igual que hicimos con el m´etodo de la potencia simple, podemos acelerar la convergencia del m´etodo de la potencia inversa.

Algoritmo de la Potencia Inversa Mejorado

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z; z = A\w; l=(z’*A*z)/(z’*z); if rcond(A-l*eye(length(A)))>10^ (-15) z = (A-l*eye(length(A)))\z; end for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z = z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

Para la matriz de nuestro Ejemplo 4.2 obtenemos, con MatLab, mediante el al-goritmo del m´etodo de la potencia inversa, la aproximaci´on 0.20927063325837 del autovalor de menor m´odulo con un error 5.119756492560000·10−16 en 18 iteraciones, mientras que con el mejorado, obtenemos, en tan solo 8 iteraciones, la misma aproximaci´on con un error del orden de 9.723368807669973·10−16.

Veamos, por ´ultimo, una nueva variante de este m´etodo nos permite calcular un autovalor cualquiera de una matriz regularAa partir de una aproximaci´on suya. Sin embargo, hay que tener en cuenta que si el autovalor que vamos a aproximar es m´ultiple o existen otros con el mismo m´odulo aparecen dificul-tades que s´olo podremos solventar utilizando otros m´etodos.

(20)

M´etodo de la potencia inversa con desplazamiento

Consideremos una matriz A regular tal que todos sus autovalores tengan dife-rente m´odulo y supongamos conocida una aproximaci´onα de un determinado autovalor λk. Si la aproximaci´on es buena se verificar´a que|λk−α|<|λi−α| para cualquier i= 1,2, . . . n con i6=k.

Dado que 1/(λi−α) son los autovalores de A−αI y ´esta posee un autovalor (λk −α) de menor valor absoluto que los dem´as, el m´etodo de la potencia inversa nos proporcionar´a el valor µk =

1

λk−α pudi´endose, a partir de ´este ´

ultimo, hallar el valor de λk.

Est´a variante es conocida como m´etodo de la potencia inversa con desplaza-miento.

Ejemplo 4.4 Supongamos ahora que sabemos que el otro autovalor de la matriz A del Ejemplo 4.2 es aproximadamente 1.5.

Para calcular dicho autovalor, por el m´etodo de la potencia inversa con des-plazamiento, aplicamos el m´etodo de la potencia inversa a la matriz

(A−1.5I) =    4.5 2 5 2 0.5 3 5 3 4.5   

Partiendo del vector z0 = (1 1 1)T obtenemos:

z1=    −3.1429 2.5714 2.0000    z2=    −15.8701 13.8442 8.5455    z3=    −15.8499 13.7466 8.5663    z4=    −15.8233 13.7272 8.5501    z5=    −15.8244 13.7280 8.5508    z6=    −15.8244 13.7279 8.5508    z7=    −15.8244 13.7279 8.5508   

Tenemos, por tanto, que z7 es una aproximaci´on al autovector asociado al autovalor buscado, por lo que

λ2 = zT7Az7 zT 7z7 = 1.56319356980456.

(21)

M´etodos iterados para la obtenci´on de autovalores y autovectores 21

Algoritmo de la Potencia Inversa con

Desplazamiento

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z z = (A-αI)\w; for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z = z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

Para la matriz del Ejemplo 4.2 y conociendo que tiene un autovalor pr´oximo a 1.5, el algoritmo de la potencia inversa con desplazamiento, ejecutado con MatLab, nos proporciona la aproximaci´on 1.56319356980457 del autovalor con un error de 3.845925372767128·10−16 en 12 iteraciones.

Tambi´en, en este caso, podemos hacer la misma mejora que en los anteriores algoritmos.

(22)

Algoritmo de la Potencia Inversa con

Desplazamiento Mejorado

z = ones(length(A),1); w = zeros(length(A),1); n = 0; while norm(z-w)>10^ (-14) n = n + 1; w = z; z = (A-αI)\w; l=(z’*A*z)/(z’*z); if rcond(A-l*eye(length(A)))>10^ (-15) z = (A-l*eye(length(A)))\z; end for i = 1:length(A) if abs(z(i)) == max(abs(z)) break end end z = z/z(i); end n autovalor = (z’*A*z)/(z’*z) Error = norm(A*z-autovalor*z)

Este algoritmo mejorado nos proporciona la aproximaci´on 1.56319356980456 del autovalor con un error de 5.978733960281817·10−16 en tan solo 3 iteracio-nes.

4.3.2

Algoritmo

QR

de Francis

Dada una matriz A ∈ Kn×n, se pretende encontrar una sucesi´on de matrices (An)n∈N convergente a la matriz triangular de Schur T (en cuya diagonal

aparecen los autovalores de la matriz A).

La construcci´on de dicha sucesi´on se hace de la siguiente manera: A0 =A. Supuesta encontrada An, se realiza la factorizaci´on An = QnRn mediante matrices de Householder y An+1 =RnQn. En otras palabras:

(23)

M´etodos iterados para la obtenci´on de autovalores y autovectores 23 A0 =A=Q0R0 A1 =R0Q0 =Q∗0AQ0 =Q1R1 A2 =R1Q1 =Q∗1Q∗0AQ0Q1 =Q2R2 .. . An+1 =RnQn=Q∗n· · ·Q ∗ 1Q ∗ 0AQ0Q1· · ·Qn=Qn+1Rn+1 .. .                      =⇒ An+1 = (Q0Q1· · ·Qn)∗A(Q0Q1· · ·Qn)

Al ser An semejante a A cualquiera que sea n ∈ N, todas las matrices de las sucesi´on tienen los mismos autovalores.

Siλ1, λ2, . . . , λn son los autovalores de una matrizA tales que |λ1|>|λ2|>· · ·>|λn|>0

el algoritmo converge.

En general, si existen autovalores de igual m´odulo, la sucesi´on converge a una matriz triangular por cajas en la que cada caja contiene a los autovalores del mismo m´odulo.

En otras palabras,

• Si todos los autovalores tienen distinto m´odulo el l´ımite de la sucesi´on es una matriztriangular superior en la que los elementos de su diagonal son los autovalores de la matriz.

• Si existen autovalores de igual m´odulo la matriz l´ımite es una matriz

triangular superior por cajasen la que cada caja de ordenkde su diagonal es una matriz cuyos autovalores son todos los k autovalores de igual m´odulo de la matriz A.

As´ı, por ejemplo, si una matriz A de orden 3 tiene un autovalor real y dos autovalores complejos conjugados (por tanto de igual m´odulo) de distinto m´odulo que el autovalor real se llegar´ıa a una matriz del tipo

   a11 a12 a13 0 a22 a23 0 a32 a33   

(24)

dondea11es el autovalor real y los autovalores de la matriz

a22 a23 a32 a33

!

son los dos autovalores complejos de la matriz A.

De forma m´as general, siAes una matriz cualquiera (normal o no), al aplicarle el algoritmo, la sucesi´on converge (en la mayor´ıa de los casos) a su forma de Schur.

Ejemplo 4.5 Para el c´alculo de los autovalores de la matrizA=    1 2 3 2 2 3 3 3 3    se tiene: A0 =A=    1 2 3 2 2 3 3 3 3    A1 =    7 −1.9415 0.6671 −1.9415 −0.5385 0.1850 0.6671 0.1850 −0.4615    A2 =    7.5034 0.3365 0.0344 0.3365 −1.1474 −0.1174 0.0344 −0.1174 −0.3554    A3 =    7.5162 −0.0530 0.0016 −0.0530 −1.1758 0.0348 0.0016 0.0348 −0.3404    A4 =    7.5165 0.0083 0.0001 0.0083 −1.1775 −0.0100 0.0001 −0.0100 −0.3390    A5 =    7.5165 −0.0013 0.0000 −0.0013 −1.1776 0.0029 0.0000 0.0029 −0.3389    A6 =    7.5165 0.0002 0 0.0002 −1.1776 −0.0008 0 −0.0008 −0.3389    A7 =    7.5165 0 0 0 −1.1776 0 0 0 −0.3389   

Por lo que los autovalores de la matriz A son:

−1.1776 −0.3389 y 7.5165 Ejemplo 4.6 La matriz A=    2 3 5 1 4 6 −1 3 1  

tiene por autovalores 7 y ± √

2.

Al tener dos autovalores de igual m´odulo no converge a una matriz triangular, sino a la matriz triangular por cajas.

Realizando el proceso con MatLab hemos obtenido en la iteraci´on 31 que

A31=    7.0000 6.7412 −0.6901 −0.0000 0.5797 2.4374 0.0000 0.6826 −0.5798   

(25)

M´etodos iterados para la obtenci´on de autovalores y autovectores 25

por lo que sabemos que un autovalor es 7 y los otros dos son los autovalores de la matriz

B = 0.5797 2.4374 0.6826 −0.5798

!

cuyos autovalores son ±√2.

4.3.3

etodo de Jacobi para matrices sim´

etricas reales

Comenzaremos viendo el m´etodo para dimensi´on dos y, m´as tarde, generaliza-remos para una dimensi´on cualquiera.

Dada una matriz sim´etrica y realA = a b b c

!

el m´etodo trata de buscar un

valor para α de tal forma que la rotaci´on P = cosα senα −senα cosα

!

haga que la matriz P−1AP sea diagonal.

P−1AP = cosα −senα senα cosα ! a b b c ! cosα senα −senα cosα ! = ∗ 0 0 ∗ !

Se debe verifica, por tanto, que

(a−c) cosαsenα+b(cos2α−sen2α) = 0 es decir:

b(cos2α−sen2α) = (c−a) cosαsenα Sic=a basta tomarα= π

4.

Sic6=a podemos dividir por c−a y obtenemos que 2b c−a = 2 cosαsenα cos2αsen2α = sen 2α cos 2α = tg 2α Llamando m= 2b

c−a se tiene que tg 2α=m, por lo que

t = tg α= −1± √

1 +m2 m

y, a partir del valor de t obtenido, se pueden calcular cosα= √ 1

1 +t2 y senα = t √

1 +t2 valores, estos ´ultimos, que nos permiten determinar la matriz P.

(26)

Algoritmo de c´alculo a) Dada A= a b b c ! a.1) Sib = 0 FIN. a.2) Sib 6= 0 ya=c P =   √ 2/2 √2/2 −√2/2 √2/2   y P −1 AP =   ∗ 0 0 ∗  . FIN. b) m= 2b c−a t= −1±√1 +m2 m . c) cosα= √ 1 1 +t2 senα= t √ 1 +t2. P =   cosα senα −senα cosα   y P −1 AP =   ∗ 0 0 ∗  . FIN.

Para dimensiones superiores sea P la matriz diagonal por bloques

P =    Ip−1 Tq−p+1 In−q    en la que Tq−p+1 =    cosα senα Iq−p−1 −senα cosα   

y todos los dem´as elementos nulos.

• Si apq = 0, hacemos cosα= 1 y senα= 0.

• Si app=aqq, hacemos cosα= senα= √ 2 2 . • Si app6=aqq llamando m= 2apq aqq−app y t= −1± √ 1 +m2 m hacemos cosα= √ 1 1 +t2 y senα= t √ 1 +t2

(27)

M´etodos iterados para la obtenci´on de autovalores y autovectores 27

Entonces, los elementos que ocupan los lugares pq y qp de la matriz P−1AP son nulos.

El m´etodo de Jacobi consiste en buscar el elemento apq con p 6= q de mayor m´odulo, anularlo mediante una matriz P1, buscar el siguiente elemento de mayor m´odulo y anularlo mediante otra matriz P2 y as´ı sucesivamente hasta diagonalizar la matrizA.

Dado que las matrices Pk, o matrices de Jacobi, son ortogonales, se verifica quePk−1 =PT

k por lo que se trata, en definitiva, de buscar P1, P2, . . . , Pk de la forma descrita anteriormente, para obtener

PkT · · ·P1TAP1· · ·PK =D

Lo m´as importante de este m´etodo es que el c´alculo de las matrices Pi puede hacerse simult´aneamente ya que no se requiere el conocimiento de ninguna de ellas en el c´alculo de cualquier otra. Es decir, el m´etodo es paralelizable.

Ejemplo 4.7 Consideremos la matriz A =      1 −2 3 1 −2 0 4 2 3 4 1 1 1 2 1 0      que es

sim´etrica y real.

El elemento extradiagonal de mayor valor absoluto es a23 = 4, por lo que comenzamos haciendo m= 2a23 a33−a22 t= −1 + √ 1 +m2 m cosα = 1 √ 1 +t2 senα = t √ 1 +t2 P23 =I4 p22 =p33 = cosα p23=−p32= senα obteni´endose P23=      1 0 0 0 0 0.7497 0.6618 0 0 −0.6618 0.7497 0 0 0 0 1      por lo que P23TAP23=      1 −3.4848 0.9254 1 −3.4848 −3.5311 0 0.8376 0.9254 0 4.5311 2.0733 1 0.8376 2.0733 0     

(28)

Obs´ervese que la transformaci´on de semejanza s´olo ha afectado a las filas y columnas 2 y 3 dejando invariantes a los dem´as elementos.

Si queremos aplicar el m´etodo a la matriz P23TAP23 obtenida, utilizando como referencia el elemento a14= 1, podemos observar que todos los c´alculos nece-sarios para obtener la nueva matrizP14pod´ıamos haberlos realizados al mismo tiempo que los realizados para P23 ya que s´olo necesitamos los valores de los elementos (1,1), (1,4), (4,1) y (4,4) de la matriz PT

23AP23, que por haber quedado invariantes son los mismos que los de la matriz A.

Realizando los c´alculos necesarios de forma an´aloga al caso anterior obtenemos

P14 =      0.8507 0 0 −0.5257 0 1 0 0 0 0 1 0 0.5257 0 0 0.8507      que aplicar´ıamos a PT

23AP23 para obtener P14TP23TAP23P14 = PTAP donde la matriz P viene dada por P =P23P14.

Ahora bien, la matriz

P =P23P14 =      0.8507 0 0 −0.5257 0 0.7497 0.6618 0 0 −0.6618 0.7497 0 0.5272 0 0 0.8507     

puede ser escrita directamente sin necesidad de construir previamente P23 y P14 y multiplicarlas.

En resumen, se pueden enviar a un ordenador los valores de a22, a23 = a32 y a33 para que calcule el ´angulo de giro correspondiente y nos devuelva los valores dep22 =p33 yp23 =−p32, mientras que de forma simult´anea enviamos a otro ordenador los valores de a11, a14 y a44 y nos devolver´a los de p11 =p44 y p14 =−p41.

En el ordenador central construimos la matriz P con los datos recibidos y calculamos PTAP =      1.6180 −2.5240 1.8772 0 −2.5240 −3.5311 0 2.5445 1.8772 0 4.5311 1.2771 0 2.5445 1.2771 −0.6180     

(29)

Reducci´on del problema a matrices herm´ıticas 29

que volveremos a renombrar con A.

A la vista de la matriz enviar´ıamos alOrdenador 1los datos de los elementos a22, a24 = a42 y a44 mientras que enviar´ıamos al Ordenador 2 los de a11, a13 = a31 y a33 que nos devolver´ıan los elementos necesarios para construir una nueva matriz

P =      0.8981 0 0.4399 0 0 0.8661 0 0.5016 −0.4399 0 0.8981 0 0 −0.5016 0 0.8651      y a partir de ella PTAP =      0.6986 −1.6791 0 −1.6230 −1.6791 −5.0065 −1.5358 0 0 −1.5358 5.4506 0.4353 −1.6230 0 0.4353 0.8573     

Reiterando el proceso llegamos a la matriz      2.5892 0 0 0 0 −5.6823 0 0 0 0 5.7118 0 0 0 0 −0.6188     

cuyos elementos diagonales son los autovalores de la matriz original.

4.4

Reducci´

on del problema a matrices

herm´ı-ticas

Los autovalores de una matriz normal cualquiera pueden ser reales o com-plejos mientras que los de una matriz herm´ıtica son todos reales, por lo que si pudi´eramos transformar el c´alculo de los autovalores de una matriz nor-mal en los de otra herm´ıtica habr´ıamos simplificado el problema. Es m´as, si pudi´eramos transformarlo en el c´alculo de los autovalores de una matriz sim´etrica real, podr´ıamos trabajar en el campo real en vez de hacerlo en el campo complejo y, entre otras cosas, podr´ıamos utilizar el m´etodo de Jacobi a partir de una matriz normal cualquiera, previa transformaci´on en un problema de autovalores de una matriz sim´etrica real.

(30)

Proposici´on 4.14 [Componentes herm´ıticas de una matriz]

Dada cualquier matriz cuadrada A, existen dos matrices herm´ıticas H1 y H2 tales que A=H1+iH2 las cuales reciben el nombre decomponentes herm´ıticas de la matriz A.

Demostraci´on. Si se quiere que A = H1 +iH2 con H1 y H2 herm´ıticas, se tendr´a que A∗ = H1∗ −iH2∗ = H1 −iH2, por lo que resolviendo el sistema resultante se tiene que

H1 = A+A ∗

2 H2 =

A−A∗ 2i adem´as, la soluci´on es ´unica.

Teorema 4.15 SeaA=H1+iH2 una matriz normal conH1 yH2 herm´ıticas. Si x 6= 0 es un autovector de A asociado al autovalor α+iβ (α, β ∈ R) se verifica que

H1x=αx y H2x=βx

Demostraci´on. Por ser A normal, existe una matriz unitaria U tal que U∗AU =D D=U∗AU =       α+iβ 0 · · · 0 0 α2+iβ2 · · · 0 .. . ... . .. ... 0 0 · · · αn+iβn       =⇒ A=U       α 0 · · · 0 0 α2 · · · 0 .. . ... . .. ... 0 0 · · · αn       U∗+iU       β 0 · · · 0 0 β2 · · · 0 .. . ... . .. ... 0 0 · · · βn       U∗ =⇒ H1 =U       α 0 · · · 0 0 α2 · · · 0 .. . ... . .. ... 0 0 · · · αn       U∗ H2 =U       β 0 · · · 0 0 β2 · · · 0 .. . ... . .. ... 0 0 · · · βn       U∗

donde H1 y H2 son herm´ıticas. Se tiene entonces que α es un autovalor de H1 asociado a x (primera columna de U) y β un autovalor de H2 asociado tambi´en a x.

(31)

Reducci´on del problema a matrices sim´etricas reales 31

Las componentes herm´ıticas H1 y H2 de una matriz cuadrada A nos propor-cionan otro m´etodo para estudiar si la matriz A es, o no es, normal.

Teorema 4.16 Una matriz cuadrada A es normal si, y s´olo si, sus compo-nentes herm´ıticas conmutan.

A es normal ⇐⇒ H1H2 =H2H1 Demostraci´on. H1H2 = A+A∗ 2 · A−A∗ 2i = A2−AA∗+A∗A+ (A∗)2 4i H2H1 = A−A∗ 2i · A+A∗ 2 = A2+AAAA+ (A)2 4i

• SiA es normal se verifica que AA∗ =A∗A por lo que

H1H2 = A+A∗ 2 · A−A∗ 2i = A2+ (A)2 4i H2H1 = A−A∗ 2i · A+A∗ 2 = A2+ (A)2 4i          =⇒ H1H2 =H2H1 • SiH1H2 =H2H1 se verifica que A2−AA∗+A∗A+ (A∗)2 =A2+AA∗−A∗A+ (A∗)2 por lo que

−AA∗+A∗A =A2+AA∗−A∗A ⇐⇒ 2A∗A= 2AA∗ ⇐⇒ A∗A=AA∗

y, por tanto,A es normal.

4.5

Reducci´

on del problema a matrices sim´

e-tricas reales

Sea H una matriz herm´ıtica y sean hij = aij +ibij con 1 ≤ i, j ≤ n sus elementos.

Podemos descomponer la matriz H de la forma H =A+iB dondeA y B son matrices reales conA= (aij) y B = (bij).

(32)

Por ser H herm´ıtica se verifica que

A+iB=H=H∗=A∗−iB∗=AT−iBT (por ser A y B reales) =  

A=AT B=−BT Sea x = a+ib un autovector de H asociado al autovalor α (recu´erdese que α∈R por ser H una matriz herm´ıtica). Se verifica entonces que

Hx= (A+iB)(a+ib) = (Aa−Bb) +i(Ab+Ba)

αx=α(a+ib) = αa+iαb

   Hx=αx⇒    Aa−Bb=αa Ab+Ba=αb por lo que A −B B A ! a b ! =α a b !

Obs´ervese adem´as que la matriz real A −B

B A

!

es sim´etrica, ya que

A −B B A !T = A T BT −BT AT ! = A −B B A !

Los autovalores de la matriz A −B

B A

!

son, por tanto, los mismos que los

de H y si un autovector de A −B

B A

!

es (x1, . . . , xn, xn+1, . . . , x2n), el co-rrespondiente autovector de la matriz H es

(x1+ixn+1), . . . ,(xn+ix2n)

.

Dada una matriz normal calcularemos sus autovalores de la siguiente forma:

Algoritmo de c´alculo de los autovalores de una matriz normal Paso 1 Calcular las componentes herm´ıticas

H1 = A+A∗ 2 y H2 = A−A∗ 2i de la matriz A.

(33)

Aplicaci´on al c´alculo de las ra´ıces de un polinomio 33

Paso 2 Calcular los autovalores λi (1 ≤ i ≤ n) de la primera componente herm´ıtica H1 y sus autovectores asociados vi reduciendo previamente el problema al caso de matrices reales y sim´etricas.

Paso 3 Calcular los cocientes de Rayleigh µi =

v∗iH2vi v∗

ivi .

Como los vectoresvi (1≤i≤n) son tambi´en autovectores de H2, losµi obtenidos son sus autovalores asociados.

Paso 4 Los autovectores de A son los mismos vectores vi y sus autovalores asociados vienen dados porλi+iµi.

4.6

Aplicaci´

on al c´

alculo de las ra´ıces de un

polinomio

Consideremos el polinomio

P(x) = a0xn+a1xn−1+a2xn−2+· · ·+an−1x+an

Dado que el polinomio caracter´ıstico de la matriz

A=      

−a1/a0 −a2/a0 · · · −an−1/a0 −an/a0

In−1 0 .. . 0      

(dondeIn−1 representa la matriz unidad de ordenn−1) es precisamente P(x), la ra´ıces de dicho polinomio coinciden con los autovalores de la matrizA, por lo que dichas ra´ıces pueden ser obtenidas, en bloque, mediante un m´etodo iterado de c´alculo de autovalores.

As´ı, por ejemplo, MATLAB en su comandoroots(P) para calcular las ra´ıces de un polinomio P construye, en primer lugar, la matriz A definida anterior-mente y se limita luego a calcular sus autovalores aplicando internaanterior-mente el comando eig(A) de c´alculo de los autovalores de una matriz. Este comando lo que hace, en primer lugar, es aplicar un algoritmo para llevar la matrizA a una matriz de Hessenberg y posteriormente aplicarle el algoritmoQRmediante transformaciones de Householder.

(34)
(35)

Bibliograf´ıa

[1] Burden, R.L. y Faires, J.D. An´alisis Num´erico (Sexta edici´on). Interna-cional Thomson Ed. 1998.

[2] Golub, G.H. y Van Loan, C.F.Matrix Computations (Third edition). Johns Hopkins University Press

[3] Hager, W. Applied Numerical Linear Algebra. Ed. Prentice-Hall Interna-tional. 1988.

[4] Kincaid, D. y Cheney, W. An´alisis Num´erico. Ed. Addison-Wesley Ibe-roamericana. 1994.

[5] Noble, D. y Daniel, J.W. Algebra Lineal Aplicada´ . Ed. Prentice-Hall. 1989. [6] Watkins, D.S. Fundamentals of MATRIX Computations. John Wiley &

Sons. 1991.

Referencias

Documento similar

Se llega así a una doctrina de la autonomía en el ejercicio de los derechos que es, en mi opinión, cuanto menos paradójica: el paternalismo sería siempre una discriminación cuando

The buildings of Jose Llinas besides their formal aptitudes, in addi- tion to the quality of their materials, not to mention the perfection of their

Este libro intenta aportar al lector una mirada cuestiona- dora al ambiente que se desarrolló en las redes sociales digitales en un escenario de guerra mediática mantenido por

o esperar la resolución expresa&#34; (artículo 94 de la Ley de procedimiento administrativo). Luego si opta por esperar la resolución expresa, todo queda supeditado a que se

- Motive a los estudiantes a participar, compartiendo lo que han comprendido acerca de la fórmula cuadrática, para solucionar la ecuación cuadrática.. - Indique que explique

Los Números enteros naturales son todos los números sin decimales, positivos y negativos, que junto al cero, hacen todos los números de contar, los que no tienen parte fraccionaria,

En el caso de posibles impagos derivados del Contrato de la Tarjeta o de cualquier modalidad especial de financiación, tanto en El Corte Inglés ( y Red Grupo El Corte Inglés) como

Cualquier persona física o jurídica que ponga por primera vez a disposición para su distribución y/o utilización en territorio español estos productos