El álgebra de los valores propios

36  Descargar (0)

Texto completo

(1)

Cap´ıtulo 9

El ´

algebra de los valores propios

9.1.

Introducci´

on

El objetivo de este tema es proporcionar las ideas matem´aticas que se usan en el c´alculo num´erico de los valores propios de matrices. En parte es un repaso de conceptos ya estudiado en cursos b´asicos de ´Algebra Lineal pero el ´enfasis se pone en aquellos aspectos que son importantes en el an´alisis num´erico. As´ı, mientras que el objetivo te´orico ´ultimo, en relaci´on con los valores y vectores propios, es la obtenci´on de la forma can´onica de Jordan que proporciona un sistema completo de invariantes para la semejanza (o conjugaci´on) de matrices, ´esta es de muy poca relevancia desde el punto de vista num´erico. La raz´on es que la forma can´onica de Jordan es altamente inestable y, salvo que se usen algoritmos simb´olicos, rara vez se puede obtener con fiabilidad. A lo largo de este tema veremos que uno de los problemas es que las transformaciones de semejanza no son recomendables para la obtenci´on de los valores y vectores propios de matrices. En su lugar, mucho m´as fiables son las transformaciones de semejanza unitaria. Este planteamiento nos conduce a estudiar

(2)

con detalle la forma de Schur (compleja y real) que ser´ıa el objetivo final de los algoritmos de c´alculo de valores propios.

En este primer tema sobre valores propios nos centraremos en los aspectos te´oricos que nos permitir´an comprender mejor los algoritmos que veremos en el siguiente tema. Empezaremos repasando los conceptos de Algebra Lineal relacionados con los valores y vectores propios. Entre otras cosas veremos que el conjunto de las matrices con valores propios distintos forman un conjunto denso en el espacio de las matrices cuadradas; lo cual, desde un punto de vista num´erico, hace pr´acticamente indistinguibles las matrices con valores propios distintos de las que no tienen esta propiedad. Por ello, las matrices que tienen valores propios repetidos se llaman

matrices defectuosas. Veremos que no ser defectuosa equivale a ser diagonalizable por semejanza (o conjungaci´on).

La mayor parte de los problemas en los que hay que calcular valores propios suelen involucrar matrices de n´umeros reales. Pero como ´estas pueden tener valores propios complejos y la teor´ıa b´asica es la misma para matrices reales o complejas, en todo este tema, y salvo que se especifique lo contrario, F representar´a indistintamente el cuerpo de los n´umeros reales o el de los complejos.

9.2.

Valores y vectores propios

SiAPFnn,λ

0 P Ces un valor propio (o autovalor) deAsi existe un vector no nulo

xPCn tal que

Axλ0x

Al conjunto de valores propios (distintos) de A lo denotaremos por ΛpAq; y a ´este conjunto se le conoce con el nombre de espectro de A. En algunos libros y art´ıcu-los se le suele denotar por σpAq, pero cada vez se utiliza m´as la notaci´on que se emplear´a aqu´ı: ΛpAq.

Si λ0 P ΛpAq, los vectores x 0 para los que Ax λ0x se llaman vectores propios

o autovectores de A asociados al valor propio λ0. Paraλ0 PΛpAq sea Sλ0 txP C

n|Axλ

0xu

Este conjunto es un subespacio vectorial de Cn que se llama subespacio propio deA

asociado aλ0. Como

(3)

9.2 Valores y vectores propios 181

resulta que el subespacio propio de A asociado a λ0 es Kerpλ0In Aq. Adem´as si

xPSλ0 entonces

pλ0InAqAxApλ0InAqx0,

de modo queAx PSλ0. Los subespacios que cumplen esta propiedad (xPS ÑAxP

S) se llaman subespacios invariantes por A. As´ı pues, los subespacios propios deA

son invariantes porA (o A-invariantes).

La siguiente propiedad pone de manifiesto que vectores propios asociados a valores propios distintos son linealmente independientes

Proposici´on 9.1 Sea APFnn y tλ

1, . . . , λsu „ΛpAq.

(a) Si para i 1, . . . , s, xi es un vector propio de A asociado al valor propio λi,

entonces los vectores x1,. . . , xs son linealmente independientes.

(b) La suma Kerpλ1InAq KerpλsInAq es directa.

Demostraci´on.- (a) Lo demostraremos por contradicci´on. Recordemos que ΛpAq

es el conjunto de los valores propios de A y, por lo tanto λi λj para ij.

Con los vectores x1,. . . , xs constru´ımos la matriz X

x1 xs

. Si x1,. . . , xs

no son linealmente dependientes, entonces rangX r s y hay r columnas de X, digamosxi1,. . . ,xir que son linealmente independientes y vectores propios asociados a los valores propios λi1,. . . , λir. Sea xj una columna de X tal que j R ti1, . . . , iru, entonces

xj α1xi1 αrxir.

Como xj PKerpλjInAq y Axik λikxik,k 1, . . . , s, resulta que

0 pλjInAqxj pλjInAqpα1xi1 αrxirq α1pλjλi1qxi1 αrpλjλirqxir Y como xi1,. . . , xir son linealmente independientes

αkpλj λikq 0, k1, . . . , r.

Pero xj 0, de modo que al menos un αk 0. Para ese ´ındice k conclu´ımos que

(4)

(b) Hay que demostrar que si Ri KerpλiInAq, entonces para j 1, . . . , s

Mj R1X XRj1XRj 1X XRs t0u.

Si 0xPMj para alg´un j, entonces

Axλjxλjpv1 vj1 vj 1 vsq, vi P KerpλiInAq. As´ı ¸ ij pλiλjqvi ¸ ij λiviλj ¸ ij vi ¸ ij AviλjxA ¸ ij vi λjxAxλjx0

Pero, por el apartado (a), los vectores v1, . . . , vj1, vj 1, . . . , vs son linealmente

in-dependientes. Por consiguiente λi λj para i 1, . . . , j1, j 1, . . . , s, lo que es

imposible porque son todos distintos.

Introducimos ahora los conceptos de multiplicidad algebraica y geom´etrica.

Definici´on 9.2 Para λ0 P ΛpAq se define la multiplicidad geom´etrica de λ0 como

la dimensi´on del subespacio propio de A asociado a λ0, y se denota por mgApλ0q:

mgApλ0q dim Kerpλ0InAq

Por otra parte,

λ0 PΛpAq ô Dx0 t. q. pλ0InAqx0ôdetpλ0InAq 0

Siλ denota una indeterminada, la matrizλInAest´a definida enFrλs, el anillo de

los polinomios en la indeterminada λ con coeficientes enF; i.e.

λInAPFrλsnn

ComoFrλses una anillo conmutativo, podemos calcular el determinante deλInA.

Es f´acil ver que ´este es un polinomio de grado n con coeficiente principal 1: detpλInAq λn p1λn1 pn1λ pn.

Los polinomios cuyo coeficiente principal es 1 se llaman polinomios m´onicos. Y al polinomio m´onico detpλIn Aq se le llama polinomio caracter´ıstico de A. Lo

denotaremos por

(5)

9.2 Valores y vectores propios 183

Si factorizamos este polinomio enC, se descompone como producto de potencias de factores lineales:

ppλq pλλ1qm1pλλ1qm2 . . . pλλ1qms, λ

i λj,

entonces ΛpAq tλ1, λ2, . . . , λsu porque λ0 P ΛpAq si y s´olo si detpλ0InAq 0,

tal y como hemos visto m´as arriba.

Definici´on 9.3 Al n´umero mi se le llama multiplicidad algebraica deλi como valor

propio de A, y se representa por maApλiq.

En otras palabras, la multiplicidad algebraica de un valor propio es su multiplicidad como ra´ız del polinomio caracter´ıstico.

Cuando no haya posibilidad de confusi´on, en la notaci´on de las multiplicidades algebraica y geom´etrica (maApλ0qy mgApλ0q) suprimiremos los sub´ındices que hacen

referencia a la matriz.

Por otra parte, si A, B PFnn son semejantes; i.e., AT1BT para alguna matriz T P GlnpFq, entonces tienen el mismo polinomio caracter´ıstico, pApλq pBpλq. En

efecto,

pApλq detpλInAq detpλInT1BTq

detpT1pλI

nBqTq detpT1qdetpTqdetpλInBq

detpλInBq pBpλq.

Una consecuendia de esta propiedad es que ΛpAq ΛpBq y para cada λ0 P ΛpAq

ΛpBq, maApλ0q maBpλ0q. Tambi´en es cierto que mgApλ0q mgBpλ0q porque

Kerpλ0InAq T1Kerpλ0InBq,

lo cual se demuestra por doble inclusi´on como sigue:

xPKerpλ0InAq ô pλ0InAqx0ôT1pλ0InBqT x0ô

ô pλ0InBqT x0ôT xPKerpλ0InBq ôxPT1Kerpλ0InBq.

Adem´as, como T es invertible, dim Kerpλ0InAq dim Kerpλ0InBq.

Las multiplicidades algebraica y geom´etrica de cada valor propio est´an relacionadas tay y como muestra la siguiente proposici´on.

(6)

Proposici´on 9.4 Para AP Fnn y λ0 PΛpAq,mapλ0q ¥ mgpλ0q.

Demostraci´on.- Sea mgpλ0q r y tt1, . . . , tru una base del subespacio propio

Sλ0 Kerpλ0In Aq. Ampliamos esta base tt1, . . . , tr, tr 1, . . . , tnu para obtener

una base de Cn. Pongamos T t

1 t2 tn

la matriz cuyas columnas son los vectores de la base escogida. Y sea B T1AT. Veamos la forma que tiene esta

matriz: AT At1 Atr Atr 1 Atn λ0t1 λ0tr yr 1 yn t1 tr tr 1 tn λ0Ir C 0 D T B. As´ı λInB pλλ0qIr C 0 λInrD . Por lo tanto

detpλInBq pλλ0qrdetpλInrDq.

ComoAy B tienen para cada valor propio las mismas multiplicidades algebraicas y geom´etricas yλ0podr´ıa ser valor propio deD, concluimos quer mgpλ0q ¤ mapλ0q.

Definici´on 9.5 Sea AP Fnn y λ0 PΛpAq.

(a) Si mgpλ0q   mapλ0q entonces se dice que λ0 es un valor propio defectuoso de A. En caso contrario se dice que es no defectuoso. La matriz A se dice que es defectuosa si tiene alg´un valor propio defectuoso y en caso contrario se dice que es no defectuosa.

(b) Si mapλ0q 1 entonces se dice que λ0 es un valor propio simple de A. La matriz A se dice que es simple si todos sus valores propios son simples. (c) Los valores propios no defectuosos que no son simple se llamansemisimples.

La matriz A se dice que es semisimple si sus valores propios son simples o semisimples.

(7)

9.2 Valores y vectores propios 185

Debe notarse que para una matriz es lo mismo ser semisimple o ser no defectuosa y que las matrices simples tiene todos sus valores propios distintos. En el extremo opuesto, las matrices cuyos valores propios tienen todos multiplicidad geom´etrica 1, se llaman no derogatorias. Las matrices simples son a la vez no defectuosas y no derogatorias.

Posiblemente la denominaci´on de “matriz defectuosa” se debe al hecho de que “ca-si todas” las matrices son no defectuosas. Veremos que, en efecto, el conjunto de matrices no defectuosas es un conjunto abierto y denso en el conjunto de todas las matrices cuadradas. En otras palabras, tan cerca como se quiera de una matriz defectuosa hay matrices que no lo son. Tambi´en se dice que la propiedad “ser no defectuosa” es gen´erica para las matrices.

Definici´on 9.6 APFnnse dice que es diagonalizable si es semejante a una matriz

diagonal.

Si A es diagonalizable, las matrices diagonales a las que es semejante son matrices cuyos elementos diagonales son los valores propios (en alg´un orden) deA. En efecto, si T1AT D Diagpd

1, . . . , dnq entonces A y D tienen el mismo polinomio

caracter´ıstico. Pero

detpλInDq pλd1qpλd2q . . . pλdnq;

as´ı qued1, . . . , dn son los valores propios (quiz´a repetidos) de D y, por lo tanto, de

A.

Proposici´on 9.7 A PFnn es no defectuosa si y s´olo si es diagonalizable.

Demostraci´on.- Claramente siA es diagonalizable es no defectuosa porque la

mu-tiplicidad algebraica de sus valores propios es 1.

Rec´ıprocamente, si A es no defectuosa entonces para cada λ0 P ΛpAq se tiene que

mapλ0q mgpλ0q. Supongamos

ΛpAq tλ1, . . . , λsu

y

(8)

Esto significa que dim KerpλiIn Aq mi y m1 ms n. Pero por la

Proposici´on 9.1 la suma Kerpλ1 Aq KerpλsIn Aq es directa, de modo

que dimpKerpλ1 Aq KerpλsIn Aqq m1 ms n. Es decir,

Cn Kerpλ1 Aq ` ` KerpλsIn Aq. As´ı, si ttii, . . . , timiu es una base de KerpλiInAqyT

t11 t1m1 ts1 tsms

, las columnas deT forman una base de Cn y consecuentemente T es invertible. Ahora

AT At11 At1m1 Ats1 Atsms λ1t11 λ1t1m1 λsts1 λstsms t11 t1m1 ts1 tsms λ1 . .. λ1 . .. λs . .. λs T D

Como T es invertible, T1AT Dcon D diagonal.

La demostraci´on nos proporciona la siguiente informaci´on: Si A es diagonalizable y formamos una matrizT cuyas columnas sean vectores propios asociados a los valores propios de A (un vector propio por cada valor propio) entonces T es invertible y

T1AT es una matriz diagonal cuyos elementos diagonales son los valores propios

de A. Pero el rec´ıproco tambi´en es cierto: si T1AT D es diagonal, entonces los

valores propios de A son los elementos diagonales de D y la i-´esima columna de T

es un vector propio de A asociado al valor propio que ocupa la i-´esima posici´on de la diagonal de D.

SiAno es diagonalizable, todav´ıa podemos encontrar una matrizT, no singular, tal que T1AT es casi diagonal:

Teorema 9.8 (Forma can´onica de Jordan) Dada A P Fnn existe una matriz

no singular T PCnn tal que T1AT J es la forma can´onica de Jordan de A. Es decir, J es una matriz diagonal por bloques J DiagpJn1pλ1q, Jn2pλ2q, . . . , Jnspλsqq

(9)

9.2 Valores y vectores propios 187

y Jnipλiq DiagpJni1pλiq, Jni2pλiq, . . . , Jniripλiqq con

Jnijpλiq λi 1 0 0 0 λi . .. 0 0 .. . ... . .. ... ... 0 0 λi 1 0 0 0 λi PC nijnij.

J es ´unica salvo permutaci´on de sus bloques diagonales.

Demostraciones de este teorema pueden encontrarse en muchos libros de ´Algebra Lineal.

La forma can´onica de Jordan ofrece toda la informaci´on sobre la estructura propia de la matrizA. En efecto, sus valores propios sonλ1,. . . ,λs; la multiplicidad geom´etrica

deλi esni y su multiplicidad geom´etrica es ri, el n´umero de bloques diagonales en

Jnipλiq. Pero calcular num´ericamente la forma can´onica de Jordan es una tarea dif´ıcil, si no imposible, por dos razones especialmente:

No depende continuamente de A de modo que los errores de redondeo, por peque˜nos que sean pueden cambiarla completamente.

Ejemplo 9.9 Sea Jnp0q 0 1 . .. ... . .. 1 0

una matriz en forma de Jordan. Para ε todo lo perque˜no que se quiera, si se a˜nade el n´umero iε al elemento en la posici´on pi, iq de Jnp0q la matriz

resultante tiene n valores propios distintos y es, por lo tanto, diagonalizable. Su forma de Jordan ser´a Diagpε,2ε, . . . , nεq. La distancia entre Jnp0q y esta

matriz diagonal es, en la norma de Frobenius, mayor que n1. Por lo tanto, peque˜nas modificaciones en los elementos deJnp0qproducen una matriz cuya

forma de Jordan est´a lejos de la forma de Jordan deJnp0q(que es ella misma).

Por lo tanto la aplicaci´on que a cada matriz le asocia su forma de Jordan no es continua.

(10)

No se puede calcular de forma estable en general. En realidad, ´este es un problema incluso cuando la forma de Jordan es diagonal: si T1AT J y T est´a muy mal condicionada (κpTq }T} }T1} es muy grande) los valores

propios obtenidos pueden estar muy lejos de los exactos. El siguiente resultado nos da muestra de ello.

Teorema 9.10 (Teorema de Bauer-Fike) Sea A P Fnn una matriz

diagonali-zable y seaT PGlnpCqtal que T1AT DDiagpλ1, . . . , λnq. Entonces, para cada

λPΛpA Eq, E PFnn, se tiene que

m´ın

1¤i¤n|λiλ| ¤ }T} }T

1} }E}

donde } } es cualquier norma de matriz inducida por una norma de vector `p.

Recordemos que el n´umero de condici´on de T es κpTq }T} }T1}, de modo que

este resultado nos dice que si T est´a mal condicionada entonces los valores propios deA E pueden estar muy lejos de los deAaunqueEsea muy peque˜na. El siguiente ejemplo nos lo muestra.

Ejemplo 9.11 Sean A 10 0,9990 12 3 0 0 2 , T 10 0,0005 01 0,,96231923 0 0 0,1925 Entonces T1AT Diagp1,0,9990,2q. Y si E 00 00 00 105 0 105 entonces ΛpA Eq t0,9995 0,0044i,0,99950,0044i,2,0001u

El error en el c´alculo de los valores propios ser´ıa 2 ´ordenes de magnitud mayor que el de la perturbaci´on. N´otese que κpTq 6,8708103. Lo que ser´ıa deseable

es poder utilizar matrices cuyo n´umero de condici´on fuera lo m´as peque˜no posible. Estas matrices son las matrices unitarias. Sin embargo, s´olo algunas matrices pue-den reducirse a forma diagonal usando matrices unitarias tal y como veremos m´as adelante.

(11)

9.2 Valores y vectores propios 189

Demostraci´on Si λ P ΛpAq entonces m´ın1¤i¤n|λi λ| 0 y no hay nada que

demostrar. Supondremos entonces que λ R ΛpAq de modo que λ λi para todo

i1, . . . , n y λInD es invertible.

Como λPΛpA Eq, existe un vector no nulo xPCn tal que pA Eqxλx. As´ı

Ex pλInAqx pλInT DT1qxTpλInDqT1x.

Pongamos T1xy. Entonces T1Ex pλInDqy o y pλInDq1T1Ex pλInDq1T1ET y.

Tomando normas de vector y las correspondientes normas de matriz inducidas

}y} ¤ }pλInDq1} }T1} }E} }T} }y}.

Como y0

1¤ }pλInDq1} }T1} }E} }T} (9.1)

Ahora bien pλIn Dq1 Diag

1 λλ1 , . . . , 1 λλn

, y para cualquier matriz diagonal B Diagpb1, . . . , bnq y para cualquier norma de matriz inducida por una

norma de vector`p se tiene que

}B} m´ax 1¤i¤n|bi| En efecto }B} m´ax }x}p1 }Bx}p pero Bx b1x1 b2x2 .. . bnxn

As´ı, para cualquier xPFn unitario tenemos que

}Bx}p ¤ m´ax

(12)

Por otra parte, si m´ax

1¤i¤n|bi| |bk| y tomamos x ek, el k-´esimo vector can´onico,

resulta que }Bx}p |bk|. En conclusi´on, para cualquier x P Fn unitario, }Bx}p ¤

m´ax

1¤i¤n|bi|y hay un x de norma 1 tal que}Bx}p 1m´¤iax¤n|bi|. Por consiguiente

}B} m´ax

}x}p1}Bx}p 1m´¤iax¤n|bi|.

Continuando con la demostraci´on del teorema, tomando cualquier norma de matriz inducida por una norma de vector `p

}pλInDq1} m´ax 1¤i¤n 1 |λλi| 1 m´ın1¤i¤n|λλi| .

Sustituyendo en (9.1) conclu´ımos que m´ın

1¤i¤n|λλi| ¤ }T} }T

1} }E}

que es lo que se quer´ıa demostrar.

9.3.

Semejanza Unitaria

En general no se puede diagonalizar una matriz cualquiera usando matrices unitarias, pero s´ı se puede triangularizar. Para calcular los valores propios esto es suficiente porque los valores propios de una matriz triangular son tambi´en sus elementos dia-gonales. El siguiente resultado nos muestra c´omo reducir una matriz cualquiera a forma triangular mediante semejanza unitaria. Pero primero la definci´on de lo que significa este concepto.

Definici´on 9.12 Dos matrices A, B P Cnn se dice que son unitariamente

seme-jantes si existe una matriz unitaria U PCnn tal que B UAU. Si A, B P

Rnn y

existe una matriz ortogonal P P Rnn tal que B PTAP entonces se dice que A y

B son ortogonalmente semejantes.

Teorema 9.13 (Teorema de Schur) Si A P Fnn entonces A es unitariamente

semejante a una matriz triangular superior. Los valores propios de A son los ele-mentos diagonales de dicha matriz triangular.

(13)

9.3 Semejanza Unitaria 191

Recordemos que F R o C. El teorema dice que tanto si A es real como compleja existe una matriz unitaria U PCnn tal que UAU T con T triangular superior.

De la propia demostraci´on del teorema se desprender´a que si Aes real y sus valores propios son todos reales entonces U tambi´en puede tomarse real y, por lo tnato, ortogonal. Sin embargo, si A tiene valores propios complejos no reales entonces U

es necesariamente compleja.

Demostraci´on.- La demostraci´on es por inducci´on sobre n. Si n 1 no hay nada

que probar porque A ras ya es triangular. Suponemos entonces que el teorema est´a demostrado para matrices de orden hastan1. Sea APCnny λ

1 PΛpAq. Sea u un vector propio unitario de A asociado aλ1 y U

u U1

una matriz unitaria. As´ı, el espacio generado por las columnas deU1 es  u¡K. Entonces

UAU u U1 Au U1 uAu uAU1 U1Au U1AU1

Como Au λ1u y u es un vector de norma eucl´ıdea 1, uAu λ1. Y como   U1 ¡  u ¡K, U1Au λ1U1u 0. Por lo tanto, si ponemos B U1AU y c uAU1, se tiene que

UAU λ1 c 0 B .

Ahora,B es de tama˜nopn1qpn1qpor lo que aplicando la hip´otesis de inducci´on se tiene que existe una matrix unitariaV P Cpn1qpn1q tal que VBV T

1 es una

matriz triangular superior. Entonces

1 0 0 V UAU 1 0 0 V λ1 a 0 T1 T,

dondea cV, es una matriz triangular superior. Teniendo en cuenta que

1 0 0 V

es una matriz unitaria y que, por consiguiente, A y T son semejantes, se concluye que detpλInAq detpλInTq

n

±

i1

pλtiiq; i.e., los valores propios deA son

los elementos diagonales deT. Esto termina la demostraci´on del teorema.

Una consecuencia importante del Teorema de Schur es el siguiente resultado

Corolario 9.14 El conjunto de las matrices complejas de tama˜nonn con valores

(14)

e

1+

t

11

t

22

t

11=

e

2+

t

22

t

55

t

44

t

33= =

e

3+

t

33

e

5

t

55+

e

4+

t

44

e

7

t

77+

e

6

t

66 +

t

77

t

66= Re Im

Figura 9.1: Distintos elementos para la diagonal deE T. El radio de cada disco es menor que ε

n1{2

Demostraci´on.- Hay que probar que dadaAPCnny dadoε¡0 existe una matriz

A1 P Cnn con todos sus valores propios distintos tal que }AA1}   ε en alguna

norma. Usaremos la norma de Frobenius. Por el Teorema de Schur existe una matriz unitaria U PCnn tal que

UAU T rtijs.

Tal y como se muestra en la Figura 9.1 se pueden escoger n n´umeros complejos

e1, . . . , en tales que:

(a) |ei| ¤

ε n1{2, y

(b) t11 e1,t22 e2, . . . , tnn en sean todos n´umeros distintos

De esta forma, si E Diagpe1, . . . , enq entonces T E es triangular superior con

los n´umerost11 e1,t22 e2, . . . , tnn en en la diagonal; siendo estos n´umeros sus

valores propios. Ahora, si A1 UpA EqU y teniendo en cuenta que la norma de Frobenius es unitariamente invariante, resulta que

}AA1}F }UT U UpE TqU}F }UEU}F }E}F p|e1|2 |en|2q1{2   ε2 n ε2 n 1{2 ε

(15)

9.3 Semejanza Unitaria 193

que es lo que se quer´ıa demostrar.

Este resultado nos muestra una vez m´as que s´olo es razonable intentar calcular num´ericamente los valores propios de matrices diagonalizables y que con alt´ısima probabilidad los valores propios que puedan devolver los algoritmos van a ser todos distintos.

Por otra parte, si A P Rnn es real se desear´ıa poder reducir A a forma triangular usando matrices ortogonales reales; i.e., usando aritm´etica real que es m´as “bara-ta” desde el punto de vista del c´alculo. Ahora bien, una matriz real puede tener valores propios complejos aunque ´estos deben aparecer en pares conjugados. Esto es debido a que detpλInAq se factoriza en R en factores lineales o cuadr´aticos; los

primeros corresponden a ra´ıces reales y los segundos tienen ra´ıces complejas pero ambas conjugadas, debido a que los coeficientes de los factores son reales. As´ı pues, no es posible obtener una matriz triangular realizando transformaciones ortogonales sobre una matriz real si ´esta tiene valores propios complejos. A lo m´as que podemos aspirar es a obtener una matriz triangular por bloques con bloques diagonales de tama˜no 22 a lo m´as.

Teorema 9.15 (Teorema de Schur real) Si A P Rnn, existe una matriz

orto-gonal P P Rnn tal que PTAP T, con T una matriz cuasi triangular superior.

Es decir, T es una matriz triangular superior por bloques con bloques diagonales de tama˜no11 o22. Los valores propios deA son los valores propios de los bloques diagonales de T. Los bloques de tama˜no 11 corresponden a valores propios de A reales y los de tama˜no 22 a sus valores propios complejos conjugados.

Demostraci´on.- Se hace por inducci´on sobre n como en el caso complejo. Si n

1 no hay nada que demostrar as´ı que supondremos demostrado el teorema para matrices de tama˜no menor o igual que n1. Sea A P Rnn y λ un valor propio

de A. Si λ P R entonces admite un vector propio, u, real y unitario. Que sea real es consecuencia de que es soluci´on del sistema pλIn Aqx 0, siendo λIn A

una matriz de n´umeros reales y las soluciones de los sistemas se obtienen mediante operaciones sin salir del cuerpo. As´ı Au λu y se procede como en el caso del teorema de Schur complejo.

Siλ es un n´umero complejo entonces ¯λ es tambi´en valor propio. Y si ues un vector propio de A asociado aλ, ¯u es un vector propio de A asociado asλ. En efecto,

(16)

Pongamos uR u su 2 uI u su 2i

siendo i la unidad imaginaria. As´ı uR, uI P Rn1 y   uR, uI ¡  u,us ¡. Sea

r

U uR uI

y Ur QR su factorizaci´on QR real (i.e., Q es real con columnas ortonormales y R es real) As´ı ImQ   uR, uI ¡ y podemos escoger una matriz Qr

tal que U

Q Qr

es real y ortogonal. Ahora

UTAU QT r QT A Q Qr QTAQ QTAQr r QTAQ QrTAQr

PongamosB QTAQy observemos queB PR22 porqueQPRn2. As´ıAQQB

y QrTAQ rQTQB 0 porque las columnas de Q y Qr son ortonormales. Por lo

tanto UTAU B QTAQr 0 QrTAQr

ComoQrTAQr PRpn2qpn2q, aplicamos la hip´otesis de inducci´on a esta matriz como en el caso complejo.

Falta demostrar que los valores propios de B son λ y sλ. En efecto, como u y usson vectores propios asociados a valores propios distintos, son linealmente independien-tes. Y es f´acil ver que tambi´enuR y uI lo son. Y comoUr

uR uI

QR resulta que R es invertible. As´ı

AQRAuR uI AuR AuI . Ahora bien AuR A u us 2 λ 2u ¯ λ 2us 1 2pλpuR iuIq sλpuRiuIqq 1 2ppλ sλquR ipλ¯λquIq RepλquRImpλquI.

De la misma forma AuI ImpλquR RepλquI. Entonces

AuR uI AuR AuI uR uI Repλq Impλq Impλq Repλq .

(17)

9.4 Vectores propios a la izquierda 195

Como B QTAQ resulta que AQR QBR QRR1BR y QR uR uI

. Por consiguiente R1BR Repλq Impλq Impλq Repλq

y esta matriz tiene λ y sλ como valores propios.

9.4.

Vectores propios a la izquierda

A los vectores propios, tal y como han sido definidos, se les suele llamar vectores propios a la derecha. La raz´on es que, en ocasiones, se usan tambi´envectores propios a la izquierda y es necesario distinguirlos.

Definici´on 9.16 Si A P Fnn y λ

0 es un valor propio de A, se dice que un vector no nulo yP Cn1 es un vector propio a la izquierda de A asociado al valor propio λ0 si

yAyλ0.

El subespacio propio a la izquierda de A asociado a λ0 es el conjunto de vectores propios por la izquierda junto con el vector 0.

Debe observarse que los valores propios de A y A est´an relacionados mediante conjugaci´on. Es decir,λ0 PΛpAqsi y s´olo si sλ0 P ΛpAq. Como, adem´as, conjugando

y trasponiendo se tiene que

yAyλ0 ôAy sλ0y,

el siguiente resultado se sigue de forma inmediata.

Proposici´on 9.17 y P Cn1 es un vector propio a la izquierda de A asociado al

valor propio λ0 si y s´olo si es un vector propio a la derecha de A asociado al valor propio sλ0.

Si la matriz A es diagonalizable; o incluso, si λ0 es un valor propio simple de A

(18)

correspondiente a λ0 es de tama˜no 11. Por lo tanto, si T1AT J . .. 0 . .. ... 0 λ0 0 .. . . .. 0 . ..

y λ0 est´a en la posici´onpi, iq deJ entonces

yiAλ0yi y Axi λ0xi,

siendo yi la i-´esima fila de T1 y x

i la i-´esima columna de T. Como T1T es la

matriz identidad se sigue que yx1. Sin embargo, si λ0 es un valor propio con un

bloque de Jordan de tama˜no mayor que 1 este producto escalar es cero. Para verlo basta considerar el caso en el que A es de la formaJnpλ0q. En este caso, un vector

propio por la derecha deAese1

1 0 0T y un vector propio por la izquierda es en

0 0 1.

¿Qu´e pasa, finalmente, si λ0 es semisimple pero no simple?. En este caso hay m´as de un bloque de Jordan de A asociado a λ0, pero todos ellos son de tama˜no 11;

i.e., las mutiplicidades algebraicas y geom´etricas deλ0 son iguales y mayores que 1.

Hay vectores propios a la izquierda y a la derecha cuyo producto escalar es 1, pero los hay tambi´en que son ortogonales.

El producto escalar entre los vectores propios por la izquierda y la derecha de un valor propio juega un papel fundamental en el an´alisis del condicionamiento del problema de calcular los valores propios de una matriz.

Los vectores propios a la izquierda se pueden usar para proporcionar otra forma de construir una forma de Schur de una matriz. El proceso ser´ıa el siguiente (se detalla s´olo el caso complejo, el real ser´ıa similar): SiAP Cnn y λPΛpAq seauP

Cn1 un vector propio a la izquierda de Ade norma eucl´ıdea 1 asociado a λ. Con este vector se construye una matriz unitaria U que tiene el vector u como ´ultima columna:

U U1 u . Entonces UAU U1 u AU1 u U1AU1 U1Au uAU1 uAu .

(19)

9.5 Matrices unitariamente diagonalizables 197

Pero uAu λuu λ y uAU1 λuU1 0 porque las columnas de U1 son

ortonormales a u. As´ı UAU U1AU1 U1Au 0 λ

y aplicamos el proceso de inducci´on a U1AU1 para obtener una matriz triangular.

9.5.

Matrices unitariamente diagonalizables

Hemos visto que toda matriz compleja es unitariamente semejante a una matriz triangular (teorema de Schur). Algunas tienen la propiedad m´as fuerte de ser se-mejantes a una matriz diagonal. Son las matricesnormales. Las introducimos, sin embargo, de otra forma.

Definici´on 9.18 Una matriz A P Cnn se dice que es normal si conmuta con su

traspuesta conjugada. Es decir, si AAAA.

Con esta definici´on vemos que las matrices unitarias y las matrices herm´ıticas son ejemplos de matrices normales. En efecto, si U P Cnn es unitaria entonces UU

U U In. Y is H P Cnn es herm´ıtica entonces H H y toda matriz conmuta

consigo misma.

Veamos ahora que las matrices normales as´ı definidas son precisamente las que son unitariamente diagonalizables.

Teorema 9.19 Una matriz es normal si y s´olo si es unitariamente diagonalizable.

Demostraci´on.- Si AP Cnn es unitariamente diagonalizable entonces

UAU D

con U PCnn unitaria yDDiagpλ1, . . . , λnq. Entonces AU DU y

(20)

En consecuencia

AAUDUs U DU UDDUs

Y como D y Ds son diagonales, conmutan. Es decir,

AAUDDUs U DDUs U DUUDUs AA,

y A es normal.

Rec´ıprocamente, por el teorema de Schur para cada A P Cnn existe una matriz unitaria U P Cnn tal que UAU T, una matriz triangular superior. Si A es

normal entonces AA AA y esto equivale a que TT T T. Veamos, por inducci´on sobre el tama˜no deT, n, que esto s´olo es posible siT es diagonal.

Si n 1 no hay nada que demostrar. Supongamos la propiedad demostrada para matrices de tama˜no a lo m´as n1 y sea T una matriz triangular superior tal que

TT T T. Pongamos T t11 t12 0 T22 Entonces T st11 0 t12 T22

Por una parte

T T |t11|2 t12t12 t12T22 T22t12 T22T22 Y por otra TT |t11|2 st11t12 t11t12 T22T22

Para que estas dos matrices sean iguales debe suceder que t12t12 0. Perot12t12

}t12}22 y }t12}2 0 si y s´olo si t12 0. En consecuencia T t11 0 0 T22

y TT TT si y s´olo siT22T22 T22T22. Aplicando la hip´otesis de inducci´on aT22

conclu´ımos que T22, y por lo tanto T, son diagonales.

Este resultado (que las matrices normales sean unitariamente diagonalizables) se conoce con el nombre deTeorema espectral para las matrices normales. Y ´este, a

(21)

9.6 Teor´ıa de Perturbaci´on 199

su vez, se expresa diciendo que una matriz APFnn es normal si y s´olo si se puede escribir en la forma A n ¸ i1 λivivi

con v1,. . . , vn vectores ortonormales.

Se trata, en efecto, de otra forma de escribir UAU Diagpλ1, . . . , λnq porque si

V U entonces V es unitaria y A VDiagpλ1, . . . , λnqV v1 .. . vn λ1 . .. λn v1 vn λ1v1v1 λnvnvn.

Hay dos tipos de matrices normales especialmente importantes: las matrices unita-rias y las matrices herm´ıticas (ortogonales y sim´etricas en el caso real). Las matrices unitarias (ortogonales) son las matrices normales cuyos valores propios est´an en la circunferencia unidad (i.e., tienen m´odulo 1). Y las matrices herm´ıticas (sim´etricas) son las matrices unitarias cuyos valores propios son n´umeros reales. SE deja como ejercicio probar ambas caracterizaciones.

9.6.

Teor´ıa de Perturbaci´

on

El Teorema de Bauer-Fike (Teorema 9.10) es un ejemplo t´ıpico de un resultado de perturbaci´on cuantitativa de valores propios. Es decir, es un resultado sobre c´omo var´ıan los valores propios de una matriz al someterla a una perturbaci´on aditiva (pe-que˜na, habitualmente). Hay muchos otros resultados de este tipo (v´ease por ejemplo [24]), pero en esta secci´on nos centraremos en lo que se conoce como perturbaci´on cualitativa. En particular estudiaremos la continuidad y diferenciabilidad de los valo-res propios como funciones de la matriz. El objetivo final es encontrar una expvalo-resi´on simple para el n´umero de condici´on del problema de calcular un valor propio de una matriz.

(22)

9.6.1.

Continuidad de los valores propios

En el Ejemplo 9.9 hemos visto que, en general, la Forma de Jordan de una matriz no depende continuamente de ´esta. Este hecho implica que peque˜nos cambios en la matriz dada pueden resultar en grandes modificaciones en su Forma de Jordan. Esto no significa que no sea posible calcular num´ericamente la forma de Jordan de ciertas matrices (de hecho lo es) pero el dise˜no de cualquier algoritmo con este prop´osito deber´a tener en cuenta este problema de falta de continuidad y en particular el hecho de que el conjunto de matrices simples es denso en Fnn (Corolario 9.14). Tanto este Corolario como el Ejemplo 9.9 reflejan que el problema estriba en la preservaci´on de los tama˜nos de los bloques de Jordan por peque˜nas perturbaciones. Ahora nos proponemos mostrar que es ah´ı y s´olo ah´ı donde est´an las dificultades te´oricas. Es decir, el objetivo es demostrar que los valores propios de una matriz

dependen continuamente de la matriz, y que en el caso de ser simples lo hacen

diferenciablemente. Este resultado nos permitir´a definir el n´umero de condici´on del problema de calcular valores propios simples.

El problema que queremos abordar es el de calcular los valores propios de cada matriz A P Fnn. La primera dificultad que nos encontramos para plantear la fun-ci´on que define este problema es cu´al es su conjunto de llegada. El conjunto de partida est´a claro: Fnn (

FR o C) pero hay una peque˜na dificultad para definir correctamente el conjunto de llegada. Por ejemplo, los valores propios de la matriz

A

1 3 0 2

son tanto p1,2q como p2,1q. En otras palabras, mirando ΛpAq como una n-tupla de n´umeros complejos (posiblemente repetidos), ´esta est´a determinada salvo una permutaci´on de sus componentes. Esto nos conduce a considerar en el conjunto Cn la siguiente relaci´on de equivalencia:

pλ1, . . . , λnq pµ1, . . . , µnq ôλi µσpiq, i1, . . . , n

para alguna permutaci´on σ P Σn, el grupo de permutaciones de orden n. Al

co-rrespondiente conjunto cociente lo representamos como Cn{. As´ı el problema de

calcular los valores propios de una matriz queda definido por la aplicaci´on:

f : Fnn Ñ

Cn{

(23)

9.6 Teor´ıa de Perturbaci´on 201

donde ΛpAq pλ1, . . . , λnq son los valores propios de A en alg´un orden. A los

elementos deCn{los llamaremosn-tuplas desordenadas de n´umeros complejos.

Nuestro objetvo es demostrar que f es una funci´on continua. Para ello debemos dotar a Cn{ de una topolog´ıa. Lo m´as natural es considerar en Cn la topolog´ıa habitual (la derivada de cualquier norma) y en Cn{ la correspondiente topolog´ıa

cociente; es decir, la topolog´ıa m´as fina que hace que la proyecci´on can´onica

π : Cn Ñ

Cn{

λ pλ1, . . . , λnq ; rλ rpλ1, . . . , λnqs

sea una funci´on continua. En otras palabrasU „Cn{abierto si y s´olo si π1pUq „

Cn abierto.

Otra forma de dotar a Cn{ de una topolog´ıa es a trav´es de una m´etrica. Para

r

λ,µrP Cn{ se define la distancia de emparejamiento ´optimo entre estas dos

n-tuplas desordenadas de la siguiente forma:

dprλ,µrq m´ın

σPΣn m´ax

1¤j¤n|λj µσpjq|

dondepλ1, . . . , λnqy pµ1, . . . , µnq son dos representantes cualesquiera de rλ y µr,

res-pectivamente, y Σnes el grupo sim´etrico de orden n(i.e., el grupo de permutaciones

de orden n).

Es f´acil demostrar que dprλ,µrq no depende de los representates elegidos para λr y

r

µ. Tambi´en se puede demostrar que d es, en efecto, una m´etrica para Cn{ y que

la topolog´ıa cociente y la derivada de esta m´etrica son las misma; es decir, que un subconjunto de Cn{ es abierto en la topolod´ıa cociente si y s´olo si es abierto en la topolog´ıa derivada de la distancia de emparejamiento ´optimo. No lo haremos aqu´ı y se deja como ejercicio (v´ease [1, Ex. VI.I.1]).

Necesitamos ahora analizar de cerca el polinomio caracter´ıstico de una matriz A. Recordemos quepApλq detpλInAq. Un an´alisis minucioso de este determinante

revela (v´ease por ejemplo el Teorema 4.11.2 de [14]) que si pApλq λn a1λn1

an1λ an entonces

ak

¸

1¤i1 ... ik¤n

p1qkdetApi1 :ik, i1 :ikq

dondeApi1 :ik, i1 :ikqes la submatriz principal deAformada por las filas y columnas

(24)

Γ Re Im z |f(z)|>|g(z)| nº ceros de f= nº ceros de f+g

Figura 9.2: Interpretaci´on del Teorema de Rouch´e λ1 µ21 µ22 µ23 µ24λ2 λ3 µ31 µ32 µ33 Re Im Γ2 Γ1 3 Γ µ11 µ12 (doble) (cuadruple) (triple)

Figura 9.3: Valores propios de A E

en las bolas disjuntas centradas en los valores propios de Acon igual multipli-cidad

expl´ıta de pApλq es importante porque muestra que los coeficientes del polinomio

caracter´ıstico de una matriz son funciones continuas de ´esta. Veremos enseguida que esta propiedad es crucial para demostrar que los valores propios, que son las ra´ıces del polinomio caracter´ıstico, son funciones continuas de la matriz. Para lograr este objetivo haremos uso de un importante resultado sobre funciones anal´ıticas de una variable compleja (ver Figura 9.2):

Lema 9.20 (Teorema de Rouch´e) Sean f y g dos funciones anal´ıticas en el

in-terior y sobre un contorno cerrado simple Γ €C. Si |fpzq| ¡ |gpzq| en todo punto de Γ entonces las funciones f y f g tienen el mismo n´umero de ceros, contando sus multiplicidades, dentro de Γ.

Ahora podemos demostrar que los valores propios son funciones continuas de la matriz.

Teorema 9.21 La aplicaci´on

f : Fnn Ñ

Cn{

A ; λr rpλ1, . . . , λnqs

que a cada matriz le asocia la n-tupla desordenada de sus valores propios (contando multiplicidades) es una funci´on continua cuando en Fnn se considera la topolog´ıa

(25)

9.6 Teor´ıa de Perturbaci´on 203

Demostraci´on.- Sea } } una norma en Fnn. Debemos demostrar que @ε ¡ 0

existeδ tal que si }A rA}  δ y µres la n-tupla desordenada de valores propios de

r

A entonces dprλ,rµq   ε.

Supongamos fijado unε ¡0 y denotemos por λi1,. . . ,λis los valores propios distintos deA. Seamj la multiplicidad algebraica deλij,j 1, . . . , s. Sea Bξpλijqla bola con centro enλij y radio ξ. Tomamos ξ de modo que ξ ε y que las bolasBξpλijqsean disjuntas dos a dos (v´ease la Figura 9.3). Nuestro objetivo es demostrar que existe un n´umero real positivo δ tal que si }A rA}   δ entonces en el interior de cada bola Bξpλijq hay exactamente mj valores propios (quiz´a repetidos) de Ar (v´ease de nuevo la Figura 9.3). As´ı pues, la distancia de λij a los mj valores propios de Aren

Bξpλijq es menor que ξ. Esto implica que hay una forma de emparejar los valores propios deAy Ar(existe una permutaci´onσ) tal que m´ax

1¤j¤n|λjµσpjq|  ξ. Es decir,

dprλ,µrq   ε, que es lo que se quiere demostrar.

SeapApλq λn a1λn1 an1λ an el polinomio caracter´ıstico deAy sea Γj

la circunferencias que forma la frontera de la bola Bξpλijq. Consideremos la funci´on polinomial

g : C Ñ C

z ; zn a1zn1 an1z an

Esta es una funci´on anal´ıtica que no se anula en ning´un punto de Γj y que tiene

en el interior de cada Γj un ´unico cero de multiplicidad mj. Como Γj es compacto

y g es una funci´on continua g alcanza en Γj su m´ınimo que es distinto de cero

porque, como acabamos de decir, g no se anula en Γj. Sea ηj m´ın zPΓj

|gpzq| ¡ 0. Para este n´umero ηj ¡0 existe ρj ¡0 tal que si |akbk|   ρj para k 1, . . . , n y

hpzq zn b

1zn1 bn1z bn entonces |gpzq hpzq|  ηj para todoz PΓj.

En efecto, |gpzq hpzq| ¤ |z|n |a1b1||z|n1 |an1 bn1||z| |anbn| ¤ρj n ¸ k0 |z|k

Como Γj es compacto, la funci´on n

°

k0

|z|k alcanza su m´aximo en Γj, digamos Mj.

Escogiendo 0   ρj   η{Mj conclu´ımos que |gpzq hpzq|   ηj. Por consiguiente, si

ponemos qpzq hpzq gpzq resulta que |qpzq|  ηj m´ın zPΓj

|gpzq|   |gpzq| para todo

z PΓj. Por el Teorema de Rouch´e,gpzqy gpzq qpzq hpzqtienen el mismo n´umero

(26)

Sea, finalmente, ρ m´ın

1¤j¤sρj. Por la continuidad de los coeficientes del polinomio

caracter´ıstico respecto de la matriz, existe δ ¡ 0 tal que si}A rA}  δ y pArpλq λn b

1λn1 b1λ b0 es el polinomio caracter´ıstico deAr, entonces|akbk|  ρ

para k 1, . . . , n. En conclusi´on, para j 1, . . . , s, mj valores propios de Ar est´an

en el interior de Bξpλijq, que es lo que se quer´ıa demostrar.

Corolario 9.22 El conjunto de matrices simples de Fnn es abierto

Demostraci´on.- Es una consecuencia inmediata del Teorema 9.21. En efecto, seaA

una matriz con valores propios simplesλ1,. . . ,λny seaξ¡0 tal queBξpλiqXBξpλiq

Hparaij. De acuerdo con la demostraci´on del Teorema 9.21 existe unδta que si

}A rA}  δentoncesArtiene un ´unico valor propio en cadaBξpλiq. En consecuencia,

r

A es simple. Esto demuestra que el conjunto de matrices simple es abierto.

9.6.2.

Localizaci´

on de los valores propios

Tal y como hemos comentado en la introducci´on de esta secci´on, nuestro objeti-vo final es calcular el n´umero de condici´on de los valores propios de una matriz. Veremos que los valores propios simples son funciones diferenciables y para ello uti-lizaremos un resultado auxiliar que es importante en s´ı mismo porque sirve para localizar aproximadamente los valores propios de una matriz, es el llamado Teorema de Gerschgorin:

Teorema 9.23 (Teorema de Gerschgorin) Sea AP Cnn y ρ

i n ° j1 ji |aij|, i

1, . . . , n. Entonces todos los valores propios de A est´an localizados en la uni´on de los n discos:

n

¤

i1

tz PC:|zaii| ¤ρiu :GpAq.

Adem´as, si la uni´on de k de estos n discos forma una regi´on conexa que es disjunta de los restantes nk discos, entonces en dicha regi´on hay precisamente k valores propios de A.

(27)

9.6 Teor´ıa de Perturbaci´on 205

Demostraci´on.- Sea λ un valor propio de A y x un vector propio asociado a λ.

Pongamosx rxisy seaxpla componente no nula dexda mayor m´odulo:|xp| ¥ |xi|,

i1, . . . , n. ComoAx λx tenemos que:

λxp rAxsp n ¸ j1 apjxj que es equivalente a xppλappq n ¸ j1 jp apjxj.

La desigualdad triangular nos permite concluir que

|xp||λapp| n ° j1 jp apjxj ¤ n ° j1 jp |apjxj| n ° j1 jp |apj||xj| ¤ |xp| n ° j1 jp |apj| |xp|ρp

As´ı pues,|λapp| ¤ρp para alg´un p; es decir, λ est´a en el disco cerrado con centro

en app y radio ρp. Puesto que no sabemos qu´e p corresponde a cada valor propio

λ (salvo que conozcamos un vector propio asociado, que es tanto como conocer el propio valor propio, y entonces no estar´ıamos interesados en localizarlo porque lo conocer´ıamos exactamente), s´olo podemos concluir que cada valor propio λ est´a en la uni´on de todos los posibles discos. Esto esGpAq.

Para demostrar la segunda parte escribimosA D C con DDiagpa11, . . . , annq

y por lo tanto C es la misma matriz que A salvo que los elementos diagonales son todos cero. Para t P r0,1s definimos Bptq D tC, de forma que Bp0q D y

Bp1q A. Observamos que ρiptq n ¸ j1 ji |bijptq| n ¸ j1 ji |taij| tρi por lo que GpBptqq n ¤ i1 tz PC:|zbiiptq| ¤ ρiptqu n ¤ i1 tz P C:|zaii| ¤tρiu

(28)

Por simplicidad vamos a suponer que la regi´on conexa que es uni´on de k discos y disjunta de los restantes es la formada por los primeros k discos. Denotemos a esta regi´on por Gk , i. e. Gk : k ¤ i1 tz PC:|zaii| ¤ρiu

y por GckGpAq Gk su complementario respecto de GpAq. As´ıGkXGck H.

Est´a claro que enGk hay k valores propios deAp0q Dy los restantes nk est´an

en Gc

k. Vamos a demostrar que esto mismo sucede para todo Aptq con t P r0,1s.

Tomando un ε ¡ 0 para que la uni´on de los discos Dpaii, εq est´e en Gk para i

1, . . . , k y en Gc

k para i k 1, . . . , n, por la continuidad de los valores propios,

resulta que existe un δ ¡ 0 tal que si }E}   δ entonces Ap0q E tiene k valores propios en Gk y nk enGkc. En particular existe un t0 ¡0 tal que parat P r0, t0q,

k valores propios deAptqest´an enGk ynk enGck. Sit0 ¡1 ya hemos terminado.

Si no, para probar que Aptq tiene k valores propios enGk y nk en Gck para todo

t P r0,1s procedemos por contradicci´on. Podemos suponer que existe t1 P rt0,1s tal que Aptq tiene k valores propios en Gk y nk en Gck para t P r0, t1q y Apt1q tiene

menos dekvalores propios enGk y m´as denk enGck. Si fuera al rev´es; es decir, si

Apt1q tuviera menos denk valores propios enGck y m´as dek enGk se proceder´ıa

de forma similar.

Veamos que esto conduce a una contradicci´on. En efecto, seanλ1, . . . , λs los valores

propios no repetidos deApt1qenGk yλs 1, . . . , λr los que est´an enGck. Sea ε¡0 un

n´umero real tal que la uni´on de los discos Dpλi, εqest´a enGk para i1, . . . , sy en

Gc

k parais 1, . . . , r. Tal y como hemos razonado m´as arriba, por la continuidad

de los valores propios, existe unδt¡0 tal queApt1δtqtiene en

s

”

i1

Dpλi, εqtantos

valores propios como Apt1q y lo mismo en

r

”

is 1

Dpλi, εq. Es decir, Apt1δtq tiene

menos dek valores propios enGk y m´as denk enGck; lo que es una contradicci´on

porque t1 δt   t1 y para t   t1 la suposici´on es que Aptq tiene exactamente k

valores propios en Gk y nk en Gck.

(29)

9.6 Teor´ıa de Perturbaci´on 207

Ejemplo 9.24 La siguiente matriz

A

1 104 104 2

puede verse como una perturbaci´on de la matriz Diagp1,2q. Sus valores propios pueden calcularse a mano: 1108 y 2 108. ¿Qu´e resultado nos proporciona el

Teorema de Gerschgorin? Seg´un este teorema, los valores propios de A deben estar en el intervalor1104,1 104sy r2104,2 104s. ¿Por qu´e en la recta real?

El Teorema de Gerschgorin garantiza que hay un valor propio en la bola de centro 1 y radio 104 y otro en la de centro 2 y el mismo radio. Pero A es real de modo que si sus valores propios fueran complejos deber´ıan ser conjugado uno del otro y no podr´ıa uno estar en una bola y otro en la otra. Por lo tanto deben ser reales.

El teorema de Gerschgorin en el ejemplo anterior nos da una idea de que los valores propios deA est´an pr´oximos a 1 y 2 pero la precisi´on es escasa. Hay resultados que mejoran el resultado de este teorema pero no proseguiremos en esa direcci´on. El lector interesado puede consultar los libros [12, 26], por ejemplo.

9.6.3.

Diferenciabilidad de los valores propios simples

Podemos ahora afrontar el problema de la diferenciabilidad de los valores propios. Veremos que los valores propios simples son funciones diferenciales de la matriz. Cuando los valores propios no son simples esta propiedad de diferenciabilidad puede fallar. Consideremos, por ejemplo, la siguiente matriz nn

A 0 1 . .. ... . .. 1 ε 0

El polinomio caracter´ıstico de esta matriz es λn ε de modo que A tiene como

valores propios lasn ra´ıces complejas de ε:λ ?nε.λ es diferenciable como funci´on deε pero

dε εn11

(30)

que es 8 en ε 0 y para n ¥ 2. En otras palabras λ no es diferenciable en ε 0 cuando n ¥ 2. Esto no significa que no puedan calcularse los n´umero de condi-ci´on de valores propios m´ultiples, sino que no se puede hacer usando la diferencial. Centraremos nuestra atenci´on en los valores propios simples.

El primer problema a la hora de hablar de la diferenciabilidad de los valores propios simples es el de definir de forma adecuada una funci´on que asocie a una matriz un valor propio simple. Esto lo podemos hacer localmente con ayuda del teorema de continuidad de los valores propios. En efecto, este teorema nos asegura que si λ0 es un valor propio simple de A P Fnn y δ ¡ 0 es cualquier n´umero real para el que

las bolas con centro en los valores propios de A y radio δ son disjuntas dos a dos, entonces existe un n´umero real ε ¡ 0 tal que si Ar P BεpAq resulta que en la bola

Bδpλ0q hay un ´unico valor propio de Ar. Esto nos permite definir localmente, en el

entorno de una matriz A con un valor propio simple λ0, una funci´on que asocia a cada matriz de dicho entorno el ´unico valor propio simple que tiene en el entorno fijado de λ0:

f : BδpAq Ñ Bpλ0q

r

A ; rλ0 (9.2)

Con esta notaci´on tenemos el siguiente resultado

Teorema 9.25 Sea A P Fnn, λ0 un valor simple de A. Existen bolas abiertas

BεpAq yBδpλ0qtales que la funci´on definida en (9.2) es diferenciable en todoBεpAq.

Adem´as, six,yson vectores propios deA, por la derecha e izquierda respectivamente, asociados a λ0 y E rAA con ArPBεpAq entonces

r

λ0 λ0

yEx

yx Op}E}

2q. (9.3)

Demostraci´on: Para probar que f es diferenciable, supongamos que hemos

demos-trado la propiedad (9.3) para el valor propio simpleλ0 deA. Esto significa que para

A tE PBεpAqse tiene que fpA tEq fpAq t yEx yx Op|t|}E} 2q. Por lo tanto l´ım tÑ0 fpA tEq fpAq t yEx yx

(31)

9.6 Teor´ıa de Perturbaci´on 209

y esto significa quef es diferenciable y

f1pAqpEq y

Ex

yx

es la diferencial de f enA.

As´ı pues s´olo debemos demostrar (9.3). Supongamos para ello que J T1AT es

la forma de Jordan de A del Teorema 9.8. En realidad, nos interesa considerar una leve variaci´on de esta forma cl´asica de Jordan. Se trata de lo siguiente. Supongamos que z 0 es un n´umero complejo y que Jnpλq es un bloque de Jordan. Definamos

Dz Diagpz, z2, . . . , znq. Esta matriz es invertible y Dz1JnDz difiere de Jn en que

los elementos en la subdiagonal superior son todos iguales a z en vez de ser todos iguales a 1. Este procedimiento para un bloque de Jordan se puede generalizar a cualquier matriz en forma de Jordan de modo que podemos suponer que la matriz

J T1AT de m´as arriba es la forma de Jordan de A con δ{3 en vez de 1 en la superdiagonal. Dado que δ es un n´umero tal que las bolas centradas en los valores propios de A y radio δ son disjuntas dos a dos, la distancia de λ0 a cualquier otro

valor propio deA es mayor queδ. Adem´as, comox, yson vectores propios deA por la derecha e izquierda, podemos suponer que el elemento en la posici´on p1,1q de J

es λ0, que x es la primera columna de T y que y es la primera fila de T1. Si no

fuera as´ı podr´ımos sustituirx porx1 x

yx que tambi´en ser´ıa un valor propio de A

por la derecha asociado aλ0 y tendr´ımos queyx1 1, que es lo que se necesita.

Sea E una matriz tal que ArA E PBεpAq y

r

J T1pA EqT

Si denotamos por yi a la i-´esima fila de T1 y por xj a la j-´esima columna de T

resulta que el elemento en la posici´onpi, jq deJres

r

Jij yiExj yiAxj yiExj Jij.

As´ı pues, si ponemos ij yiExj, tenemos que

r

J11 y1Ax1 y1Ex1 λ0 11,

r

(32)

r Jii 1 Jii 1 yiExi 1 # δ 3 ii 1 si Jii 1 1 ii 1 si Jii 1 0 r

Jij Jij yiExj ij en cualquier otro caso.

Ahora, si α 0 y Dα Diagpα,1, . . . ,1q resulta queJrα DαJ Dr α1 es semejante a

r

J y tiene la siguiente forma:

r Jα λ0 11 α12 α1n α1 21 λ2 22 2n .. . ... . .. ... α1 n1 n2 λn nn

Los valores propios deArA E, JryJrα son los mismos cualquiera que seaα 0.

Vamos a usar el Teorema de Gerschgorin para localizar los valores propios de Jrα en

el disco de centro λ0 11. El radio de este disco est´a acotado por pn1qα siendo

m´axt|ij| : 1 ¤ i, j ¤ nu. Los dem´as discos de Gerschgorin est´an centrados en

λi ii y sus radios est´an acotados por

α1 δ

3 pn3q. (9.4) Nuestro objetivo es encontrar n´umeros reales ¡0 y α (que depender´a de) tales que el disco de centroλ0 11y radiopn1qαsea disjunto de los discos con centro en λi ii y radio la cantidad de (9.4). En estas condiciones el Teorema de Gerschgorin

asegurar´ıa que en el disco con centro en λ0 11 y radio |α|p|12| |1n|qs´olo

habr´ıa un valor propio de Jrα; i.e. de A E. El radio de este disco nos permitir´ıa

valorar la distancia entreλ0 y ese valor propio de A E. Veremos que esa distancia

se corresponde con la expresi´on (9.3).

Para que los discos en cuesti´on sean disjuntos es suficiente que la suma de sus radios sea menor que la distancia entre los correspondientes centros; es decir,

|λ0 11λiii| ¡ pn1qα α1

δ

3 pn3q. Ahora bien

(33)

9.6 Teor´ıa de Perturbaci´on 211

Y basta elegir α y ¡0 para que

δ ¡α1 δ

3 pn1qα pn4q y en particular basta con que

δ ¡α1 δ

3 pn1qα n

porque ¡0. Procedemos ahora a manipular esta desigualdad. En primer lugar es equivalente a αδ¡ δ 3α pn1qα 2 y a nα2 δ 2α   δ 2α δ 3α α 2 nα δ 6α α 2 nα (9.5) Recordemos que buscamos un n´umero real α ¡ 0. Con esto en mente, para que se verifique (9.5), basta encotrar α y positivos de forma que δ

6 n ¡ 0 y nα

2 δ

2α  0. La segunda desigualdad depende deα y . Buscamos un n´umeroα real y positivo que depende para el que se cumpla que nα2 δ

2α  0. Vista como una inecuaci´on en α el discriminante es

δ2 4 4n 2 δ 2 4 1 16n 2 δ2

que ser´a positivo si y s´olo si

16n2 δ2  1.

Si cumple esta condici´on, basta escoger α 4

δ para ver mediante una simple

sustituci´on que nα2 δ

2α  0. En conclusi´on, si cumple δ

6 n ¡ 0 y 16n2

δ2   1 y tomamos α

4

δ resulta

que se verifica la desigualdad (9.5). Ahora bien, estas dos condiciones sobre son equivalentes a 0  m´ın " δ 6n, δ 4?n * . (9.6)

(34)

Por lo tanto, si cumple esta condici´on y α 4

δ , el disco con centro en λ0 11 y

radio pn1qα tendr´a intersecci´on vac´ıa con lo discos de centro λi ii y radio el

n´umero de (9.4).

Finalmente, hemos definido m´axtij : 1 ¤ i, j ¤ nu y ij yiExj. As´ı pues

|ij| ¤ }yi}2}xj}2}E}2 ¤ }T1}2}T}2}E}2 donde}9}2 es la norma espectral. Pongamos

∆m´ın " δ 6n, δ 4?n *

y seaη ¡0 un n´umero real tal que

η¤m´ın " ∆ }T}21}T}2 , ε * . Si}E}2  η entonces A E PBεpAq y m´ax 1¤i,j¤nt|ij|u ¤ }T 1} 2}T}2}E}2  ∆ Con estey α 4 δ , en el disco de centro λ0 y

Exy radiopn1qαhay un ´unico valor propio deArA E. Pero,

pn1qα 4pn1q 2 δ Op}E} 2 2q Op}E} 2q,

debido a la equivalencia de normas. En conclusi´on

r

λ0 λ0 y

Ex

yx Op}E} 2q

tal y como se deseaba demostrar.

9.6.4.

El n´

umero de condici´

on de los valores propios simples

Una vez que sabemos que los valores propios simples de una matriz son funciones diferenciables de ´esta, podemos calcular f´acilmente el n´umero de condici´on absoluto. En efecto, sabemos que para A P Fnn el n´umero de condici´on del problema de

calcular el valor propio simples λ0 es

(35)

9.6 Teor´ıa de Perturbaci´on 213

siendo f la funci´on definida en (9.2) y f1pAqla matriz Jacobiana de f. Ahora bien, el Teorema 9.25 nos da una expresi´on para la diferencial de f:

f1pAqpEq y

Ex

yx

donde y y x son vectores propios por la izquierda y derecha de A asociados a λ0.

Tomaremos valores propios normalizados; es decir, }x}2 }y}2 1. Escribiendo

esta diferencial m´as formalmente (como aplicaci´on lineal):

f1pAq : Fnn ÝÑ C

E ; y

Ex

yx

la matriz Jacobiana, que seguimos denotando como f1pAq, es la matriz de esta aplicaci´on lineal cuando se toman las bases can´ocicas. Es decir, es una matriz 1n2

que identific´andola con una matriz nn, la pi, jq-´esima componente es

yEijx

yx

siendo Eij la matriz cuyos elementos son todos cero excepto el de la posici´on pi, jq

que es 1. As´ı

yEijxyixj

y, en consecuencia, escrita la matriz Jacobiana 1n2 en forma de matriz nn:

B 1

yxyx

T 1

yxyx

.

La norma eucl´ıdea de la matriz Jacobiana 1n2 corresponde a la norma de Frobenius deB. Es decir, }f1pAq}22 }B}2F trpBBq 1 xyyxtr xy yx 1 |yx|2 tr xx

donde hemos usado que yy }y}22 1. Pero,

tr xx trpxxq 1 porque trpxxq |x1|2 |xn|2 1. Por lo tanto

κ2pλ0q }f1pAq}2

1

(36)

Finalmente, como y y x son unitarios |yx| cosθ siendo θ el ´angulo agudo que forman y y x. Consecuentemente

κ2pλ0q

1

|yx| secθ

La interpretaci´on de este resultado es clara: el problema de calcular un valor propio simple de una matriz est´a mal condicionado cuando los vectores propios por la izquierda y derecha son casi perpendiculares, mientras que cuando son colineales o casi colineales est´a bien condicionado. En particular si un valor propio tiene asociado un bloque de Jordan de tama˜no mayor que 1, entonces los vectores propios por la derecha e izquierda son ortogonales (v´ease la Secci´on 9.4) y su n´umero de condici´on es 8, lo que concuerda con el ejemplo visto al comienzo de la Secci´on 9.6.3.

Por el contrario, si Aes normal, entonces es unitariamente diagonalizable:UAU D y los valores propios por la izquierda y por la derecha de A para el mismo valor propio coinciden. Es decir, yxxx1 y el problema de calcular valores propios simples est´a perfectamente condicionado. De hecho la expresi´on (9.3) proporciona, en este caso, una relaci´on directa de la perturbaci´on en A y la perturbaci´on en λ0:

|rλ0λ0| ¤ |xEx| Op}E}2q ¤ }E}2 Op}E}2q

donde hemos usado que por la desigualdad de Cauchy-Schwarz|xEx| ¤ }x}2}Ex}2

}Ex}2y por la compatibilidad de la norma eucl´ıdea y la espectral}Ex}2 ¤ }E}2}x}2

}E}2. No obstante, este resultado tambi´en es una consecuenca directa del Teorema

Figure

Actualización...

Referencias