Capítulo 9. Teoremas espectrales Lema de Schur. v 1 g (u) = v 1 f (u) v 1 f (u) v 1 v 1 =0.

30  Descargar (0)

Texto completo

(1)

Teoremas espectrales

En este capítulos se exponen los resultados fundamentales de diagonali- zación de un tipo muy importante de matrices, las matrices normales. Su ca- racterística principal es que pueden ser diagonalizadas mediante una matriz unitaria, lo que es de gran utilidad desde el punto de vista numérico.

9.1. Lema de Schur

Comenzamos con un enunciado clásico, del que damos una versión en el lenguaje de espacios vectoriales y otra en lenguaje matricial. Será de gran utili- dad para estudiar el carácter diagonalizable de las matrices normales.

Lema de Schur

Sea (V,〈·|·〉) un C-espacio vectorial de dimensión finita con producto escalar y f ∈ End(V ). Entonces existe una base ortonormal de V res- pecto de la cual la matriz de f es triangular superior.

PRUEBA: La prueba es por inducción sobre la dimensión de V . Para n = 1 es trivial. Seaw1un autovector asociado a un autovalor λ1del endomorfismo

f sobre C, y lo normalizamos av1= 1

kw1kw1. Sea W = 〈v1〉 y consideremos la aplicación lineal g definida como g (u) = f (u)−〈v1|f (u)〉·v1. Siu∈ Wenton- ces

v1|g (u)〉 = 〈v1|f (u)〉 − 〈v1|f (u)〉〈v1|v1〉 = 0.

Por tanto, g (W) ⊂ W, y podemos considerar la restricción de g a W. En- tonces g= g|Wes un endomorfismo sobre un espacio de dimensión n −1; por

(2)

Figura 9.1: I. Schur (1875-1941), Foto: Konrad Jacobs, MFO

hipótesis de inducción, existe una base ortonormal B= {v2,...,vn} de Wtal que la matriz MB(g) es triangular superior. Esto implica que B = {v1,v2,...,vn} es una base ortonormal de V , que verifica

f (v1) = λ1v1,

f (v2) = 〈v1|f (v2)〉v1+ g (v2), ...

f (vn) = 〈v1|f (vn)〉v1+ g (vn).

Por tanto,

MB(f ) =

λ1 v1|f (v2)〉 ... v1|f (vn)〉

0... MB(g) 0

, que es triangular superior.

 Si se toma V = Cncon el producto escalar estándar, el lema de Schur tiene la siguiente versión matricial.

Lema de Schur, versión matricial

Si A es una matriz cuadrada con coeficientes en C, existe una matriz unitaria U tal que U−1AU = UAU es triangular superior.

(3)

PRUEBA: Sea n y el orden de la matriz y consideramos V = Cncon el producto escalar estándar. Definimos el endomorfismo f (v) = Av, cuya matriz respecto de la base estándar S es A. Por el lema de Schur, caso vectorial, existe una base ortonormal B tal que T = MB(f ) es triangular superior. En tal caso, la matriz del cambio de base U = M(B,S ) es unitaria y U−1AU = T .

Otra prueba basada en matrices es como sigue. Se procede por inducción sobre el tamaño de la matriz. Para n = 1, el resultado es inmediato. Seaw1un autovector asociado a un autovalor λ1de A (sobre C tenemos garantía de su existencia), y lo normalizamos av1. Ampliamos a una base de Cn, y mediante Gram-Schmidt o la factorización QR obtenemos una base ortonormal de Cn que tiene av1como primer vector. Otra forma de obtener esta base ortonormal es mediante una matriz de Householder. Sea U1la matriz del cambio de base, que es unitaria. Entonces

U1−1AU1=

λ1 ∗ ... ∗ 0... A1 0

.

Los autovalores de A1 son los mismos que los de A, eliminando λ1, pues las matrices A y U1−1AU1son semejantes. Por hipótesis de inducción, existe V2uni- taria de dimensión n − 1 tal que V2−1A1V2es triangular superior. Sea

U2=

1 0 ... 0 0... V2 0

.

Entonces U2 es unitaria, y U2−1(U1−1AU1)U2 es triangular superior. Para U =

U1U2tenemos el resultado. 

Nota 9.1.1. Si la matriz A es real y sus autovalores están en R, entonces se sigue de la prueba que podemos construir U ortogonal tal que UtAU es triangular superior. Basta observar en la prueba que las matrices unitarias empleadas son ortogonales y que los autovalores de la matriz A1usada en la prueba son reales.

Nota 9.1.2. A partir del lema de Schur podemos deducir fácilmente una re- lación entre la traza y el determinante de una matriz A y sus autovalores. Si T = U−1AU , con T triangular, entonces los elementos diagonales ti i de T son sus autovalores, que coinciden con los de A porque son matrices semejantes.

(4)

Entonces

det(A) = det(UTU−1) = det(T ) =

n

Y

i =1

ti i,

traza(A) = traza(UTU−1) = traza(U−1U T ) = traza(T ) =

n

X

i =1

ti i. En consecuencia,

det(A) es el producto de todos sus autovalores, traza(A) es la suma de todos sus autovalores.

Ejemplo 9.1.1.- Consideremos la matriz

A =

2 1 0 1 2 0 0 1 2

y el endomorfismo f : R3→ R3definido como f (v) = Av. Sus autovalores son λ1= 2,λ2= 1,λ3= 3. Calculamos el espacio de autovectores para λ1:

A − λ1I =

0 1 0 1 0 0 0 1 0

rref−→

1 0 0 0 1 0 0 0 0

, y un autovector esv1=

0 0 1

.

Observemos quev1 ya es unitario. De manera inmediata se obtiene que una base ortonormal del complemento ortogonal del subespacio W1= 〈v1〉 es

B1= {v2=

1 0 0

,v3=

0 1 0

}.

Entonces B1= {v1,v2,v3} es una base ortonormal de R3, la matriz de cambio de base es

U1=

0 1 0 0 0 1 1 0 0

y U1−1AU1=

2 0 1 0 2 1 0 1 2

.

Observemos que en la primera fila de la nueva matriz tenemos el autovalor λ1 y

v1|f (v2)〉e=v1t(Av2) = 0,〈v1|f (v3)〉e=v1t(Av3) = 1.

(5)

Consideramos ahora la submatriz A2=

µ 2 1 1 2

,

que sabemos que tiene como autovalores λ23. Calculamos el espacio de au- tovectores de λ2en la matriz A2:

A2− λ2I = Ã 1 1

1 1

!

rref−→

à 1 0 0 0

!

, y un autovector esw2=µ −1 1

. El vectorw2no está normalizado, por lo que construimosu2= 1

kw2kw2=p1 2w2. Ahora debemos encontrar una base ortonormal de R2que contenga au2. Para ello, aplicamos el procedimiento de Gram-Schmidt. En primer lugar, calcula- mos el complemento ortogonal de forma análoga al ejemplo 8.9.6 (pág. 339).

u2n p12x1+p12x2 = 0. ⇒

½ x1 = x2, x2 = x2. Entonces

u2= 〈q2= µ 1

1

〉, y basta normalizar

q2=°1

°q2°° q2=

µ 1/p 2 1/p

2

, para que {u2,q2} sea base ortonormal de R2.

Hemos construido la matriz ortogonal V2=

µ 1/p

2 1/p 2

−1/p

2 1/p 2

. Entonces si

U2=

1 0 0

0 1/p

2 1/p 2 0 −1/p

2 1/p 2

nos queda que

U2−1U1−1AU1U2=

2 −1/p

2 1/p 2

0 1 0

0 0 3

.

La matriz unitaria buscada es

U1U2=

0 1/p

2 1/p 2 0 −1/p

2 1/p 2

1 0 0

.

(6)

El teorema de triangulación de Schur asegura que toda matriz cuadrada A es semejante mediante una transformación unitaria a una matriz triangu- lar superior, esto es, UAU = T . Pero incluso siendo A real, las matrices U y T serán complejas si A tiene autovalores complejos conjugados. Sin embar- go, se pueden encontrar matrices reales si permitimos bloques 2 × 2 en la dia- gonal. Se puede probar que si A ∈ M (n × n,R), existe una matriz ortogonal P ∈ M (n × n,R) y matrices reales Bi j tales que

PtAP =

B11 B12 ... B1k 0 B22 ... B2k

... ... ... ...

0 0 ... Bkk

, donde Bj j es 1 × 1 o 2 × 2.

Si Bj j = [λj], entonces λj es autovalor (real) de A, y si Bj j es 2 × 2, entonces los autovalores de Bj j son complejos conjugados del espectro de A.

9.2. Diagonalización de las matrices normales

Matriz normal, hermitiana/simétrica y unitaria/ortogonal Sea A una matriz cuadrada.

1. A es normal si AA = A A.

2. A es hermitiana si tiene coeficientes complejos y A= A.

3. A es simétrica si tiene coeficientes reales y es hermitiana (At= A).

4. A es unitaria si tiene coeficientes complejos y A= A−1. 5. A es ortogonal si tiene coeficientes reales y At = A−1.

Nuestro objetivo es estudiar los autovalores y los espacios de autovectores de las matrices normales. Para espacios vectoriales de dimensión infinita hay que tratar con endomorfismos con ciertas propiedades topológicas, que se ve- rán al estudiar análisis funcional.

(7)

Ejemplo 9.2.1.- Si

A1=

343 −2 −2/3p

5 8/3p 5

2 18 0 p

5 2/3p

5 0 6 −4/3

8/3p 5 −p

5 4/3 383

,

se tiene que A1A1= A1A1, de donde la matriz es normal. No es unitaria ni her- mitiana. La matriz A1es antisimétrica.

Si

A2=

1 −1 2

−1 3 0

2 0 −3

, entonces A2es simétrica.

Si

A3= µ 3

5 4 5

45 35

, se verifica que A3A3= I2, de donde A3es unitaria.

Diagonalización unitaria de matrices normales

Una matriz A ∈ M (n × n,C) es semejante a una matriz diagonal me- diante una matriz unitaria a una matriz diagonal si y solamente si AA = A A, es decir, si A es una matriz normal.

PRUEBA: Supongamos, en primer lugar, que A es una matriz normal. Por el lema de Schur, existe una matriz unitariaU tal que UAU = T , con T triangular superior. Entonces T= UAU , y

T T= UAUUAU = UA AU = UAAU = TT.

En otras palabras, la matriz triangular superior T es normal. Vamos a probar, por inducción sobre n, que entonces T es diagonal. Para n = 1, no hay nada que probar. Supongamos entonces que el resultado se tiene para matrices triangu- lares superiores de orden n − 1.

(8)

Como T es triangular superior, el elemento (1,1) de T T es de la forma

|t11|2+|t12|2+...+|t1n|2, pero el elemento (1,1) de TT es |t11|2. Por tanto, todos los elementos t1j, j ≥ 2 son nulos, y podemos escribir

T =

µ t11 O1×(n−1) O(n−1)×1 T1

, con T1triangular superior. Entonces

T T=

µ |t11|2 O1×(n−1) O(n−1)×1 T1T1

= TT =

µ |t11|2 O1×(n−1) O(n−1)×1 T1T1

,

de donde T1 es una matriz triangular superior normal de orden n − 1. Por la hipótesis de inducción, T1es diagonal y T también lo es.

Recíprocamente, si existe U unitaria tal que UAU = D, con D matriz dia- gonal, entonces

AA = U DUU DU= U DDU= U DDU= A A,

y A es una matriz normal. 

Un corolario de lo anterior es que los espacios de autovectores de autovalo- res distintos de una matriz normal son ortogonales entre sí.

Ortogonalidad de los espacios de autovectores de una matriz normal Sea An×n una matriz compleja normal, y λ16= λ2autovalores distintos de A. Entonces para cadav∈ V11),w∈ V12) se tiene quevw.

PRUEBA: Por el teorema de diagonalización unitaria, sea U una matriz unita- ria tal que UAU = D, con D diagonal. Entonces las columnas de U son auto- vectores y forman una base ortonormal del espacio, por lo que los espacios de autovectores asociados a λ1y λ2son de la forma V11) = 〈v1,...,vq1〉,V12) =

w1,...,wq2〉, convi,wj columnas distintas de la matriz U , que son ortogona- les entre sí. Entonces cada uno de los generadores de V11) es ortogonal a cada uno de los generadores de V12). Como se tiene para los generadores de cada espacio, se sigue fácilmente para cualesquiera vectores de V11) y V12).  Nota 9.2.1. El teorema de diagonalización unitaria para matrices normales no tiene una versión real. Por ejemplo, consideremos la matriz

A =

µ 0 −1

1 0

,

(9)

que es normal. Sus autovalores son λ1= i,λ2= −i, por lo que no existe una ma- triz real ortogonal Q tal que QtAQ = D, con D matriz diagonal. Si fuera así, la matriz D sería real, pero sabemos que está formada por los elementos diago- nales λ12. En cambio, la matriz

U = Ã 1

p2i p12i

p1 2

p1 2

! ,

es una matriz unitaria tal que UAU = D.

Muchos tipos de matrices son normales. Entre ellas tenemos a las simétri- cas reales y las hermitianas, las antisimétricas reales y las antihermitianas, las ortogonales y las unitarias. Todas ellas comparten las propiedades anteriores, pero vamos a fijarnos un poco más en las simétricas reales y las hermitianas, porque sus autovalores tienen algunas propiedades especiales.

Teorema espectral de la matrices hermitianas y simétricas

Las matrices simétricas reales y las hermitianas tienen autovalo- res reales.

Una matriz A es hermitiana si y solamente si A es semejante de forma unitaria a una matriz diagonal real D, es decir, D = UAU con U unitaria.

Una matriz A es real simétrica si y solamente si A es semejante de forma ortogonal a una matriz diagonal real D, es decir, D = QtAQ con Q ortogonal.

PRUEBA: Sea A simétrica real o hermitiana, y (λ,v) un par autovalor-autovector de A. Entoncesvv6= 0, y la igualdad Av= λvimplica quevA= λv. Así,

vAv= λvv,vAv= λvv,

y como A= A, podemos restar y queda 0 = (λ − λ)vv. Dado quevv6= 0, se sigue que λ = λ. Por tanto los autovalores de una matriz simétrica real o una hermitiana son reales.

Las equivalencias del enunciado son inmediatas. 

(10)

Ejemplo 9.2.2.- Sea A la matriz

A =

4 2 2 2 4 2 2 2 4

.

Como A es simétrica, el teorema espectral de matrices simétricas nos dice que A es diagonalizable en R. Los autovalores son λ1= 2,λ2= 8, con multiplicida- des algebraicas respectivas m1= 2,m2= 1.

Para λ1, el espacio de autovectores es

V11) = null(A − λ1I ) ⇒

2 2 2 2 2 2 2 2 2

x1 x2 x3

=

0 0 0

.

Para resolver este sistema lineal homogéneo, calculamos la forma esca- lonada reducida por filas de la matriz de coeficientes:

2 2 2 2 2 2 2 2 2

rref−→

1 1 1 0 0 0 0 0 0

,

x1 = −x2 −x3, x2 = x2,

x3 = x3.

Entonces

V11) = 〈v11=

−1 1 0

,v12=

−1 0 1

〉.

Ahora aplicamos Gram-Schmidt a este conjunto para transformarlo en

(11)

un conjunto ortonormal.

q11 = v11,

q12 = v12− λ12q11 12=q11 |v12e

q11 |q11e = 1 2,

q12 =

−1/2

−1/2 1

,

q11 = ° 1

°q11 °°

q11 =p1 2

−1 1 0

,

q12 = ° 1

°q12 °°q12 =p1 6

−1

−1 2

.

Para λ2, procedemos análogamente.

V12) = null(A − λ2I ) ⇒

−4 2 2

2 −4 2

2 2 −4

x1 x2 x3

=

0 0 0

.

Para resolver este sistema lineal homogéneo, calculamos la forma esca- lonada reducida por filas de la matriz de coeficientes:

−4 2 2

2 −4 2

2 2 −4

rref−→

1 0 −1 0 1 −1

0 0 0

,

x1 = x3, x2 = x3, x3 = x3. Entonces

V12) = 〈v21=

1 1 1

〉.

Observemos, como era de esperar, que V12) es un subespacio vectorial ortogonal a V11), es decir, los vectoresv1i son ortogonales a los vectores v2j. De nuevo, aplicamos Gram-Schmidt a V12), pero aquí solamente tenemos que normalizar el vectorv21:

q21= 1

kv21kv21=p1 3

1 1 1

.

(12)

Por tanto, la matriz Q =¡

q11 q12 q21 ¢ es una matriz ortogonal formada por autovectores, por lo que

QtAQ =

2 0 0 0 2 0 0 0 8

.

Teorema espectral de las matrices unitarias

Las matrices unitarias tienen autovalores complejos de módulo igual a uno.

Una matriz A es unitaria si y solamente si A es semejante de for- ma unitaria a una matriz diagonal D, cuyos elementos diagona- les son complejos de módulo igual a uno.

PRUEBA:

Sea λ autovalor de la matriz A yvun autovector asociado, esto es, Av= λv. Como A es unitaria, entonces

kvk2= 〈v|ve= 〈Av|Ave= λλkvk2, de donde |λ| = 1.

Supongamos que A es unitaria. Entonces es una matriz normal y existen U matriz unitaria y D matriz diagonal tal que UAU = D. Como la matriz D contiene los autovalores de A, tenemos el resultado.

Recíprocamente, supongamos que existen U matriz unitaria y D matriz diagonal con elementos diagonales λi de módulo igual a uno, tales que UAU = D. Entonces AA = U DDU. El producto DD es la matriz dia- gonal con elementos de la forma λiλi = 1, es decir, DD = I . Por tanto, AA = UU= I y tenemos el resultado.



(13)

9.3. Matriz definida positiva

El teorema espectral de las matrices hermitianas (simétricas) nos permi- te estudiar un tipo de matriz hermitiana (simétrica) que aparece en contextos muy diferentes.

Matriz definida positiva Sea An×nuna matriz hermitiana (simétrica).

Decimos que es definida positiva sivAv> 0 para todo vector no nulov∈ Cn(vtAv> 0 para todo vector no nulov∈ Rn).

Decimos que es definida negativa sivAv< 0 para todo vector no nulov∈ Cn(vtAv< 0 para todo vector no nulov∈ Rn).

También tenemos los conceptos de

semidefinida positiva, paravAv≥ 0, y semidefinida negativa, paravAv≤ 0.

Es claro que A es definida negativa si y solamente si −A es definida positiva.

Ejemplo 9.3.1.-

1. La matriz identidad es hermitiana definida positiva.

2. Toda matriz diagonal D con entradas di i > 0 es hermitiana definida posi- tiva.

3. La matriz

B =

µ 1 0 0 −2

no es de ninguno de los tipos anteriores. Se suelen denominar indefini- das.

4. Toda matriz An×nhermitiana definida positiva define un producto esca- lar en Cnmediante 〈v|w〉 =vAw.

(14)

5. Sea Cm×n una matriz compleja. Entonces A = CC es hermitiana semi- definida positiva, pues

vAv=vCCv= kCvk ≥ 0.

Si rango(C ) = n, entonces Cv6=0para todov6=0, y lo anterior implica que A = CC es definida positiva.

El problema que se plantea inicialmente es cómo reconocerlas. Vamos a dar un teorema de caracterización para ello.

Caracterización de una matriz definida positiva Sea An×nuna matriz hermitiana. Son equivalentes:

1. A es definida positiva.

2. Todos los autovalores de A son positivos.

3. La matriz A se puede expresar como A = BB , para una matriz B no singular.

PRUEBA:

(1) ⇒ (2) Sea λ autovalor de A yvautovector asociado. Entonces 0 <vAv=vv) = λ kvk2, de donde λ > 0.

(2) ⇒ (3) Si A = UDUcon los autovalores positivos, podemos escribir D1/2la ma- triz diagonal que contiene las raíces cuadradas de los autovalores. Enton- ces

A = U DU= U D1/2D1/2U= BB, para B = D1/2U. Es claro que B es no singular.

(3) ⇒ (1) Dadov6=0, entoncesw= Bv6=0, porque B es no singular. Así, vAv=vBBv= kwk2> 0.



(15)

Nota 9.3.1. Las matrices semidefinidas positiva tienen una caracterización si- milar. De forma completamente análoga a la prueba anterior, se tiene que si A es una matriz hermitiana, entonces son equivalente

1. A es semidefinida positiva.

2. Todos los autovalores de A son no negativos.

3. La matriz A se puede expresar como A = BB .

Existe un criterio clásico basado en determinantes de ciertas submatrices para caracterizar a una matriz definida positiva. Dada An×nuna matriz, nota- remos por Akla submatriz de A formada por las primeras k filas y columnas de A. Por ejemplo, A1= a11y An= A. Antes necesitamos hacer dos observaciones:

1. Si A es una matriz cuadrada cualquiera de orden n y L es una matriz aso- ciada a una trasformación elemental de tipo I, entonces la matriz B = L ALt verifica que det(Aj) = det(Bj), j = 1,2,...,n, donde Bj es la subma- triz principal de orden j de B. Es inmediato por la invariancia del deter- minante por dichas trasformaciones.

2. Supongamos que A es una matriz definida positiva de orden n y sea W una matriz de orden n × r de rango r . Entonces WAW es una matriz definida positiva de orden r . En efecto, es claro que es una matriz hermi- tiana. Siues un vector de r componentes no nulo, entonces Wues no nulo; en otro caso, null(W ) sería no trivial, lo que contradice que es de rango máximo. Por tanto, si llamamosv= Wu, se tiene

uWAWu=vAv> 0.

De este resultado general, consideremos una matriz W obtenida median- te la selección de r vectores de la formaej; por ejemplo,

W =¡

ej1 ... ejr ¢ .

Entonces WAW consiste en la submatriz de A formada por las filas y columnas j1,..., jr. En particular, las submatrices Ak son definidas posi- tiva y la submatriz formada por las filas y columnas 2,...,n también es definida positiva.

* Menores principales positivos

Sea An×nuna matriz hermitiana y denotemos por Akla submatriz prin- cipal de orden k. Entonces A es definida positiva si y solamente si det(Ak) > 0 para todo k = 1,...,n.

(16)

PRUEBA: Supongamos que A es definida positiva y probemos el resultado sobre los determinantes por inducción sobre n. Para n = 1, la matriz A se redu- ce al escalar a11, que es positivo. Supongamos que el resultado es cierto para n − 1. Escribamos

A =

µ a11 w w C1

. y consideremos la matriz

L1=

µ 1 0

a111w I

.

Esta matriz es el producto de matrices de tipo I con coeficientes en la primera columna. Por tanto, la matriz B = L1ALt1verifica que det(Bk) = det(Ak), como hemos comentado al principio. El efecto sobre la matriz A es obtener ceros en la primera columna y en la primera fila; en concreto,

B = L1ALt1=

µ a11 0

0 1

a11ww+C1

.

Como L1es una matriz triangular, con entradas en la diagonal iguales a 1, es no singular, por lo que B es hermitiana definida positiva y la submatriz principal A= −a111ww+C1de orden n −1 es hermitiana definida positiva. Por hipótesis de inducción, para cada k = 1,...,n−1, los determinantes det(Ak) son positivos.

Dado que det(Bj) = a11det(Aj −1), tenemos el resultado.

Recíprocamente, supongamos que det(Aj) > 0 para todo j = 1,2,...,n. Esto implica que si aplicamos la eliminación anterior en filas y columnas, que no es más que la eliminación gaussiana, encontramos siempre un pivote positi- vo. Por tanto, tras n pasos llegamos a una expresión A = RR, con R triangular superior y entradas ri i > 0. Por tanto, R es no singular y por el teorema de ca-

racterización A es definida positiva. 

Nota 9.3.2. El último paso de la prueba es lo que se conoce como factorización de Cholesky. Observemos que proporciona un método algorítmico alternati- vo más eficiente para determinar si una matriz es definida positiva. Se aplica eliminación gaussiana y debemos encontrar siempre un pivote positivo.

Ejemplo 9.3.2.- Consideremos la matriz simétrica

A =

5 3 5 3 4 4 5 4 4

.

(17)

Entonces

det(A1) = 5,det(A2) = det µ 5 3

3 4

= 11,det(A3) = det(A) = −16, por lo que A no es definida positiva.

Mediante la eliminación gaussiana, empezamos con el elemento a11= 5 >

0. Procedemos a hacer ceros en la primera columna:

A

F235F1 F3− F1

−−−−−−−−→B =

5 3 5

0 115 1

0 1 −1

.

El elemento b22= 11/5 > 0, por lo que continuamos el proceso.

BF3

115F2

−−−−→C =

5 3 5

0 115 1 0 0 1611

.

El elemento c33= −16/11 < 0, por lo que la matriz A no es definida positiva.

Ejemplo 9.3.3.- Para cada n ≥ 1, se define la matriz de Hilbert Hncomo Hn=

µ 1

i + j − 1

, con i, j = 1,...,n.

Por ejemplo,

H2=

µ 1 12

12 1 3

, H3=

1 12 13

12 1 3 1 1 4 3 1

4 1 5

.

Por la definición, Hnes una matriz simétrica, y la submatriz de Hnformada por las k primeras filas y columnas es Hk. Nuestro objetivo es probar que la matriz Hn es definida positiva. Para ello, basta ver que para cada m ≥ 1, el determi- nante de Hm es positivo, pues la caracterización por los menores principales implica el resultado.

Figure

Actualización...

Referencias

Related subjects :