• No se han encontrado resultados

C APÍTULO3 LA FORMA DE JORDAN

N/A
N/A
Protected

Academic year: 2018

Share "C APÍTULO3 LA FORMA DE JORDAN"

Copied!
17
0
0

Texto completo

(1)

C

APÍTULO

3

LA

FORMA

DE

JORDAN

3.1.OPERADORES NORMALES.

Definición. Sean 𝑉 un espacio vectorial de dimensión finita sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉. Un subespacio 𝑊 de 𝑉 se llama invariante bajo 𝑇, SI 𝑇 aplica 𝑊 en si mismo; esto es, si para cada 𝛼 de 𝑊, el vector 𝑇𝛼 pertenece también a 𝑊. Se dice también que 𝑊 es un subespacio

𝑇 − 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒 de 𝑉.

Ejemplo 1. Sea 𝑉 un espacio vectorial sobre el campo 𝐹 y sea 𝐸 una proyección de 𝑉. Entonces, la imagen de 𝐸 es 𝐸 − 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒.

En efecto, si 𝑅 es la imagen de 𝐸 y si 𝛽 pertenece a𝑅, entonces, 𝐸𝛽 = 𝛽.

Ejemplo 2. Sea 𝑊 el subespacio de ℝ3 generado por el conjunto 𝐵 = {(2,1,0), (2,0,1)}. Si 𝑇

es el operador sobre ℝ3 definido por

𝑇(𝑥1, 𝑥2, 𝑥3) = (5𝑥1− 6𝑥2− 6𝑥3, −𝑥1+ 4𝑥2+ 2𝑥3, 3𝑥1− 6𝑥2− 4𝑥3 ),

entonces, 𝑊 es un subespacio 𝑇 − 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒 de 𝑉.

Teorema 1. Sea 𝑉 un espacio producto interno complejo de dimensión finita y sea 𝑇 un operador hermitiano sobre 𝑉. Entonces, todo valor propio de 𝑇 es real.

Prueba. Sea c un valor propio de T y sea α un vector propio no nulo de T con valor propio c. Se tiene entonces que

〈Tα, α〉 = 〈cα, α〉 = c〈α, α〉.

Por otra parte, dado que T∗= T, resulta

〈Tα, α〉 = 〈α, T∗α〉 = 〈α, Tα〉 = 〈Tα, α̅̅̅̅̅̅̅〉.

(2)

Lema. Sea 𝐴 una matriz real simétrica de 𝑛 × 𝑛. Entonces, 𝐴 tiene un vector propio no nulo con componentes reales.

Prueba. Considérese la matriz 𝐴 como un operador sobre el espacio producto interno ℂ𝑛×1, con el producto interno canónico. Entonces, 𝐴 es un operador hermitiano y, por el teorema 1, tiene un valor propio real 𝑐. Sea 𝑋 un vector no nulo de ℂ𝑛×1 tal que 𝐴𝑋 = 𝐶𝑋. Dado que podemos escribir 𝑋 como 𝑋1+ 𝑖𝑋2, donde 𝑋1 y 𝑋2 son elementos (al menos uno distinto de 0) de ℂ𝑛×1 con

componentes reales, tenemos

𝐴𝑋 = 𝐴(𝑋1+ 𝑖𝑋2) = 𝐴𝑋1+ 𝑖(𝐴𝑋2).

Pero por otra parte,

𝐴𝑋 = 𝐶𝑋 = 𝑐(𝑋1+ 𝑖𝑋2) = 𝑐𝑋1+ 𝑖(𝑐𝑋2).

Comparando estas igualdades se llega a que 𝐴𝑋1= 𝐶𝑋1 y 𝐴𝑋2= 𝐶𝑋2. Esto completa la prueba.∎

Teorema 2. Sea 𝑉 un espacio producto interno real de dimensión finita, con 𝑑𝑖𝑚𝑉 ≥ 1 y sea 𝑇 un operador simétrico sobre 𝑉. Entonces, 𝑇 tiene un vector propio no nulo en 𝑉.

Prueba. Supóngase que 𝑑𝑖𝑚𝑉 = 𝑛 y sean 𝐵 una base ordenada ortonormal de 𝑉 y 𝐴 la matriz de 𝑇 respecto a 𝐵. Entonces, 𝐴 es una matriz real simétrica y, según el lema, existe un vector no nulo de ℝ𝑛×1 que es un vector propio de 𝐴. Sea 𝐴𝑋 = 𝐶𝑋 (Con 𝑐 real) y sea 𝛼 el vector de 𝑉

definido como [𝛼]𝐵 = 𝑋. Evidentemente, 𝛼 es no nulo y 𝑇𝛼 = 𝑐𝛼, como se quería probar. ∎

Ejemplo 3. Sea 𝑉 el espacio producto interno de ℝ2 con el producto definido por

〈(𝑥1, 𝑥2), (𝑦1, 𝑦2)〉 = 𝑥1𝑦1− 𝑥2𝑦1− 𝑥1𝑦2+ 4𝑥2𝑦2.

Entonces, el operador 𝑇 sobre 𝑉 dado por 𝑇(𝑥1𝑥2) = (𝑥1− 3𝑥2, −𝑥1+ 2𝑥2) es simétrico. El lector

puede comprobar mediante un cálculo directo que efectivamente 〈𝑇𝛼, 𝛽〉 = 〈𝛼, 𝑇𝛽〉 para toda pareja de vectores 𝛼, 𝛽 de 𝑉. La matriz de 𝑇 respecto a la base de 𝑉 es

𝐴 = ( 1 −3 −1 2 )

(nótese que 𝐴 no es simétrica), de manera que al resolver la ecuación de 𝑡(𝑡𝐼 − 𝐴) = 0, se obtienen los valores propios reales 𝑐1=

1

2(3 + √13) y 𝑐2= 1

2(3 − √13). Dos vectores propios de 𝛼1 y 𝛼2 de

𝑇, correspondientes a estos valores propios son 𝛼1 = (−6, 1 + √13) y 𝛼2= (−6, 1 − √13),

respectivamente. Si se usa la base ordenada 𝐵′ = {(1,0), 1

√3(1,1)}, que es una base ortonormal de

𝑉, la matriz de 𝑇 respecto a esta es

𝐴′ = ( 2 −√3 −√3 1 )

que si es simétrica. Este hecho se observó en la prueba del teorema 2.

Teorema 3. Sean 𝑉 un espacio producto interno de dimensión finita y 𝑇 un operador sobre 𝑉.

Supóngase que 𝑊 es un subespacio 𝑇 − 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒 de 𝑉. Entonces, el complemento ortogonal 𝑊⊥

(3)

Prueba. Sea β cualquier elemento de W⊥. Si α pertenece a W, entonces, está en W y,

por lo tanto, 〈Tα, β〉 = 0. Pero 〈Tα, β〉 = 〈α, T∗β〉. Luego, el vector Tβ pertenece a W y de aquí

que W⊥ es T− 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒. ∎

Teorema 4. Sea 𝑉 un espacio producto interno complejo (real) de dimensión finita, con 𝑑𝑖𝑚𝑉 ≥ 1. Si 𝑇 es un operador autoadjunto (simétrico) sobre 𝑉, entonces, existe una base ortogonal de 𝑉,

constituida por vectores propios de T.

Prueba. Aplicamos inducción sobre la dimensión del espacio V. Para 𝑑𝑖𝑚V = 1, el enunciado es trivialmente válido. Supóngase que este se cumple cuando 𝑑𝑖𝑚V = k y sea 𝑑𝑖𝑚V = k + 1. Por el teorema 5 del capítulo anterior (o el teorema 2 de este), 𝑇 tiene un vector propio no nulo 𝛼1 en 𝑉. Sea W⊥ el complemento ortogonal del subespacio 𝑊 de 𝑉 generado por 𝛼1. Entonces,

𝑑𝑖𝑚W⊥= k y además, del teorema 3, W⊥ es T − 𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒. Así, la restricción de T a W⊥ es un operador autoadjunto sobre W⊥ y 𝑑𝑖𝑚W⊥= k. Por hipótesis de inducción, existe una base ortogonal 𝐵′= {𝛼2, … , 𝛼𝑘+1} de W⊥ que consta de vectores propios de tal restricción. Ahora 𝛼1 es

ortogonal a cada 𝛼𝑗de 𝐵′, de manera que 𝐵 = {𝛼1, 𝛼2, … , 𝛼𝑘+1} es una base ortogonal de

𝑉 constituída por vectores propios de 𝑇. ∎

Corolario. Sea 𝐴 una matriz autoadjunta de 𝑛 × 𝑛. Entonces, existe una matriz unitaria 𝐵 de 𝑛 × 𝑛, tal que 𝐵−1𝐴𝐵 es una matriz diagonal.

Prueba. Considérese 𝐴 como un operador sobre ℂ𝑛×1 (o sobre 𝑛×1 si los elementos de 𝐴

son reales). Según el teorema, existe una base ortonormal 𝐵 = {𝑋1, … , 𝑋𝑛} de ℂ𝑛×1 (o de ℝ𝑛×1),

constituída por vectores propios de 𝐴. Sea 𝐶 la matriz (diagonal) de 𝐴 respecto a 𝐵. Entonces, existe una matriz inversible 𝐵 de 𝑛 × 𝑛 tal que

𝐶 = 𝐵−1𝐴𝐵.

Obviamente, la 𝑗 − é𝑠𝑖𝑚𝑎 columna 𝐵𝐽 de 𝐵 es la matriz de coordenadas del 𝑗 − é𝑠𝑖𝑚𝑜 elemento

de la base 𝐵 respecto a la base canónica de ℂ𝑛×1 (o de ℝ𝑛×1). El hecho de que 𝐵 es unitaria es debido a que la base ordenada 𝐵 es ortonormal. ∎

Ejemplo 4. En referencia al ejemplo anterior, se puede comprobar fácilmente que los vectores 𝛼1 y 𝛼2 que se citan allí, forman una base ortogonal del espacio 𝑉. La base ortogonal

correspondiente es el conjunto 𝐵 = {𝛽1, 𝛽2}, donde 𝛽𝑗 = 𝛼𝑗| ∥ 𝛼𝑗∥; 𝑗 = 1,2 y ∥ 𝛼1∥2= 4(√13 − 2)

y ∥ 𝛼2∥2= 5(15 − √13).

Definición. Sea 𝑉 un espacio producto interno de dimensión finita sobre el campo 𝐹 y sean

𝑔1 y 𝑔2 dos formas sobre 𝑉. Supóngase que existe una base 𝐵 de 𝑉 que es ortogonal respecto a

ambas formas a la vez. Se dice entonces que 𝑔1 y 𝑔2 son simultáneamente diagonalizables, o que se

pueden diagonalizar simultáneamente.

Teorema 5. Sea 𝑉 un espacio producto interno complejo (real) de dimensión finita y sea 𝑇 un operador autoadjunto (simétrico) sobre 𝑉. Sea 𝑔 la forma sobre 𝑉 definida por 𝑔(𝛼, 𝛽) = 〈𝑇𝛼, 𝛽〉.

Entonces, 𝑔 y el producto interno se pueden diagonalizar simultáneamente.

Prueba. Por el teorema 4, existe una base ordenada 𝐵 = {𝛼1, … , 𝛼𝑛} que es ortogonal y que

(4)

respectivamente, relativos a la base 𝐵. Claramente, 𝐴 es diagonal y, por otra parte, los elementos

𝑏𝑖𝑗 de la matriz 𝐵 están dados por 𝑏𝑖𝑗= 〈𝛼𝑖, 𝛼𝑗〉. Si 𝑇𝛼𝑖 = 𝑐𝑖𝛼𝑖, para 𝑖 = 1, … , 𝑛, resulta

𝑏𝑖𝑗= 𝑔(𝛼𝑖, 𝛼𝑗) = 〈𝑇𝛼𝑖, 𝛼𝑗〉 = 𝑐𝑗〈𝛼𝑖, 𝛼𝑗〉.

Queda claro de aquí que 𝑏𝑖𝑗= 0 si 𝑖 ≠ 𝑗, y de aquí que 𝐵 es también diagonal. ∎

Definición. Sea 𝑉 un espacio producto interno complejo de dimensión finita y 𝑇 un operador sobre 𝑉. Se dice que 𝑇 es normal si conmuta con su adjunto; esto es, si 𝑇𝑇∗= 𝑇∗𝑇.

Teorema 6. Sean 𝑉 un espacio producto interno complejo de dimensión finita y 𝑇 un operador normal sobre 𝑉. Entonces, un vector 𝛼 de 𝑉 es un vector propio de 𝑇 con valor propio 𝑐 si, y solo si, 𝛼 es un vector propio de 𝑇∗ con valor propio 𝑐̅.

Prueba. Tómese en cuenta que si 𝑇 es normal, entonces, 𝑇 − 𝑐𝐼 es también un operador normal y que, para todo 𝛼 de ∥ 𝑇𝛼 ∥=∥ 𝑇∗𝛼 ∥. Resulta de esto que

∥ (𝑇 − 𝑐𝐼)𝛼 ∥=∥ (𝑇 − 𝑐𝐼)∗𝛼 ∥=∥ (𝑇− 𝑐̅𝐼)𝛼 ∥,

quedando entonces que (𝑇 − 𝑐𝐼)𝛼 = 0 si, y solo si (𝑇∗− 𝑐̅𝐼)𝛼 = 0. ∎

Definición. Una matriz compleja 𝐴 de 𝑛 × 𝑛 se llama normal si 𝐴𝐴∗= 𝐴∗𝐴.

Teorema 7. Sea 𝑉 un espacio producto interno de dimensión finita y sean 𝑇 un operador sobre 𝑉 y 𝐵

una base ordenada ortonormal de 𝑉. Supóngase que la matriz 𝐴 de 𝑇 respecto a 𝐵 es triangular superior. Entonces, 𝑇 es normal si, y solo si, 𝐴 es una matriz diagonal.

Prueba. Sean 𝐴 = (𝑎𝑖𝑗) y 𝐵 = {𝛼1, … , 𝛼𝑛} y supóngase que 𝐴 es diagonal. Dado que 𝐵 es

ortonormal, tenemos que la matriz de 𝑇∗ respecto a 𝐵 es 𝐴∗ y, por tanto 𝐴𝐴∗= 𝐴∗𝐴 o, equivalentemente,. Recíprocamente, si 𝑇 es normal, en virtud que 𝐴 es triangular superior tenemos que 𝑇𝛼1= 𝑎11𝛼1, quedando del teorema anterior que 𝑇∗𝛼1= 𝑎̅𝑛𝛼1. Pero por otra parte se tiene

que

𝑇∗𝛼

1= ∑(𝐴∗)𝑖1 𝑛

𝑖=1

𝛼𝑖 = ∑ 𝑎̅1𝑖𝛼𝑖, 𝑛

𝑖=1

y de aquí que 𝑎12= 𝑎13= ⋯ = 𝑎1𝑛= 0. Análogamente, ya que 𝑎12= 0, tenemos que 𝑇𝛼2=

𝑎22𝛼2, quedando nuevamente del teorema 6 que 𝑇∗𝛼2= 𝑐̅22𝛼2. Pero también

𝑇∗𝛼

2= ∑(𝐴∗)𝑖2 𝑛

𝑖=1

𝛼𝑖 = ∑ 𝑎̅2𝑖𝛼𝑖. 𝑛

𝑖=1

Esto significa que 𝑎23= 𝑎24= ⋯ = 𝑎2𝑛= 0 Repitiendo este procedimiento 𝑛 − 2 veces mas se

llega a que 𝐴 es una matriz diagonal. ∎

(5)

Prueba. Todo operador sobre un espacio unitario de dimensión finita es triangulable. Si 𝑇

es normal, por el teorema, 𝑇 es diagonalizable. ∎

Es un ejercicio de rutina el hacer ver que todo operador autoadjunto sobre un espacio unitario de dimensión finita es también un operador normal; sin embargo, la afirmación en sentido inverso es falsa. Esta es la razón por la cual se han planteado por separado los teoremas de diagonalización referentes a estos tipos de operadores.

Ejemplo 5. Sea 𝑉 el espacio producto interno ℂ2 con el producto interno canónico y sea 𝑇 el operador sobre 𝑉 definido por

𝑇(𝑥1, 𝑥2) = (𝑖𝑥1+ (1 − 2𝑖)𝑥2, (2 + 𝑖)𝑥1+ 𝑖𝑥2).

Entonces, 𝑇 es normal pero no es autoadjunto. En efecto, la matriz 𝐴 de 𝑇 respecto a la base ordenada canónica de 𝑉, que es una base ortonormal, es

𝐴 = ( 𝑖 1 − 2𝑖 2 + 𝑖 𝑖 ).

Evidentemente, 𝐴∗≠ 𝐴; es decir, T no es autoadjunto. Sin embargo, 𝑇 es normal, ya que

(6)

3.2.LA FORMA DE JORDAN.

Dado un operador 𝑇 sobre un espacio vectorial de dimensión finita, el representante matricial mas simple para 𝑇 es la llamada forma diagonal, que fue discutida en el capítulo anterior y en la primera sección de este. Sin embargo, nos dimos cuenta que no todo operador es diagonalizable. La matriz mas simple asociada con 𝑇 es la llamada forma de Jordan, con la ventaja sobre aquella de todo operador sobre un espacio vectorial complejo de dimensión finita tiene asociada una forma de Jordan.

Empezamos con un teorema y un corolario referentes a la descomposición de un espacio vectorial de dimensión finita en una suma directa de subespacios. Aquí no será necesario que los espacios estén dotados de producto interno.

Teorema 8. Sean 𝑉 un espacio vectorial de dimensión finita sobre el campo 𝐹 y 𝑇 un operador sobre

𝑉. Sea 𝑓 un elemento de 𝐹[𝑡] con las siguientes propiedades:

(a) 𝑓 = 𝑓1𝑓2, donde 𝑓1 y 𝑓2 son primos relativos y 𝑔𝑟𝑑 𝑓𝑗≥ 1; 𝑗 = 1,2.

(b) 𝑓(𝑇) = 0.

Si 𝑊1 y 𝑊2 son los espacios nulos de 𝑓1(𝑇) y 𝑓2(𝑇), respectivamente, entonces, 𝑉 = 𝑊1⨁𝑊2.

Prueba. Sea 𝐽 el ideal generado por 𝑓1 y 𝑓2. Entonces, el polinomio constante 1 pertenece a

𝐽 y, por lo tanto, existen elementos 𝑔1 y 𝑔2 en 𝐹[𝑡] tales que 1 = 𝑔1𝑓1+ 𝑔2𝑓2. Se sigue de aquí que

𝐼 = (𝑔1𝑓1)(𝑇) + (𝑔2𝑓2)(𝑇).

Si 𝛼 es un elemento de 𝑉, de esta igualdad nos queda que

𝛼 = (𝑔1𝑓1)(𝑇)𝛼 + (𝑔2𝑓2)(𝑇)𝛼 = 𝛽1+ 𝛽2,

donde 𝛽𝑗 = (𝑔𝑗𝑓𝑗)(𝑇); 𝑗 = 1,2. Afirmamos que el vector 𝛽2 pertenece a 𝑊1 y que 𝛽1 pertenece a

𝑊2. En efecto, aplicando el operador 𝑓1(𝑇) a 𝛽2, encontramos

𝑓1(𝑇)𝛽2 = 𝑓1𝑇((𝑔2𝑓2)(𝑇)𝛼)

= 𝑔2𝑇((𝑓1𝑓2)(𝑇)𝛼)

= 𝑔2(𝑇)(𝑓(𝑇)𝛼)

= 0,

y de aquí que 𝛽2 está en 𝑊1. De manera similar, 𝛽1 está en 𝑊2 ya que

𝑓2(𝑇)𝛽1= 𝑓2𝑇((𝑔1𝑓1)(𝑇)𝛼)

= 𝑔1𝑇((𝑓1𝑓2)(𝑇)𝛼)

= 𝑔1(𝑇)(𝑓(𝑇)𝛼)

= 0.

Se sigue de aquí que 𝑉 = 𝑊1+ 𝑊2. Supóngase ahora que 𝛼 es un elemento de 𝑊1∩ 𝑊2. Entonces,

(7)

𝛼 = 𝑔1(𝑇)(𝑓1(𝑇)𝛼) + 𝑔2(𝑇)(𝑓2(𝑇)𝛼) = 0.

De esta forma, 𝑉 = 𝑊1⨁𝑊2, como se establece en el enunciado. ∎

Corolario. Sean 𝑉 un espacio vectorial complejo de dimensión finita y 𝑇 un operador sobre 𝑉. Sea 𝑓

un elemento de ℂ[𝑡] tal que

(a) 𝑓 = 𝑓1𝑓2… 𝑓𝑟, donde 𝑓𝑗(𝑡) = (𝑡 − 𝑎𝑗)𝑚𝑗; 𝑗 = 1, … , 𝑟 y 𝑎𝑖 ≠ 𝑎𝑗 si 𝑖 ≠ 𝑗.

(b) 𝑓(𝑇) = 0.

Si 𝑊𝑗 es el espacio nulo de 𝑓𝑗(𝑇); 𝑗 = 1, … , 𝑟, entonces, 𝑉 = 𝑊1⨁ … ⨁𝑊𝑟.

Prueba. Se aplica inducción sobre 𝑟. Sea 𝑓 = 𝑓1𝑔, donde 𝑔 = 𝑓2𝑓3… 𝑓𝑟. Obviamente, el

espacio nulo de 𝑔(𝑇) es el subespacio 𝑊 = 𝑊2+ ⋯ + 𝑊𝑟. Ahora, dado que el máximo común

divisor de 𝑓1 y 𝑔 es el polinomio constante 1, del teorema anterior encontramos que 𝑉 = 𝑊1⨁𝑊.

Supóngase que ya se ha podido descomponer 𝑊 en una suma directa

𝑊 = 𝑊2⨁ … ⨁𝑊𝑟.

donde, para 𝑗 = 2, … , 𝑟, 𝑊𝑗 es el espacio nulo del operador 𝑓𝑗(𝑇) sobre 𝑊. Falta probar que 𝑊𝑗 es

el espacio nulo de este operador definido sobre 𝑉. Pero esto es inmediato ya que si 𝛼 es un elemento de 𝑉 que pertenece a 𝑊𝑗, en la suma 𝛼 = 𝛼1+ 𝛽 con 𝛼1en 𝑊1 y 𝛽 en 𝑊, tenemos que

𝛼1= 0 quedando entonces que 𝑓𝑗(𝑇)𝛼 = 0. ∎

Ejemplo 6. Sea 𝑉 = ℝ3 y sea 𝑇 el operador sobre 𝑉 dado por

𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑥1+ 𝑥2− 𝑥3, −𝑥1+ 3𝑥2− 𝑥3, −𝑥1+ 𝑥2+ 𝑥3).

Si f es el polinomio real definido por 𝑓(𝑡) = 𝑡3− 5𝑡2+ 8𝑡 − 4, entonces, 𝑓 = 𝑓1𝑓2, donde 𝑓1(𝑡) =

𝑡 − 1 y 𝑓2(𝑡) = (𝑡 − 2)2; además 𝑓(𝑇) = 0. Se puede entonces aplicar el teorema 8 (o su corolario)

para afirmar que 𝑉 se puede escribir como la suma directa de los subespacios 𝑊1 y 𝑊2 donde 𝑊1 es

el espacio nulo de 𝑓1(𝑇) y 𝑊2 es el espacio nulo de 𝑓2(𝑇). El lector no encontrará dificultades para

comprobar que 𝑊1 es el subespacio de 𝑉 generado por el vector 𝛽 = (1,1,1) y que 𝑊2 es el

subespacio de 𝑉 generado por los vectores 𝛽1= (1,1,0) y 𝛽2= (0,1,1). Así, para todo vector 𝛼 =

(𝑎, 𝑏, 𝑐) de 𝑉, resulta

𝛼 = 𝑥𝛽 + (𝑥1𝛽1+ 𝑥2𝛽2),

donde 𝑥 = 𝑎 − 𝑏 + 𝑐, 𝑥1= 𝑏 − 𝑐 y 𝑥2= −𝑎 + 𝑏.

Definición. Sean 𝑉 un espacio vectorial sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉. Se dice que un vector 𝛼 de 𝑉 es 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜, si existe un entero positivo 𝑟 tal que 𝑇𝑟𝛼 = 0. El número entero que tiene esta propiedad recibe el nombre de período de 𝛼 relativo a 𝑇. Si 𝑟 es dicho período, entonces, 𝑇𝑘𝛼 ≠ 0 cuando 0 ≤ 𝑘 < 𝑟.

Ejemplo 7. Sea 𝑉 un espacio vectorial sobre el campo 𝐹 y sea 𝑇 un operador sobre 𝑉.Si 𝑐 es un valor propio de 𝑇, entonces, todo vector propio no nulo de 𝛼 de 𝑇 con valor propio 𝑐 es un vector

(𝑇 − 𝑐𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 de período 1. En el caso del espacio ℝ3, si 𝑇 está dado por

(8)

entonces, el vector 𝛼 = (1,1,2) es (𝑇 − 𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 con período 2.

Lema. Sean 𝑉 un espacio vectorial sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉. Si 𝛼 es un vector 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜 de 𝑉 con período 𝑟, entonces, los vectores

𝛼, 𝑇𝛼, … , 𝑇𝑟−1𝛼,

son linealmente independientes.

Prueba. Considérese la expresión

𝑐0𝛼 + 𝑐1(𝑇𝛼) + ⋯ + 𝑐𝑟−1(𝑇𝑟−1𝛼) = 0,

donde los 𝑐𝑗 son ciertos escalares, y sea 𝑓 el elemento de 𝐹[𝑡] dado por

𝑓(𝑡) = ∑ 𝑐𝑘𝑡𝑘 𝑟−1

𝑘=0

,

entonces, la combinación lineal anterior se puede escribir como

𝑓(𝑡)𝛼 = 0.

Sea 𝑔 el polinomio dado por 𝑔(𝑡) = 𝑡𝑟. Puesto que α e de período 𝑟, debemos tener 𝑔(𝑇)𝛼 = 0. Sea ℎ el máximo común divisor Mónico de los polinomios 𝑓 y 𝑔, entonces, ℎ es un generador del ideal generado por estos polinomios y de aquí que existen 𝑓1 y 𝑔1 en 𝐹[𝑡] tales que ℎ = 𝑓1𝑓 + 𝑔1𝑔.

Luego,

ℎ(𝑇) = (𝑓1𝑓)(𝑇) + (𝑔1𝑔)(𝑇).

Es claro aquí que ℎ(𝑇)𝛼 = 0. Pero ℎ debe ser de la forma ℎ(𝑡) = 𝑡𝑚 para algún entero positivo 𝑚

tal que 1 ≤ 𝑚 < 𝑟, ya que ℎ divide tanto a 𝑓 como a 𝑔. Se sigue de aquí que

ℎ(𝑇)𝛼 = 𝑇𝑚𝛼 = 0,

lo cual contradice la hipótesis de que el período de 𝛼 en 𝑇 es 𝑟. Luego, debemos tener 𝑓 = 0; esto es 𝑐0= 𝑐1= ⋯ = 𝑐𝑟−1= 0. Esto completa la prueba. ∎

Definición. Sean 𝑉 un espacio vectorial de dimensión 𝑟 sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉. Se dice que 𝑉 es un espacio cíclico si existe un vector 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜 en 𝑉 con período 𝑟.

Ejemplo 8. El espacio vectorial ℝ3 es un espacio 𝑡 − 𝑐í𝑐𝑙𝑖𝑐𝑜 si el operador 𝑇 está definido

por

𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑥1+ 𝑥2+ 𝑥3, − 𝑥1− 𝑥2− 𝑥3, − 𝑥1+ 𝑥2),

ya que para el vector 𝛼 = (1,0,0) tenemos que 𝑇𝛼 = (1, −1,1), 𝑇2𝛼 = (1, −1,0) y 𝑇3𝛼 = 0; esto es, 𝛼 es un vector 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜 de período 3.

Corolario. Sean 𝑉 un espacio vectorial de dimensión 𝑟 sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉.

Sea 𝑐 un valor propio de 𝑇 y supóngase que existe un vector (𝑇 − 𝑐𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 𝛼𝑟 de período 𝑟.

Entonces, el conjunto 𝐵 = {𝛼1, … , 𝛼𝑟}, donde 𝛼𝑗= (𝑇 − 𝑐𝐼)𝑟−𝑗𝛼𝑟; 𝑗 = 1, … , 𝑟, es una base de 𝑉.

(9)

Definición. Considerando el conjunto 𝐵 del corolario como una base ordenada, se le llama a este base de Jordan para 𝑇 .

Teorema 9. Sean 𝑉 u espacio vectorial de dimensión 𝑟 sobre el campo 𝐹 y 𝑇 un operador sobre 𝑉. Sea 𝑐 un valor propio de 𝑇 y supóngase que existe un vector (𝑇 − 𝑐𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 𝛼𝑟 de período 𝑟. Si

𝐵 es la base de Jordan para 𝑇, entonces, la matriz de 𝑇 respecto a 𝐵 es la matriz 𝐽 de 𝑟 × 𝑟 dada por

𝐽 = (

𝑐 1 0 0 𝑐 1 0 0 𝑐

… … …

0 0 0 0 0 0 ⋮ ⋮ ⋮ ⋮ ⋮ 0 0 0

0 0 0 …

0𝑐 1𝑐) .

Prueba. Recurrimos a la expresión

𝑇((𝑇 − 𝑐𝐼)𝑘𝛼) = (𝑇 − 𝑐𝐼)𝑘+1𝛼 + 𝑐(𝑇 − 𝑐𝐼)𝑘𝛼,

la cual es válida para todo entero 𝑘 =0,1,2,… sea, como se propuso,

𝐵 = {(𝑇 − 𝑐𝐼)𝑟−1𝛼

𝑟, (𝑇 − 𝑐𝐼)𝑟−2𝛼𝑟, … , 𝛼𝑟}

una base de Jordan para 𝑇. Aplicando el operador 𝑇 al primer vector de 𝐵, de la igualdad 3.3, resulta

𝑇((𝑇 − 𝑐𝐼)𝑟−1𝛼

𝑟) = (𝑇 − 𝑐𝐼)𝑟𝛼𝑟+ 𝑐(𝑇 − 𝑐𝐼)𝑟−1𝛼𝑟 = 𝑐(𝑇 − 𝑐𝐼)𝑟−1𝛼𝑟.

Es claro de aquí que la primera columna de la matriz 𝐽 es como se señala en (3.2). Para el segundo vector de la base 𝐵, nuevamente de (3.3), tenemos.

𝑇((𝑇 − 𝑐𝐼)𝑟−2𝛼

𝑟) = (𝑇 − 𝑐𝐼)𝑟−1𝛼𝑟+ 𝑐(𝑇 − 𝑐𝐼)𝑟−2𝛼𝑟.

Los escalares 1 y 𝑐 que aparecen en la combinación lineal de la derecha, corresponden a los dos primeros componentes de la segunda columna de 𝐽. En general, para la 𝑗 − é𝑠𝑖𝑚𝑎 columna de la matriz 𝐽, encontramos

𝑇((𝑇 − 𝑐𝐼)𝑟−𝑗𝛼𝑟) = (𝑇 − 𝑐𝐼)𝑟−𝑗+1𝛼𝑟+ 𝑐(𝑇 − 𝑐𝐼)𝑟−𝑗𝛼𝑟.

Se sigue de aquí que la matriz 𝐽 de 𝑇 respecto a 𝐵 es como se propone en (3.2).

Corolario. Supóngase que 𝑉 tiene dimensión 𝑛 y que 𝑐1, … , 𝑐𝑠 son los valores propios distintos de 𝑇.

Supóngase además que 𝑉 se puede descomponer en una suma directa de subespacios 𝑉1, … , 𝑉𝑠; es

decir,

𝑉 = 𝑉1⊕ … ⊕ 𝑉𝑠,

donde para 𝑗 = 1, … , 𝑠, 𝑉𝑗 es (𝑇 − 𝑐𝑗𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 y 𝑑𝑖𝑚𝑉𝑗= 𝑛𝑗. Sea 𝐵𝑗= {𝛼𝑗, 𝛼𝑗2, … , 𝛼𝑗𝑛𝑗} una base de Jordan para la restricción de 𝑇 a 𝑉𝑗. Entonces, el conjunto (con orden)

𝐵 = {𝛼11, 𝛼12, … , 𝛼𝑠𝑛𝑠}

es una base ordenada de 𝑉 y la matriz 𝐽 de 𝑇 respecto a 𝐵 es de la forma

3.3 3.2

(10)

𝐽 = ( 𝐽1 0

0 𝐽2

⋯ … 00 ⋮ ⋮ ⋮ 0 0 ⋯ 𝐽𝑠

)

donde cada 𝐽𝑘(𝑘 = 1, … , 𝑠) es un bloque (submatriz) de 𝑛𝑘× 𝑛𝑘 del tipo de la matriz dada en (3.2)

y las submatrices nulas son de tamaño tal que 𝐽 es una matriz cuadrada. Prueba. Se aplica el teorema a cada uno de los subespacios 𝑉𝑗. ∎

Definición. A la base 𝐵 dada en la igualdad (3.4) se le denomina base de Jordan para 𝑇 y a la matriz 𝐽 que aparece en (3.5) se le conoce como forma de Jordan de 𝑇. Las submatrices 𝐽𝑘 que

forman la matriz 𝐽 son llamadas bloques de Jordan. 𝐽 es conocida también como forma canónica de Jordan.

Antes de presentar algunos ejemplos sobre formas de Jordan de operadores queremos introducir el concepto de polinomio mínimo de un operador, que nos será útil para explicar y justificar algunas cosas sobre tales formas.

Definición. Sea 𝑇 un operador sobre un espacio vectorial 𝑉 de dimensión finita sobre el campo 𝐹. El polinomio mínimo de 𝑇 es el generador Mónico (único) del ideal de polinomio sobre F que anulan 𝑇.

Ejemplo 9. Considérense los generadores 𝑇 y 𝑈 sobre ℝ3definidos por

𝑇(𝑥, 𝑦, 𝑧) = (𝑥 − 2𝑦 + 𝑧, 𝑦 − 𝑧, 𝑧)

𝑈(𝑥, 𝑦, 𝑧) = (2𝑥 + 2𝑦 − 𝑧, −𝑥 − 𝑦 + 𝑧, − 𝑥 − 2𝑦 + 2𝑧).

Ninguno de estos operadores es diagonalizable y tienen el mismo polinomio característico 𝑃𝑇(𝑡) =

𝑃𝑈(𝑡) = (𝑡 − 1)3. El polinomio mínimo del operador 𝑇 es igual a su polinomio característico; esto

es, 𝑚𝑇 = 𝑃𝑇, sin embargo, el polinomio mínimo 𝑚𝑈 de 𝑈 es 𝑚𝑈(𝑡) = (𝑡 − 1)2, ya que (𝑈 − 𝐼)2=

0. Si 𝑇 es el operador sobre ℝ4 dado por

𝑇(𝑥1, 𝑥2, 𝑥3, 𝑥4) = (𝑥1− 𝑥2− 2𝑥3+ 4𝑥4, 𝑥1− 3𝑥2+ 2𝑥3+ 2𝑥4, 𝑥1− 2𝑥2+ 4𝑥3− 𝑥4, 𝑥1

+ 2𝑥2+ 2𝑥3− 3𝑥4),

se puede comprobar que tiene polinomio característico 𝑃𝑇(𝑡) = 𝑡(𝑡 + 5)(𝑡 − 2)2. Su polinomio

mínimo queda como 𝑚𝑇(𝑡) = 𝑡(𝑡 + 5)(𝑡 − 2).

El polinomio mínimo de una matriz cuadrada se define en los mismos términos que el de un operador.

Teorema 10. Sea 𝑇 un operador sobre un espacio vectorial de dimensión 𝑛 (o bien: sea 𝐴 un matriz de 𝑛 × 𝑛. Entonces, los polinomios característicos y mínimo para 𝑇(𝑝𝑎𝑟𝑎 𝐴), tiene las mismas raíces, excepto por multiplicidades.

(11)

Prueba. Sea 𝑚 el polinomio mínimo para 𝑇 y sea 𝑐 un escalar. Probaremos que 𝑚(𝑐) = 0 si y solo si 𝑐 es un valor propio de 𝑇.

Supongamos primero que 𝑚(𝑐) = 0, entonces, por el corolario 1 del teorema 3 del primer capítulo tenemos que 𝑚(𝑡) = (𝑡 − 𝑐)𝑞(𝑡) para algún polinomio 𝑞. Ahora, ya que 𝑔𝑟𝑑 𝑞 < 𝑔𝑟𝑑 𝑚, 𝑞(𝑇) no puede ser el operador nulo. Sea β un vector de 𝑉 que no pertenece al espacio nulo de 𝑞(𝑇) y sea 𝛼 = 𝑞(𝑇)𝛽. Obviamente, 𝛼 ≠ 0 y

0 = 𝑚(𝑇)𝛽 = (𝑇 − 𝑐𝐼)𝑞(𝑇)𝛽 = (𝑇 − 𝑐𝐼)𝛼.

De aquí que 𝑐 es un valor propio de 𝑇. Inversamente, si 𝑐 es un valor propio de 𝑇 y 𝑇𝛼 = 𝑐𝛼, con 𝛼 = 0, del corolario de la proposición 2 del capítulo anterior resulta

0 = 𝑚(𝑇)𝛼 = 𝑚(𝑐)𝛼.

Dado que 𝛼 ≠ 0, resulta 𝑚(𝑐) = 0. Con esto concluye la prueba.

Si 𝑉 es un espacio vectorial de dimensión 𝑛 sobre el campo 𝐹 y 𝑇 es un operador sobre 𝑉, en ninguna parte de la teoría desarrollada hasta aquí se garantiza la existencia de un vector 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜

de período 𝑛; en otras palabras, con los elementos de que disponemos no podemos afirmar que 𝑉

sea un espacio cíclico. De hecho, este es el caso general, como se muestra en el siguiente ejemplo. Ejemplo 10. Considérese el espacio tal que 𝑇𝛼 ≠ 0 y 𝑇2𝛼 = 0; esto es, ℝ2no es 𝑇 − 𝑐í𝑐𝑙𝑖𝑐𝑜. En este caso, no obstante, podemos descomponer ℝ2en una suma directa de dos subespacios cíclicos: uno de ellos es (𝑇 − 2𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜 y el otro (𝑇 − 3𝐼) − 𝑐í𝑐𝑙𝑖𝑐𝑜. Esto se debe al hecho de que el operador 𝑇 es diagonalizable.

Disertación. (El mejor de los casos). Sean 𝑉 un espacio vectorial de dimensión 𝑛 sobre los complejos y 𝑇 un operador sobre 𝑉. Supóngase que T tiene 𝑠 valores propios (𝑠 ≥ 2) 𝑐1, … , 𝑐𝑠

distintos entre si, entonces, el polinomio característico 𝑃𝑇 𝑑𝑒 𝑇 queda como

𝑃𝑇(𝑡) = (𝑡 − 𝑐1)𝑚1(𝑡 − 𝑐2)𝑚2… (𝑡 − 𝑐𝑠)𝑚𝑠,

para algunos enteros positivos 𝑚1, … , 𝑚𝑠 tales que 𝑚1, + ⋯ + 𝑚𝑠= 𝑛. Sea 𝑁𝑗el espacio nulo del

operador (𝑇 − 𝑐𝑗𝐼)𝑚𝑗, entonces, 𝑁𝑗 tiene dimensión 𝑚𝑗 y es un subespacio (𝑇 − 𝑐𝑗𝐼)𝑚𝑗−

𝑖𝑛𝑣𝑎𝑟𝑖𝑎𝑛𝑡𝑒. Supóngase que se pueden encontrar 𝑞 + 1 vectores propios 𝛼1′, … , 𝛼𝑞+1′ linealmente

independientes de 𝑇 con valor propio 𝑐𝑗.Si 𝑞 + 1 = 𝑚𝑗 el conjunto 𝐵′ = {𝛼1′, … , 𝛼𝑞+1´ } es una base

para 𝑁𝑗 y (𝑇 − 𝑐𝑗𝐼)𝑚𝑗es diagonalizable en 𝑁𝑗. Si este no es el caso; esto es, si 𝑞 + 1 < 𝑚𝑗, sea 𝑁𝑗′ el

espacio nulo de (𝑇 − 𝑐𝑗𝐼)𝑚𝑗−𝑞 que es un operador no nulo ya que, de otra forma, el polinomio

𝑚(𝑡) = (𝑡 − 𝑐𝑗)𝑚𝑗−𝑞sería el polinomio mínimo de 𝑇, en contradicción con el teorema 10, ya que hay

al menos un valor propio de 𝑇 distinto de 𝑐𝑗. Si 𝛽 está en 𝑁𝑗 entonces (𝑇 − 𝑐𝑗𝐼)𝑚𝑗−𝑞−1𝛽 es un vector

propio de 𝑇 con vector propio 𝑐𝑗. Supóngase que 𝛽 ≠ 0 y sea

𝛼𝑞+1 = (𝑇 − 𝑐𝑗𝐼)𝑚𝑗−𝑞−1𝛽 = ∑ 𝑏𝑖𝛼𝑖′. 𝑞+1

𝑖=1

donde 𝛼𝑞+1 ≠ 0. Si el coeficiente 𝑏𝑘(1 ≤ 𝑘 ≤ 𝑞 + 1) en la combinación lineal de la derecha, es

(12)

independiente, de manera que al reordenar 𝐵′ colocando al final 𝛼𝑞+1 y a la izquierda de este los 𝑞

vectores restantes 𝛼𝑗′, se obtiene el conjunto 𝐵" = {𝛼1, … , 𝛼𝑞+1}.

Sea 𝑟 = 𝑚𝑗− 𝑞. Por el último lema y su corolario, los vectores

(𝑇 − 𝑐𝑗𝐼)𝑟−1𝛽, (𝑇 − 𝑐𝑗𝐼)𝑟−2𝛽, … , 𝛽

son linealmente independientes y el conjunto {𝛼𝑞+1, … , 𝛼𝑚𝑗}, con orden, donde

𝛼𝑞+1 = (𝑇 − 𝑐𝑗𝐼)𝑟−𝑖𝛽, 𝛼𝑚𝑗= 𝛽,

es una base de Jordan para 𝑇 restringido a 𝑁𝑗. El bloque de Jordan correspondiente queda como

𝐽 = (𝐶0𝑗 𝐽0

𝑗),

donde 𝑐𝑗es la matriz diagonal de 𝑞 × 𝑞: 𝐶𝑗= 𝑑𝑖𝑎𝑔(𝑐𝑗, … , 𝑐𝑗) y 𝐽𝑗 es la submatriz de (𝑚𝑗− 𝑞) ×

(𝑚𝑗− 𝑞) que tiene todos sus elementos de la diagonal iguales a 𝑐𝑗 y es de la forma de la matriz 𝐽

dada en (3.2).

Trataremos de ilustrar la teoría desarrollada en esta sección mediante algunos ejemplos simples (otros no tanto) al respecto.

Ejemplo 11. En el caso de operadores sobre espacios de dimensión 2, los operadores son diagonalizables o los espacios son cíclicos, dependiendo de si dichas funciones tienen dos valores propios distintos, o tienen solamente uno (de multiplicidad 2), respectivamente. Pongamos por caso el operador sobre ℝ2dado el ejemplo 10. Aquí la matriz 𝐴 de 𝑇 respecto a la base canónica ℝ2 es

𝐴 = (1 −1 2 4 )

Y el polinomio característico 𝑝𝑇 queda como 𝑝𝑇(𝑡) = det(𝑡𝐼 − 𝐴) = (𝑡 − 2)(𝑡 − 3) y, obviamente,

el polinomio mínimo 𝑚𝑇, es el mismo. Si se trabaja con la base ordenada 𝐵 = {(1, −1), (1, −2)},

que consiste de vectores propios de 𝑇 con valores propios 2 y 3, respectivamente, está resuelta en una base de Jordan para 𝑇. La forma de Jordan correspondiente es 𝐽 = 𝑑𝑖𝑎𝑔(2,3). En este caso, os bloques de Jordan son, por supuesto, matrices de 1 × 1.

Ejemplo 12. Sea 𝑇 el operador sobre ℝ2 definido por 𝑇(𝑥, 𝑦) = (𝑥 − 𝑦, 𝑥 + 3𝑦). La matriz

𝐴 de 𝑇 con respecto a la base canónica de ℝ2 es

𝐴 = (1 −1 1 3 )

y su polinomio característico 𝑝𝑇 de 𝑇 queda como 𝑝𝑇(𝑡) = (𝑡 − 2)2. Existe únicamente un vecgtor

ropio de 𝑇, linealmente independiente, con valor propio 2; a saber, 𝛼1 = (1, −1). Sin embargo, se

puede conseguir un 𝛼2 en ℝ2 tal que (𝑇 − 2𝐼)𝛼2= 𝛼1. Dicho vector es 𝛼2= (1,0) y es un vector

(13)

El teorema de Cayley-Hamilton (Teorema 9 del capítulo anterior) garantiza que (𝑇 − 2𝐼)2𝛼

2= 0. La

base de Jordan para 𝑇 en {𝛼1, 𝛼2} y la forma de Jordan correspondiente queda como

𝐽 = (2 1 0 2).

Ejemplo 13. Sea 𝑇 el operador sobre ℂ3 definido por 𝑇(𝑥, 𝑦, 𝑧) = (2𝑥 + 2𝑦 − 𝑧, −𝑥 − 𝑦 +

𝑧, −𝑥 − 2𝑦 + 2𝑧). La matriz 𝐴 de 𝑇 con respecto a la base ordenada canónica de ℂ3 es

𝐴 = (

2 2 −1 −1 −1 1 −1 −2 2

),

quedando su polinomio característico 𝑝𝑇(𝑡) = det(𝑡𝐼 − 𝐴) = (𝑡 − 1)3, y su polinomio mínimo

es 𝑚(𝑡) = (𝑡 − 1)2. De esta forma, 𝑇 tiene un solo valor propio 𝑐 = 1; sin embargo, se pueden

obtener 2 vectores propios linealmente independientes de 𝑇 con valor propio 1; por ejemplo, 𝛼1′ =

(1,0,1) y 𝛼2′ = (0,1,2). En referencia a la última parte de la teoría (Disertación) tenemos para este

caso que 𝑚𝑗 = 3 y 𝑞 = 1. Como se hizo en la igualdad (3.6), se propone (𝑇 − 𝐼)𝛼3 = 𝛼2′ − 𝛼1′ =

(−1,1,1) y resulta 𝛼3= (1,0,0). En el conjunto {𝛼1′ − 𝛼2′} se sustituye 𝛼2′ por 𝛼2= (−1,1,1) y,

como se hizo en la teoría, se construye la base ordenada {𝛼1, 𝛼2, 𝛼3}, con 𝛼1 = 𝛼1′. Esto es una base

de Jordan para 𝑇 y la forma de Jordan relativa a esta queda como

𝐽 = (

1 0 0 0 1 1 0 0 1

).

Es claro que otra base de Jordan para 𝑇 es {𝛼2, 𝛼3, 𝛼1}. Con respecto a esta nueva base, los bloques

de Jordan en la forma 𝐽 (Uno de ellos de 1 x 1 y el otro de 2 x 2), quedarán intercambiados.

Ejemplo 14. Sea 𝑇 el operador sobre ℂ6cuya matriz asociada respecto a la base canónica es

𝐴 =

(

2 0 0 0 0 0 1 2 0 0 0 0 −1 0 2 0 0 0 0 1 0 2 0 0 1 1 1 1 2 0 0 0 0 0 1 −1)

.

De la igualdad 𝑝𝑇(𝑡) = det(𝑡𝐼 − 𝐴) se llega a que el polinomio característico de 𝑇 e 𝑝𝑇(𝑡) = (t +

1)(𝑡 − 2)5n y se pueden manipular las potencias de los factores 𝑡 + 1 y 𝑡 − 2 de 𝑝𝑇(𝑡) para llegar

a que (T + I)(𝑇 − 2𝐼)4 es el operador nulo, quedando entonces que el polinomio mínimo 𝑚𝑇 de 𝑇

está dado por 𝑚𝑇(𝑡) = (𝑡 + 1)(𝑡 − 2)4. Con el valor propio 𝑐 = −1 de 𝑇 no hay problema. Se

construye en bloque de Jordan de 1 x 1: un vector propio de 𝑇 con valor propio −1 es 𝛽1=

(0,0,0,0,0,1). Con el valor propio 𝑐 = 2 de 𝑇 se pueden generar dos vectores propios 𝛼1′ y 𝛼2′ de 𝑇,

linealmente independientes; por ejemplo, 𝛼1′ = (0,0,1, −1,0,0) y 𝛼2′ = (0,0,0,0,3,1). Nuevamente,

con respecto a la teoría presentada en la disertación, tenemos para este caso que 𝑚2= 5 y 𝑞 = 1.

(14)

1 ⋅ 𝛼2′: este resulta ser 𝛽 = (3,1, −4,0,0,0). Se obtienen después los vectores 𝛼3= (𝑇 − 2𝐼)2𝛽 y

𝛼4= (𝑇 − 2𝐼)𝛽. Tomando 𝛼1 = 𝛼1′, 𝛼2= 𝛼2′ y 𝛽= 𝛼5, construimos la base de Jordan

{𝛽1, 𝛼1, 𝛼2, 𝛼3, 𝛼4, 𝛼5}(hay mas posibilidades). Con respecto a esta base, la forma de Jordan para 𝑇

queda como

𝐽 =

(

−1 0 0 0 0 0 0 2 0 0 0 0 0 0 2 1 0 0 0 0 0 2 1 0 0 0 0 0 2 1 0 0 0 0 0 2)

.

En este caso, los vectores 𝛼3 y 𝛼4 son 𝛼3= (0,0,0,3,1,0) y 𝛼4= (0,3, −3,1,0,0).

Ejemplo 15. Sea 𝑇 el operador sobre ℂ8 cuya matriz asociada respecto a la base canónica es

𝐴 =

(

1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 −1 0 1 1 0 0 0 0 1 0 0 0 1 1 0 0 0 0 1 1 1 1 1 0 0 0 −1 −1 −1 −1 0 1 −1 0 0 0 0 0 0 0 0 )

.

Calculando el det (𝑡𝐼 − 𝐴) se llega a que el polinomio característico 𝑝𝑇 de 𝑇 está dado por 𝑝𝑇(𝑡) =

𝑡4(𝑡 − 1)4. Como en el ejemplo anterior, ensayando con las potencias de los factores 𝑇 y 𝑇 − 1 de

𝑝𝑇(𝑇) se llega a que el polinomio mínimo 𝑚𝑇 de 𝑇 es Claramente, los valores propios de 𝑇 son 𝐶 =

0,1. Dos vectores propios de 𝑇, linealmente independientes, con valor propio 𝐶 = 0 son 𝛽 = (0,1, −1,0,0,0,0,0) y 𝛼2 = (0,0,0,1, −1,0,0,0), y no es posible obtener mas vectores propios

independientes con este valor propio. Ahora, con el vector 𝛼2 es posible construir un elemento 𝛼2′ de

ℂ8 tal que 𝑇𝛼2′ = 𝛼2; basta tomar 𝛼2′ = (0,1,0,1, −2,0,0,0), pero no se puede construir un 𝛿 de ℂ8tal

que 𝑇𝛿 = 𝛽. Se debe entonces intentar obtener un 𝛼1 en este espacio vectorial que sea un vector

propio de 𝑇 con valor propio 𝐶 = 0, que no sea un múltiplo de 𝛼2 y que sea tal que exista un 𝛼1′ que

sea solución de la ecuación 𝑇𝛼1′ = 𝛼1. El vector 𝛼1= 𝛽 + 2𝛼2= (0,1, −1,2, −2,0,0,0) cumple con

todos los requisitos establecidos. Resolviendo la ecuación citada, encontramos, 𝛼1′ =

(−1,1,0, −1, −1,1,0,1). Podemos ahora formar un bloque de Jordan de 4 x 4 para 𝑇, correspondiente al valor propio de 𝑇, 𝑐 = 0, usando la base {𝛼1, 𝛼1′, 𝛼2, 𝛼2′}, que es una base de Jordan. Dicho bloque

queda como

𝐽1= (

0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0

(15)

Mediante a un análisis muy semejante al realizado para el caso del valor propio 𝑐 = 0 de 𝑇, podemos inferir que con 𝑐 = 1 se obtienen dos vectores propios linealmente independientes 𝛽1=

(1,0,0,0,0,0,0,0) y 𝛿 = (0,0,0,0,0,1, −1,0) de 𝑇 (y no es posible encontrar mas valores propios de 𝑇, linealmente independientes, que tengan valor propio 𝑐 = 1. Con 𝛽 podemos obtener un vector 𝛽1′,

que resuelva la ecuación (𝑇 − 𝐼)𝛽1= 𝛽

1: 𝛽1′ es el vector 𝛽1′ = (0,0,0,0,0,1,0,0), pero no es posible

hacer lo mismo con el vector 𝛿; esto es, no podemos encontrar un 𝛽 que resuelva la ecuación

(𝑇 − 𝐼)𝛽 = 𝛿. Proponemos 𝛽2= 𝛽1+ 𝛿 = (1,0,0,0,0,1, −1,0). El vector 𝛽2′ = (0,0,0,0,1,1, −1,0)

resuelve la ecuación (𝑇 − 𝐼)𝛽2′ = 𝛽2. De esta forma, respecto a la base de Jordan {𝛽1, 𝛽1′, 𝛽2, 𝛽2′} de

𝑇 el bloque de Jordan correspondiente queda como

𝐽2 = (

1 1 0 0 0 1 0 0 0 0 1 1 0 0 0 1

).

Explícitamente, respecto a la base de Jordan {𝛼1, 𝛼1′, 𝛼2, 𝛼2′, 𝛽1, 𝛽1′, 𝛽2, 𝛽2′} para 𝑇, la formad

e Jordan correspondiente queda como

𝐽 =

(

0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1)

.

(16)

Apéndice.

Sea 𝑉 un espacio vectorial de dimensión finita sobre el campo 𝐹. Una base ordenada de 𝑉

es una sucesión 𝛼1, … , 𝛼𝑛 de vectores linealmente independientes de 𝑉 que generan 𝑉. Se emplea la

notación 𝐵 = {𝛼1, … , 𝛼𝑛} para indicar dicha base, señalando, cuando sea el caso, que se trata de

una base ordenada. Si 𝛼 es cualquier vector de 𝑉, entonces, existen escalares 𝑥1, … , 𝑥𝑛 de 𝐹 tales

que 𝛼 = 𝑥1𝛼1+ ⋯ + 𝑥𝑛𝛼𝑛. Se define la matriz de coordenadas de 𝛼 relativa a la base ordenada 𝐵

como

[𝛼]𝐵 = (

𝑥1

. . . 𝑥𝑛)

.

Si 𝐵′= {𝛼

1′, … , 𝛼𝑛′} es otra base ordenada de 𝑉, entonces, existe una matriz inversible 𝑃 de 𝑛 × 𝑛

con elementos en 𝐹 tal que

[𝛼]𝐵 = 𝑃[𝛼]𝐵′.

Las columnas 𝑃1, … , 𝑃𝑛 de la matriz 𝑃 vienen dadas por 𝑃𝑗= [𝛼𝑗′]𝐵; 𝑗 = 1, … , 𝑛. En ocasiones se le

llama a 𝑃 matriz de cambio de base.

Sean 𝑉 y 𝑊 espacios vectoriales de dimensión finita sobre el mismo campo 𝐹 y sean 𝐵 = {𝛼1, … , 𝛼𝑛} y 𝐵′ = {𝛽1, … , 𝛽𝑛} bases ordenadas de 𝑉 y 𝑊, respectivamente. Si 𝑇: 𝑉 → 𝑊 es una

transformación lineal, entonces existe una matriz 𝐴 de 𝑚 × 𝑛 con elementos en 𝐹 tal que

[𝑇𝛼]𝐵′ = 𝐴[𝛼]𝐵,

Para todo 𝛼 de 𝑉. Las columnas 𝐴1, … , 𝐴𝑛 de 𝐴 están dadas por 𝐴𝑗 = [𝑇𝛼𝑗]𝐵′; 𝑗 = 1, … , 𝑛 y a la

matriz 𝐴 se le denomina matriz de 𝑇 respecto a las bases ordenadas 𝐵, 𝐵′.

Cuando la transformación 𝑇 es un operador (operador lineal sobre 𝑉), se emplea una sola base ordenada de 𝑉; digamos 𝐵 = {𝛼1, … , 𝛼𝑛}. La matriz 𝐴 de 𝑇 respecto a esta base tiene columnas

𝐴𝑗= [𝑇𝛼𝑗]𝐵; 𝑗 = 1, … , 𝑛 y en ocasiones la matriz 𝐴 se escribe como [𝑇]𝐵. En términos de este

símbolo, la igualdad (1) queda como

[𝑇𝛼]𝐵 = [𝑇]𝐵[𝛼]𝐵.

Obviamente, en el caso de operadores, las matrices asociadas son matrices cuadradas.

Definición. Sean 𝐴 y 𝐵 matrices de 𝑛 × 𝑛 sobre el campo 𝐹. Se dice que 𝐵 es semejante a 𝐴

sobre 𝐹, si existe una matriz inversible 𝑃 de 𝑛 × 𝑛, con elementos en 𝐹, tal que 𝐵 = 𝑃−1𝐴𝑃.

Dado que la relación de semejanza de matrices es una relación de equivalencia, es correcto decir que 𝐴 y 𝐵 son semejantes sobre 𝐹, en vez de decir que una de las matrices es semejante a la otra.

(17)

Bibliografía.

1. Friedberg, S.-Insel, A.-Spence, L., Linear Algebra, Pearson Education, USA, 2003. 2. Halmos, P., Finite-Dimensional Vector Spaces, D. Van Nostrand Co., Princeton, 1958. 3. Herstein, I.N., Topics in Algebra, Blasdell Publishing Co., USA, 1964.

4. Hoffman, K.-Kunze, R., Álgebra Lineal, Prentice Hall Int., España, 1982. 5. Kurosh, A., Lectures on General Algebra, Chelsea Publishing Co., USA, 1964. 6. Lang, S., Linear Algebra, Addison Wesley Publishing Co., USA, 1968.

7. Maclane, S.-Birkhoff, G., Algebra, The Macmillan Co., USA, 1967.

Referencias

Documento similar

d) que haya «identidad de órgano» (con identidad de Sala y Sección); e) que haya alteridad, es decir, que las sentencias aportadas sean de persona distinta a la recurrente, e) que

El concepto de soberanía, teóricamente independizado de los problemas de fundamen- tación política, sirvió en la teoría jurídica como instrumento adecuado para explicar el derecho

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

Para este apartado se utilizará la programación en Microsoft Visual C++, se estudiará la forma más simple de conectar los datos del guante a la interfaz de

Entre nosotros anda un escritor de cosas de filología, paisano de Costa, que no deja de tener ingenio y garbo; pero cuyas obras tienen de todo menos de ciencia, y aun

Quid rerum, nótese este modo de hablar que tenían los Lati- nos usando del genitivo cuando querían significar la abundancia, ó aprecio de alguna cosa, como cuando el mismo

o Si dispone en su establecimiento de alguna silla de ruedas Jazz S50 o 708D cuyo nº de serie figura en el anexo 1 de esta nota informativa, consulte la nota de aviso de la

 Tejidos de origen humano o sus derivados que sean inviables o hayan sido transformados en inviables con una función accesoria..  Células de origen humano o sus derivados que