• No se han encontrado resultados

Potencias de matrices y funciones matriciales analíticas

N/A
N/A
Protected

Academic year: 2022

Share "Potencias de matrices y funciones matriciales analíticas"

Copied!
30
0
0

Texto completo

(1)

Potencias de matrices y funciones matriciales analíticas

por

José Antonio Torné López

Resumen. En este artículo se describe un método particularmente senci- llo para calcular las potencias de una matriz en forma explícita. Se basa en las sucesiones linealmente recurrentes de matrices, y hace uso del teorema de Cayley-Hamilton. Requiere la determinación de los autovalores de la matriz, pero, a diferencia de otros más usuales, no precisa la determinación de auto- vectores ni de formas canónicas. Como consecuencia relativamente inmediata, se da un método para tratar las funciones matriciales definidas mediante series de potencias; en particular, se ofrece un procedimiento exacto para calcular la exponencial de una matriz —concepto de gran importancia, por ejemplo, en la discusión de los sistemas de ecuaciones diferenciales lineales con coeficientes constantes— significativamente más simple que otros más conocidos.

Introducción y notaciones

Además de su evidente relevancia en matemáticas, la potenciación de matrices y las funciones matriciales son importantes, entre otras disciplinas científicas o tecno- lógicas, en diversas áreas de la física y la química, de la ingeniería, y de las ciencias sociales. En matemáticas, y sin pretender ser exhaustivos, cabe citar el destacado papel que desempeñan en la resolución de sistemas en diferencias y sistemas diferen- ciales lineales con coeficientes constantes, en el estudio de los sistemas dinámicos o en la teoría de grafos.

La forma usual de hallar las potencias sucesivas de una matriz exige la deter- minación de sus autovalores y autovectores, lo que permite averiguar si la matriz es diagonalizable o no; en caso afirmativo, es necesario calcular la matriz diagonal semejante a la original y la matriz de paso correspondiente, así como su inversa. Si la matriz resultase no diagonalizable, el asunto se complica aún más; hay que obtener una forma canónica, normalmente la de Jordan, de la matriz, así como la matriz de paso asociada y su inversa. Estos cálculos pueden resultar bastante pesados. Por ejemplo, T. M. Apostol ([1, sección 7.10]), refiriéndose al cálculo de etA, comenta:

En general ése es un trabajo desesperante salvo si A es una matriz cuyas potencias puedan calcularse fácilmente.

Este escrito consta de dos secciones: «1. Potencias de una matriz» y «2. Funciones matriciales analíticas».

En la primera, se expone un método para hallar las potencias de una matriz com- pleja que sólo requiere el cálculo de los autovalores, pero no el de autovectores ni de

(2)

formas canónicas. Tiene, a nuestro entender, dos ventajas respecto al ya comentado sistema usual. En primer lugar, proporciona una expresión cerrada de las poten- cias completamente general, independiente de si la matriz es o no diagonalizable.

En segundo lugar, los cálculos correspondientes son significativamente más simples.

Concretando un poco más, el método que proponemos para hallar An, siendo A una matriz cuadrada de orden m, exige solamente estos pasos:

1. Conocer —o calcular— los autovalores de A. En principio, puede argüirse que para ello es necesario hallar el polinomio característico, ya que los autovalores son las raíces del mismo, y así lo haremos en los ejemplos; sin embargo, son bien conocidos varios procedimientos numéricos aproximados para calcular los autovalores que prescinden del polinomio característico, y de uso prácticamente obligado si m > 4, pues la ecuación algebraica general de grado mayor que 4 no es resoluble por radicales. Obviaremos este problema por apartarse de nuestro objetivo, que no es otro que el de ofrecer un método exacto, en la esperanza de que pueda ser de alguna utilidad desde un punto de vista didáctico.

2. Calcular todas las potencias A2, . . . , Am−1. Esto supone realizar m − 2 multi- plicaciones matriciales.

3. Resolver un sistema lineal, cuadrado y compatible determinado. Bien es cierto que se trata de un sistema matricial, cuyos coeficientes son escalares mientras que los términos independientes e incógnitas son matrices, pero los métodos de resolución son análogos a los empleados para los sistemas convencionales.

Esta primera sección contiene, muy extractado, un trabajo no publicado sobre sucesiones complejas linealmente recurrentes elaborado por este autor hace ya bas- tante tiempo, y en el cual se exponía un modo de hallar el término general explícito de ese tipo de sucesiones.

Una idea clave del presente artículo es el hecho de que dicho trabajo se pue- de generalizar a sucesiones en espacios vectoriales complejos; más en concreto, es generalizable a sucesiones de matrices linealmente recurrentes. En particular, a la sucesión de las potencias de una matriz que, en virtud del teorema de Cayley- Hamilton, resulta ser linealmente recurrente. Esto conduce directamente a la ex- presión explícita de las potencias de una matriz A, cuadrada de orden m, en función de A0= I, A, A2, . . . , Am−1y de los autovalores de la matriz.

Concluye la primera sección ofreciendo varios ejemplos concretos que intentan cubrir las diferentes posibilidades que se puedan presentar en la práctica.

Si bien es cierto que el teorema 3 del artículo de Elaydi y Harris ([3]) proporciona un método muy similar al propuesto aquí —debemos reconocer que para nuestra decepción, ya que no lo conocíamos antes de elaborarlo, y es que. . . ¡la originalidad absoluta es tan difícil de alcanzar!—, cabe señalar las siguientes diferencias:

1. Ellos se restringen a matrices no singulares; el nuestro, no —también las ma- trices singulares tienen el derecho de potenciación, ¿no?—.

2. Se refieren a la resolución de una ecuación en diferencias escalar; el nuestro, a la de una matricial.

(3)

3. Dan por supuesto cómo se resuelve una ecuación en diferencias lineal; nosotros recordaremos cómo se hace.

El artículo de Abu-Saris y Ahmad ([4]) es bastante ingenioso. Proporciona un método para hallar las potencias de una matriz que no requiere ni siquiera el cálculo de sus autovalores, aunque sí es necesario conocer el polinomio característico de la matriz. Tiene el inconveniente de que hay que calcular ciertos coeficientes mediante un algoritmo recursivo, uno a uno, por lo que, en nuestra modesta opinión, no presenta una ventaja demasiado grande respecto al artesanal proceso de ir hallando An una tras otra.

La segunda sección es consecuencia natural de la primera, y puede ser consi- derada como una versión continua de ésta. En ella, se presenta un algoritmo —en dos versiones: recursiva la primera y explícita, hasta cierto punto, la segunda— que permite el cómputo de funciones matriciales definidas por series de potencias. En particular, se aplica dicho procedimiento a la determinación de la exponencial de una matriz —concepto de gran importancia, por ejemplo, en la discusión de los sistemas de ecuaciones diferenciales lineales con coeficientes constantes—, significativamente más simple que otros más conocidos, como pueden ser los dos presentados en el ar- tículo de E. J. Putzer ([2]) —el segundo de los cuales es el elegido por T. M. Apostol en [1, sección 7.13]—. De hecho, nuestro método para el cálculo de f (A), donde f es una función analítica, sólo requiere el cálculo de An y el de algunas derivadas de f , hasta la de orden m − 1 a lo sumo.

Las diferencias entre el método que proponemos y los dos de Putzer son las siguientes:

1. Los de Putzer requieren la resolución de ecuaciones diferenciales.

2. Putzer logra una expresión explícita para etA, mientras que el nuestro, más general, permite computar f (tA), siendo f : C → C una función analítica en z = 0.

El artículo de Moller y Van Loan ([5]), de desalentador título, supone una crítica sistemática y fundamentada de diecinueve métodos de cálculo de la exponencial de una matriz. La mayoría de dichos procedimientos son aproximados, con los cuales resulta improcedente la comparación con el propuesto en este escrito. Sí son de ti- po exacto los denominados Polynomial Methods (pág. 16). El método 8, que llama de Cayley-Hamilton, se diferencia del nuestro en un detalle no menor: es un méto- do recursivo que presupone el conocimiento del polinomio característico, en lugar del de sus raíces (los autovalores), como en nuestro caso. Por lo demás, las funcio- nes analíticas αj(t) involucradas en el mismo, no tienen, en principio, un aspecto especialmente apacible.

Los tres métodos siguientes, 9, 10 y 11, denominados Lagrange Interpolation, Newton Interpolation y Vandermonde, respectivamente, son más susceptibles de comparación con el protagonista de estas líneas, ya que, al igual que él, se fun- damentan en el conocimiento de los autovalores de la matriz.

Respecto a los métodos 9 y 10, se refieren sólo al caso particular en el que todos los autovalores son simples. Ciertamente, en tal supuesto, las fórmulas correspon- dientes, sobre todo la del 9, parecen más sencillas y eficientes que las que nosotros

(4)

proponemos, las cuales tienen, a cambio, la ventaja de la generalidad; por otra parte, esas fórmulas pueden ser deducidas fácilmente a partir de nuestro método.

El más parecido al nuestro es el 11. De hecho, la matriz de Vandermonde, V , que en él figura es la matriz del sistema matricial lineal que se necesita resolver en nuestro método de cálculo de las potencias de una matriz (subsección 1.7). Al respecto, conviene hacer varias observaciones: (a) Dicha matriz V corresponde al caso particular de autovalores simples, mientras el caso general es despachado con una referencia a . . . the appropriate confluent Vandermonde matrix. . . (b) Se necesita hallar V−1, lo cual no es obligatorio en nuestro caso, pues nuestro sistema puede ser resuelto por métodos más sencillos que no requieran dicho cálculo. (c) Nuestro método es más general, pues posibilita el cálculo de cualquier función matricial analítica, no sólo de la exponencial.

Finaliza esta segunda sección con la aplicación del método al caso particular de raíces cuadradas de matrices, con el objeto de presentar una muestra de sus posibilidades y limitaciones. Otro tanto se podría haber hecho eligiendo cualquier otra función elemental.

Aunque por sencillez trabajaremos con el cuerpo C de los complejos, todo cuanto se expone en este artículo seguiría siendo válido para cualquier cuerpo K algebrai- camente cerrado y de característica cero.

En cuanto a la tipografía, como es habitual, los vectores se representarán en negritas. Se utilizarán, además, las siguientes notaciones:

CN: conjunto de las sucesiones de números complejos.

VN: conjunto de las sucesiones de vectores de un espacio vectorial complejo V . I: operador —o matriz, según el contexto— identidad.

δj,n: delta de Kronecker (esto es, δj,n= 1 si j = n y 0 en otro caso).

Mm(C): conjunto de las matrices cuadradas complejas de orden m.

1. Potencias de una matriz

1.1. Sucesiones complejas linealmente recurrentes

Definición 1. Una sucesión (an) ∈ CN se dice linealmente recurrente si existen k números complejos c0, c1, . . . , ck−1tales que an+k= c0an+c1an+1+· · ·+ck−1an+k−1

para todo n ∈ N; es decir,

an+k− cn+k−1an+k−1− · · · − c1an+1− c0an= 0, para todo n ∈ N. (1) (Obsérvese que la sucesión nula, (0), es linealmente recurrente.)

Si en el espacio vectorial de las sucesiones complejas, CN, se define el operador lineal

E : CN→ CN

como E((an)) = (an+1), para toda (an) ∈ CN, haciendo las identificaciones E0 = I y c0I = c0, (1) se puede escribir como

(Ek− ck−1Ek−1− · · · − c1E − c0)((an)) = (0).

(5)

Si llamamos p(E) = Ek− ck−1Ek−1− · · · − c1E − c0, resulta obvio que la defi- nición 1 se puede expresar en la siguiente forma equivalente:

Definición 2. Una sucesión (an) ∈ CN se dice linealmente recurrente si existe p(z) ∈ C[z] de grado k, no nulo y mónico, tal que p(E)((an)) = (0).

De p(E) se dice que es un polinomio anulador de (an) —todo polinomio en E, no necesariamente mónico, que anule a (an) se dirá polinomio anulador de (an)—.

Cualquier múltiplo de p(E) es obviamente también un polinomio anulador de (an).

En realidad, como p(E)((an)) = (0) equivale a decir que (an) ∈ CNes solución de la ecuación en diferencias p(E)((xn)) = xn+k−cn+k−1xn+k−1−· · ·−c1xn+1−c0xn= 0, puede darse la siguiente definición, equivalente a las dos anteriores:

Definición 3. Una sucesión (an) ∈ CNse dice linealmente recurrente si es solución de alguna ecuación en diferencias lineal homogénea de coeficientes constantes —y no todos nulos, obviamente—.

Definición 4. Sea (an) ∈ CNlinealmente recurrente. Se llama polinomio mínimo de (an) ∈ CN al polinomio con coeficientes complejos m(E), no nulo y mónico, tal que m(E)((an)) = (0) y m(E) divide a cualquier otro polinomio anulador de (an) ∈ CN. La demostración de que siempre existe tal polinomio mínimo no es difícil. Con la indicación de que se puede elaborar empleando el algoritmo de la división y razo- nando después por reducción al absurdo, la encomendamos al curioso lector.

El siguiente lema se demuestra fácilmente a partir de la ecuación de recurrencia.

Lema 1. Sea p(E) ∈ C[E] no nulo, mónico y de grado k ≥ 1. Se verifica que dos sucesiones (an) y (bn) pertenecientes a Ker(p(E)) son iguales si, y sólo si, son iguales sus k primeros términos.

El núcleo del operador p(E), denotado por Ker p(E), es un subespacio de CN. El siguiente teorema informa sobre su dimensión.

Teorema 1. Ker p(E) es isomorfo a Ck y, por tanto, dim Ker p(E) = k.

Demostración. Basta ver que la aplicación f : Ker p(E) → Ck definida por f ((xn)) = (x1, . . . , xk), para toda (xn) ∈ Ker p(E),

es un isomorfismo de espacios vectoriales. Que es biyectiva es consecuencia inmediata del lema 1. Que es lineal es una mera comprobación.

El teorema 1 indica la dimensión de Ker p(E), pero nuestro objetivo es encontrar un método para obtener el término general explícito de cualquier sucesión linealmen- te recurrente; por ello, necesitamos encontrar bases de Ker p(E) cuyos elementos sean sucesiones con término general explícito conocido. A tal fin va encaminado el siguien- te apartado. Pero antes, y con el fin de facilitar la escritura, convengamos en que la expresión polinomio p(E) equivalga a la más rigurosa, pero más pesada, operador p(E), donde p(z) es un polinomio con coeficientes complejos. En general, entende- remos que cualquier afirmación de carácter polinómico sobre el operador p(E) se refiere, en rigor, al polinomio p(z).

(6)

1.2. Base de Ker p(E)

Consideremos un operador polinómico p(E), mónico de grado k ≥ 1, en el espa- cio CN. Sea su factorización en factores irreducibles

p(E) = Ek0(E − r1)k1· · · (E − rh)kh (con los rj no nulos y distintos entre sí).

Llamemos qj(E) = (E − rj)kj, para 0 ≤ j ≤ h, donde r0= 0. Entonces

Ker p(E) =

h

M

j=0

Ker qj(E),

luego para hallar una base de Ker p(E) basta hallar bases de Ker qj(E) para 0 ≤ j ≤ h y unirlas. Veamos cómo encontrar estas bases.

A) Base de Ker q0(E).

Dado que

Ker q0(E) = {(an) : (an+k0) = (0)}, el conjunto

{(δj,n) : j = 1, . . . , k0}

es una base de Ker q0(E). La demostración es consecuencia inmediata del teorema 1.

B) Base de Ker qj(E) para 0 < j ≤ h.

Demostraremos que el conjunto de sucesiones

Bj = {(rjn), (nrnj), . . . , (nkj−1rjn)}

es una base de Ker qj(E).

Puesto que el cardinal de Bjes kj, y por el teorema 1 se tiene dim Ker qj(E) = kj, basta demostrar que Bj ⊂ Ker qj(E) y que los elementos de Bj son linealmente independientes. Sea pues (ntrjn) ∈ Bj; es decir, 0 ≤ t < kj.

Demostrar (ntrnj) ∈ Ker qj(E) equivale a probar que la sucesión (ntrnj) es anulada por qj(E) = (E −rj)kj. Pero se puede demostrar algo más general, a saber: cualquier sucesión (s(n)rnj), con s(z) ∈ C[z] de grado menor que kj, es anulada por (E − rj)kj.

Si s(n) = 0, la afirmación es trivialmente verdadera.

Supongamos s(n) 6= 0 y apliquemos (E − rj) a la sucesión (s(n)rjn):

(E − rj)((s(n)rjn)) = (s(n + 1)rn+1j − s(n)rjn+1) = ((s(n + 1) − s(n))rjrnj = (s1(n)rnj), siendo s1(n) = (s(n + 1) − s(n))rj.

Por tanto, o bien s1(n) = 0, o bien grado(s1(n)) = grado(s(n)) − 1; en el primer caso, ya estaría demostrado; en el segundo, aplicando (E − rj) a (s1(n)rjn),

(E − rj)((s1(n)rnj)) = ((s1(n + 1) − s1(n))rjrjn) = (s2(n)rnj) = (E − rj)2((s(n)rjn)), donde s2(n) = (s1(n + 1) − s1(n))rj, y tendremos que, o bien s2(n) = 0, en cuyo caso ya estaría demostrado, o bien grado(s2(n)) = grado(s1(n)) − 1 = grado(s(n)) − 2;

(7)

aplicando sucesivamente el operador (E − rj), obtenemos las sucesiones polinómicas sj(n), para j = 1, 2, . . . , kj− 1; si alguna de ellas es nula, ya estaría demostrado; en caso contrario, tendríamos

(E − rj)kj((s(n)rnj)) = (E − rj)((skj−1(n)rnj)) = (skj(n)rnj),

donde skj(n) = (skj−1(n+1)−skj−1(n))rj. Y, o bien skj(n) = 0, o bien grado(skj(n)) = grado(s(n)) − kj. Pero grado(s(n)) < kj, luego la única posibilidad es skj(n) = 0, y por tanto (E − rj)kj((s(n)rjn)) = (0). Esto prueba que Bj⊂ Ker qj(E).

Sólo falta por demostrar que los elementos de Bj son linealmente independien- tes. Para ello, consideremos una combinación lineal con coeficientes escalares de los elementos de Bj igualada a cero

α1 rnj + · · · + αkj nkj−1rnj = (0) y escribámosla en la forma

α1+ α2n + · · · + αkjnkj−1

rjn = (0).

Como rj 6= 0, también rnj 6= 0 para todo n = 1, 2, . . . , luego α1+ α2n + · · · + αkjnkj−1 = 0 para todo n = 1, 2, . . . , de donde se deduce α1= α2= · · · = αkj = 0.

Por tanto, Bj es base de Ker qj(E).

1.3. Término general de una sucesión linealmente recurrente

Ahora estamos en disposición de exponer un método para encontrar el término general explícito de una sucesión linealmente recurrente en función de las raíces de un polinomio anulador, p(E), de la misma. Distinguimos los tres casos que siguen.

A) Si (an) ∈ Ker p(E), 0 no es raíz de p(E), grado p(E) = k y p(E) = (E − r1)k1· · · (E − rh)kh es su factorización en factores primos, entonces, según según se desprende del apartado B de la subsección 1.2,

an= q1(n)r1n+ · · · + qh(n)rnh

para n ∈ N, siendo qj(n) un polinomio en n de grado menor que kj, para j = 1, . . . , h.

Estos polinomios pueden hallarse dando a n los valores 1, . . . , k, con lo que se obtiene el siguiente sistema lineal k × k:

q1(1)r1+ · · · + qh(1)rh= a1, q1(2)r21+ · · · + qh(2)rh2= a2,

· · · q1(k)r1k+ · · · + qh(k)rhk= ak.

Las incógnitas son qj(l) , j = 1, . . . , h, l = 1, . . . , k, y por el mismo apartado B de la subsección 1.2, el sistema ha de ser necesariamente compatible y determinado.

(8)

B) Si, por el contrario, 0 es raíz de p(E) con multiplicidad k0, y r1, . . . , rh son las raíces, no nulas, de p(E), con multiplicidades k1, . . . , kh, entonces, según lo visto en la subsección 1.2, se obtendrá una expresión de la forma

an= q1(n)r1n+ · · · + qh(n)rnh

válida para todo n > k0, donde qj(n) es un polinomio en n de grado menor que kj, j = 1, . . . , h, y pueden ser hallados dando a n los valores k0+ 1, . . . , k, con lo que se obtiene un sistema lineal (k − k0) × (k − k0) compatible y determinado.

Estos dos casos A y B pueden fusionarse en uno solo si se define k0de esta forma:

a) Si p(0) 6= 0, entonces k0= 0.

b) Si p(0) = 0, entonces k0 es la multiplicidad de 0 como raíz de p(E).

C) El caso en que la única raíz de p(E) es cero es trivial, pues entonces la sucesión es nula desde un término en adelante: an+k= 0 para n ∈ N.

Naturalmente, cuanto menor sea el grado del polinomio anulador de la sucesión, más cómoda resultará la aplicación del método. Por tanto, lo ideal sería disponer del polinomio mínimo, que no siempre es fácil de hallar antes de obtener el término general explícito de la sucesión.

Pero, eso sí, una vez determinado el término general explícito de una sucesión linealmente recurrente (an), habremos obtenido su polinomio mínimo, pues si

an = q1(n)r1n+ · · · + qh(n)rnh,

válida para n = k0 + 1, k0+ 2, k0+ 3, . . . , donde qj(n) es un polinomio no nu- lo en n de grado kj, para j = 1, . . . , h, entonces el polinomio mínimo de (an) es Ek0(E − r1)k1+1· · · (E − rh)kh+1.

El concepto de sucesión linealmente recurrente de números complejos que se acaba de estudiar puede generalizarse, lo que nos permitirá considerar sucesiones linealmente recurrentes de vectores. De esto se ocupa el siguiente apartado.

1.4. Sucesiones vectoriales linealmente recurrentes Sea V un espacio vectorial complejo de dimensión finita m.

Definición 5. Una sucesión de elementos de V , (vn) ∈ VN, se dice linealmente recurrente si existen k números complejos c0, . . . , ck−1 tales que

vn+k= c0vn+ c1vn+1+ · · · + ck−1vn+k−1

para todo n ∈ N.

Llamando E al operador lineal definido en VN por E ((xn)) = (xn+1), para (xn) ∈ VN, la igualdad anterior se puede escribir en la forma

(Ek− ck−1Ek−1− · · · − c1E − c0I)((vn)) = (0), para toda (vn) ∈ N.

Y llamando p(E) = Ek − ck−1Ek−1− · · · − c1E − c0 —al igual que hicimos en el caso escalar, escribimos c0 en lugar de c0I—, se tiene p(E)((vn)) = (0). Por tanto, la definición 5 es equivalente a la siguiente:

(9)

Definición 6. Una sucesión (vn) ∈ VN se dice linealmente recurrente si existe un polinomio, no nulo y mónico, p(E) ∈ C[E] tal que p(E)((vn)) = (0).

De forma análoga al caso escalar, se define también el concepto de polinomio mínimo de una sucesión vectorial linealmente recurrente.

El eslabón de enlace con las sucesiones escalares linealmente recurrentes, estu- diadas en el apartado anterior, es el siguiente:

Lema 2. Sea B = {e1, . . . , em} una base de V , y, para x ∈ V , denotemos por x(j) la componente j-ésima de x en dicha base. En estas condiciones, una sucesión (vn) ∈ VN es linealmente recurrente si, y sólo si, lo son las sucesiones escalares (vn(j)), para j = 1, . . . , m. Aún más, si p(E) anula a (vn) ∈ VN, entonces p(E) anula a (vn(j)) para j = 1, . . . , m; recíprocamente, si p(E) anula a (vn(j)) para j = 1, . . . , m, entonces p(E) anula a (vn) ∈ VN.

Demostración. Tal vez no esté de más aclarar, o recordar, que si pj(E) anula a (vn(j)) para j = 1, . . . , m, y p(E) es un múltiplo común de p1(E), . . . , pm(E), entonces p(E) anula a (vn(j)) para j = 1, . . . , m.

Supongamos que la sucesión (vn) ∈ VN es linealmente recurrente; por tanto, existe un polinomio p(E) anulador de la misma. Escribamos

p(E) = Ek+ ck−1Ek−1+ · · · + c1E + c0. Entonces

vn+k+ cn+k−1vn+k−1+ · · · + c1vn+1+ c0vn= 0,

para todo n ∈ N. Esta igualdad vectorial es equivalente a las m igualdades escalares (vn+k+ cn+k−1vn+k−1+ · · · + c1vn+1+ c0vn) (j) = 0, j = 1, . . . , m, para todo n ∈ N. Por tanto,

vn+k(j) + cn+k−1vn+k−1(j) + · · · + c1vn+1(j) + c0vn(j) = 0, j = 1, . . . , m, para todo n ∈ N. Luego p(E) anula a (vn(j)) para j = 1, . . . , m.

Recíprocamente, supongamos que (vn(j)) es linealmente recurrente para j = 1, . . . , m; y, por lo tanto, que existe un polinomio p(E) = Ek + ck−1Ek−1+ · · · + c1E + c0 que anula a (vn(j)), para j = 1, . . . , m. Entonces

(vn+k+ cn+k−1vn+k−1+ · · · + c1vn+1+ c0vn) (j) = 0, j = 1, . . . , m, para todo n ∈ N. Luego

vn+k+ cn+k−1vn+k−1+ · · · + c1vn+1+ c0vn= 0, para todo n ∈ N. Es decir, p(E) anula a (vn) ∈ VN.

Como veremos a continuación, este lema permite, con demostraciones análogas, la generalización del lema 1 y del teorema 1 al caso vectorial que nos ocupa.

(10)

Lema 3. Sea p(E) ∈ C[E] no nulo, mónico y de grado k ≥ 1. Se verifica que dos sucesiones (vn) , (wn) ∈ VN son iguales si, y sólo si, son iguales sus k primeros términos.

Teorema 2. Ker p(E) es isomorfo a Ckm, y por tanto dim Ker p(E) = km.

Demostración. Consideremos f : Ker p(E) → (Ker p(E))m definida por f ((vn)) = ((vn(1)) , . . . , (vn(m))) ,

para toda (vn) ∈ Ker p(E). Demostraremos que f es un isomorfismo.

Por la unicidad de la representación de vectores respecto de una base, f es efec- tivamente una aplicación, y, por el lema 2, ((vn(1)) , . . . , (vn(m))) ∈ (Ker p(E))m para (vn) ∈ Ker p(E).

El lema 3 implica que f es inyectiva. También es sobreyectiva pues, dado ((a1,n), . . . , (am,n)) ∈ (Ker p(E))m,

si definimos vn = (a1,n, . . . , am,n) ∈ V, el lema 2 prueba que (vn) ∈ Ker p(E), y es evidente que

f ((vn)) = ((a1,n), . . . , (am,n)).

La linealidad de f es inmediata.

Así pues, Ker p(E) es isomorfo a (Ker p(E))m, luego tienen la misma dimensión.

Como, según el teorema 1, dim Ker p(E) = k, llegamos a dim Ker p(E) = dim (Ker p(E))m= km.

Con el fin de simplificar la notación, a partir de aquí supondremos V = CN, con lo cual el teorema 2 nos permitirá escribir

Ker p(E) = Ker p(E) × · · · × Ker p(E) = (Ker p(E))m. 1.5. Base de Ker p(E)

Vamos a proceder de manera análoga al caso escalar. Consideremos un operador polinómico p(E), mónico y de grado k ≥ 1, en el espacio VN. Según la naturaleza de las raíces de p(E), se pueden presentar tres casos.

A) Supongamos que p(E) sólo tiene la raíz 0, es decir, p(E) = Ek. Ya vimos, en el correspondiente caso escalar, que

{(δj,n) : j = 1, . . . , k}

es una base de Ker p(E). Puesto que

Ker p(E) = Ker p(E) × · · · × Ker p(E) = (Ker p(E))m, podemos concluir que

 (0), . . . , (0), (δj,n)l, (0), . . . , (0) : j = 1, . . . , k; l = 1, . . . , m

(11)

es una base de Ker p(E).

B) Supongamos que todas las raíces de p(E) son distintas de 0, y sea

p(E) = (E − r1)k1· · · (E − rh)kh

su factorización completa en C[E], de modo que k1+ · · · + kh= k. Ya vimos que el conjunto

B = {(rn1), (nrn1), . . . , (nk1−1rn1), . . . , (rnh), (nrnh), . . . , (nkh−1rnh)}

es una base de Ker p(E). De nuevo, considerando que

Ker p(E) = Ker p(E) × · · · × Ker p(E) = (Ker p(E))m, obtendremos la siguiente base de Ker p(E):

n(0) , . . . , (0), nsrnj

l, (0), . . . , (0)

: j = 1, . . . , h; s = 0, 1, . . . , kj− 1; l = 1, . . . , mo .

C) Supongamos que 0 es raíz de p(E) con multiplicidad k0, y sean r1, . . . , rh sus raíces no nulas, con multiplicidades respectivas k1, . . . , kh. En el caso escalar, habíamos visto que el conjunto

{(δl,n) : l = 1, . . . , k0} ∪

nlrnj : j = 1, . . . , h; l = 0, . . . , kj− 1

es una base de Ker p(E). Por tanto, se obtiene una base de Ker p(E) uniendo sim- plemente los conjuntos

 (0) , . . . , (0), (δj,n)l, (0), . . . , (0) : j = 1, . . . , k0; l = 1, . . . , m y

n

(0) , . . . , (0), nsrnj

l, (0), . . . , (0)

: j = 1, . . . , h; s = 0, 1, . . . , kj− 1; l = 1, . . . , mo .

1.6. Término general de una sucesión vectorial linealmente recu- rrente

Ahora, al igual que se hizo en el caso escalar, estamos preparados para exponer un procedimiento para hallar el término general explícito de una sucesión vectorial linealmente recurrente, conocido un polinomio anulador de la misma y sus raíces.

Sea, pues, (vn) ∈ Ker p(E). Si p(0) 6= 0, sea

p(E) = (E − r1)k1· · · (E − rh)kh su factorización completa en C[E]. Escribamos

(vn) = ((vn(1)) , . . . , (vn(m))) , para n ∈ N.

(12)

Por el lema 2, (vn(j)) ∈ Ker p(E), para j = 1, . . . , m. Por tanto, según se dedujo en el correspondiente caso escalar, el término general de la sucesión (vn(j)) es de la forma

vn(j) = pj,1(n)rn1 + · · · + pj,h(n)rnh=

h

X

l=1

pj,l(n)rnl,

para todo n ∈ N, siendo pj,l(n), para j = 1, . . . , m y l = 1, . . . , h, un polinomio en n, de grado menor que kl. Sea entonces

pj,l(n) = c(0)j,l + c(1)j,ln + c(2)j,ln2+ · · · + c(kj,ll−1)nkj−1, con lo cual

vn(j) =

h

X

l=1

c(0)j,l + c(1)j,ln + c(2)j,ln2+ · · · + c(kj,ll−1)nkj−1

rln, j = 1, . . . , m.

Pero

vn = (p1,1(n)r1n+ · · · + p1,h(n)rnh, . . . , pm,1(n)r1n+ · · · + pm,h(n)rnh) , expresión que se puede escribir en la forma

vn= (p1,1(n), . . . , pm,1(n)) r1n+ · · · + (p1,h(n), . . . , pm,h(n)) rhn. Si ahora llamamos

qj(n) =

c(0)1,j, . . . , c(0)m,j +

c(1)1,j, . . . , c(1)m,j

n + · · · +

c(k1,jj−1), . . . , c(km,jj−1) nkj−1,

para j = 1, . . . , h, se deduce que el término general de la sucesión (vn) es de la forma vn= q1(n)rn1 + · · · + qh(n)rhn,

para todo n ∈ N, donde qj(n), j = 1, . . . , h, es un polinomio vectorial en n de grado menor que kj —llamaremos polinomio vectorial a un polinomio cuyos coeficientes son vectores de V —, los cuales pueden ser hallados dando a n los valores 1, . . . , k para plantear el sistema lineal vectorial k × k

q1(1)r1+ · · · + qh(1)rh= v1, q1(2)r12+ · · · + qh(2)r2h= v2,

· · · q1(k)rk1+ · · · + qh(k)rkh= vk.

Este sistema es, en virtud del apartado B de la subsección 1.5, compatible y deter- minado.

En caso de ser 0 raíz de p(E), con multiplicidad k0, y r1, . . . , rh las raíces no nulas de p(E), con multiplicidades respectivas k1, . . . , kh, se obtendrá una expresión del mismo tipo,

vn= q1(n)rn1 + · · · + qh(n)rhn,

(13)

donde qj(n) es un polinomio vectorial en n de grado menor que kj, pero con la importante diferencia de que será válida para n > k0; se obtendrá dando a n los valores k0+1, . . . , k y resolviendo el sistema vectorial lineal de orden (k−k0)×(k−k0) así planteado.

Observemos que tanto las incógnitas —los coeficientes vectoriales de los qj(n)—

como los términos independientes son vectores. Esta forma vectorial de enfocar el problema simplifica los cálculos notablemente, como se podrá apreciar en los ejem- plos de potencias de matrices.

Si 0 es la única raíz de p(E), entonces, simplemente, la sucesión (vn) será nula desde un cierto término en adelante.

1.7. Potencias de una matriz cuadrada

Puesto que Mm(C) es un espacio vectorial complejo de dimensión finita m2, todo cuanto se acaba de exponer sobre sucesiones vectoriales linealmente recurrentes es aplicable en Mm(C).

Sea A ∈ Mm(C). Nos proponemos hallar una expresión explícita para An, para n ∈ N ∪ {0}. La clave está en el teorema de Cayley-Hamilton:

Toda matriz cuadrada satisface a su polinomio característico.

Sea pues p(x) = |xI − A| = xm+ am−1xm−1 + · · · + a1x + a0 el polinomio característico de A. Entonces

p(A) = Am+ am−1Am−1+ · · · + a1A + a0I = 0

(el cero del segundo miembro se refiere, claro es, a la matriz nula de Mm(C)).

Multiplicando por An se obtiene

An+m+ am−1An+m−1+ · · · + a1An+1+ a0An = 0,

para todo n ∈ N∪{0}. Así pues, el polinomio p(E) = Em+am−1Em−1+· · ·+a1E+a0 anula a la sucesión de potencias de A: (An) ∈ Ker p(E). Dicho de otro modo, la sucesión de matrices (An) es linealmente recurrente y p(E) es un polinomio anulador de la misma. Podemos, por tanto, aplicar nuestro método para hallar su término general explícito.

Recuérdese que habíamos definido m0 así: si p(0) 6= 0, entonces m0 = 0, y si p(0) = 0 entonces m0es la multiplicidad de 0 como raíz de p(x).

Distinguimos dos casos:

1. Si 0 es la única raíz de p(x) —o, lo que es equivalente, que m0 = m—, entonces p(x) = xm y p(E) = Em; luego An es nula para todo n ≥ m: An+m = 0 para n = 0, 1, 2, . . . .

2. Sean r1, . . . , rh las raíces no nulas de p(x) —es decir, los autovalores no nulos de A—, con multiplicidades respectivas m1, . . . , mh. Entonces, como ya vimos en el caso vectorial general, se obtendrá una expresión de la forma

An= Q1(n)rn1 + · · · + Qh(n)rhn,

(14)

válida para n = m0, m0+ 1, m0+ 2, . . . , y donde Qj(n), j = 1, . . . , h, es un polinomio en n, de grado menor que mj y con coeficientes matriciales; para determinarlos, se plantea un sistema lineal de orden (m−m0)×(m−m0) dando a n los valores m0, m0+ 1, . . . , m − 1, sistema que tiene la particularidad de que tanto las incógnitas como los términos independientes son matrices. Lo veremos en acción en los siguientes ejemplos.

1.8. Ejemplos de potencias de una matriz cuadrada Ejemplo 1. Sea A = 1 −2

1 −1



. Sus autovalores son r1 = i y r2 = −i, con multiplicidades m1= m2= 1. Por tanto, An= Xin+ Y (−i)n, para n = 0, 1, 2, . . . . Damos a n los valores 0 y 1, obteniendo el sistema

X + Y = I, iX − iY = A.

La matriz del sistema es M =1 1 i −i



, y su inversa es M−1=

1 2i2

1 2

i 2

 . Luego

X Y



=

1 22i

1 2

i 2

  I A

 .

Por tanto, X = 12(I − iA) = 121 − i 2i

−i 1 + i



, Y = 12(I + iA) = 121 + i −2i i 1 − i

 . Resultando, pues,

An= 1 2

1 − i 2i

−i 1 + i

 in+1

2

1 + i −2i i 1 − i

 (−i)n, para n = 0, 1, 2, . . . .

Ejemplo 2. Sea A =

20 0 0 0

4 22 1 −7

4 2 21 −7

−4 −2 −1 27

. Tiene los autovalores r1 = 20 y

r2 = 30, con multiplicidades m1 = 3, m2 = 1. Tendremos por tanto una expresión para sus potencias de la forma An = (Xn2+Y n+Z)·20n+U ·30n, para n = 0, 1, 2, . . . . Dando a n los valores 0, 1, 2, 3, se obtiene el sistema matricial

Z + U = I, 20X + 20Y + +20Z + 30U = A, 1600X + 800Y + 400Z + 900U = A2, 72000X + 24000Y + 8000Z + 27000U = A3.

(15)

Si denotamos M a la matriz del sistema y calculamos su inversa M−1, tenemos

M =

0 0 1 1

20 20 20 30

1600 800 400 900

72000 24000 8000 27000

, M−1=

3

215 800780001

3

2207 8001780003 9 −65 50310001

−8 6535 10001

.

También es necesario calcular A2 y A3 para obtener la solución del sistema, que es

X Y Z U

= M−1

I A A2 A3

.

Si el lector se siente con ánimos, puede comprobar que se obtiene

X = 0, Y = 0, Z =

1 0 0 0

25 45101 107

2515 109 107

2 5

1 5

1 10

3 10

, U =

0 0 0 0

2 5

1 5

1

10107

2 5

1 5

1

10107

2515101 107

.

Por tanto,

An=

1 0 0 0

25 45101 107

2515 109 107

2 5

1 5

1 10

3 10

· 20n+

0 0 0 0

2 5

1 5

1

10107

2 5

1 5

1

10107

2515101 107

· 30n,

para n = 0, 1, 2, . . .

En vista del resultado obtenido, nótese que el polinomio mínimo de A es (x − 20)(x − 30), un divisor propio del polinomio característico p(x) = (x − 20)3(x − 30).

Ejemplo 3. Sea A =

1 4 1

0 −4 −2

0 4 2

. Los autovalores son 0, con multiplicidad m0 = 1, y r1 = 1, r2 = −2, con multiplicidades m1 = 1, m2 = 1. Puesto que cero es autovalor de A con multiplicidad 1, la expresión que se obtenga para An va a ser válida para n = 1 (= m0), 2, 3, . . . , pero no para n = 0. Sabemos ya que ha de ser de la forma

An = X · 1n+ Y · (−2)n= X + Y · (−2)n

y que se debe dar a n los valores m0= 1, m − 1 = 2, con lo que se obtiene el sistema X − 2Y = A,

X + 4Y = A2.

(16)

La matriz del sistema y su inversa son M =1 −2

1 4



y M−1=1 6

 4 2

−1 1

 ,

por tanto

X Y



= 1 6

 4 2

−1 1

  A A2



=

 2

3A +13A2

16A +16A2

 .

Operando, se obtiene

An= X + Y (−2)n=

1 (−2)n+1 −1 − (−2)n 0 2(−2)n (−2)n 0 (−2)n+1 −(−2)n

, para n = 1, 2, . . . .

2. Funciones matriciales analíticas

2.1. Series de potencias matriciales

Vamos a estudiar funciones f : Mm(C) → Mm(C) definidas por series de poten- cias matriciales, a las cuales hemos llamado funciones matriciales analíticas. Así, si f : C → C es una función definida por la serie de potencias

f (z) = a0+ a1z + a2z2+ · · · =

X

n=0

anzn,

se define la función matricial, que seguiremos llamando f , siguiente:

f (X) =

X

n=0

anXn, para X ∈ Mm(C). (2)

Aunque, por motivos tanto de economía en la escritura como por no constituir una restricción real, estamos suponiendo implícitamente que f es una función analítica en 0, todo cuanto se expondrá a continuación seguiría siendo válido si considerásemos que f es analítica en cualquier punto a ∈ C, y por tanto admite un desarrollo en serie de potencias de la forma f (z) =P

n=0an(z − a)ncon la única salvedad de que en tal caso la serie matricial correspondiente sería, lógicamente,P

n=0an(X − aI)n. Dotando previamente al espacio Mm(C) de una norma matricial —que lo con- vertirá en un espacio de Banach—, los conceptos relativos a funciones escalares, como límite, continuidad, diferenciabilidad e integrabilidad, pueden extenderse sin dificultad excesiva a funciones matriciales. De hecho, algunos de ellos consisten en el concepto en cuestión referido a cada elemento de la matriz.

Precisamente así se define la convergencia de una serie matricial: si Xn∈ Mm(C) para todo n ∈ N, entonces P

n=0Xn se dice convergente si lo son cada una de las series escalaresP

n=0Xn[j, l], para j, l = 1, . . . , m. Esta definición es compatible con

(17)

la que resulta eligiendo cualquier norma matricial k·k —recuérdese que en un espacio vectorial de dimensión finita todas las normas son equivalentes— y definiendo la convergencia deP

n=0Xncomo equivalente a la de la sucesión de las sumas parciales en el espacio (Mm(C), k · k).

Existen otros medios para definir una función matricial a partir de una función escalar f : C → C. Por ejemplo, también sería bastante razonable definir

f (X) = (f (xi,j)) para toda X = (xi,j) ∈ Mm(C).

Pero esta definición no siempre es conveniente. Por ejemplo, si la exponencial fuese definida por ese procedimiento, sus propiedades no se parecerían demasiado a las de la función exponencial compleja. Debido a ello, es preferible hacerlo como en (2), es decir, mediante la serie de potencias

eX=

X

n=0

1

n!Xn = I + X + 1

2!X2+ 1

3!X3+ · · · .

Esta función exponencial matricial tiene, con las debidas modificaciones y precisio- nes, propiedades que la emparentan con la exponencial compleja de la que procede.

Por ejemplo, si las matrices A y B de Mm(C) conmutan, entonces eA+B = eAeB. Expondremos un método para obtener en forma recurrente la suma de una serie de potencias matricial —en el caso, naturalmente, de que la serie sea convergente—.

Después se aplicará, en particular, a la exponencial matricial. También, como curio- sidad, pero también como muestra de las posibilidades y limitaciones del método, lo aplicaremos para hallar una raíz cuadrada de una matriz, supuesto, claro es, que exista.

Recordemos que se define el radio espectral de una matriz A como el máximo de los valores absolutos de los autovalores de A. Se suele denotar por ρ(A). Así pues,

ρ(A) = m´ax{|r| : r autovalor de A}.

Haremos uso del siguiente teorema:

Teorema 3. Sea R > 0 el radio de convergencia de la serie escalar f (z) =P n=0anzn, y sea ρ(X) el radio espectral de X ∈ Mm(C). Se verifica: si ρ(X) < R, entonces la serie matricialP

n=0anXn converge.

Este teorema sobre la convergencia de una serie de potencias matricial es conocido y puede encontrarse en muchos textos. Suele demostrarse mediante el criterio de Cauchy—esto es, por definición de espacio completo, una sucesión converge si y sólo si es de Cauchy— en el espacio vectorial de las matrices complejas m × m, Mm(C), dotado de una norma k · k, que le confiere estructura de espacio de Banach.

A menudo, la condición suficiente de convergencia del enunciado del teorema —esto es, ρ(X) < R— se formula de este otro modo: kXk < R para alguna norma de matriz k · k. Pero es asimismo un hecho conocido que ambos supuestos son equivalentes.

Nosotros damos a continuación una demostración alternativa que no precisa del criterio de Cauchy, ya que, basándonos en la expresión de las potencias de una matriz obtenida en la primera sección de este artículo, reduciremos el problema de la convergencia de una serie matricial al de series de potencias escalares.

Referencias

Documento similar

Más que los programas tradicionales de liderazgo, responder estas tres preguntas determinará tu efectividad como líder del siglo XXI.. Son mujeres y hombres que no

Los cooperantes de Infantil y Audición y Lenguaje siguen en la línea de que los supervisores entusiasman a los alumnos para que comparen su pensamiento sobre la enseñanza con el

La invalidez en el MMPI por no respuestas no se considera criterio positivo (sólo se puede considerar tal posibilidad en caso de daño neurológico que justifique tal estilo

Las microalgas representan un importante soporte trófico para la acuicultura, tanto cualitativa como cuantitavamente, en diversos aspectos y especies objeto de cultivo.. Factores

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

“La unificación de la clasificación de empresas otorgada por las CC.AA.”, “La unificación de criterios en la acreditación de los servicios de prevención de riesgos

Conocido es el caso de Mortimer Ternaux, autor de una Historia de la Revolución, publicada en el siglo XIX, o el todavía más significativo de Edgar Quinet, quien hace «la crítica de

Solución. Por tanto la sucesión fa n g cumple la condición de Cauchy y, por tanto, es convergente. Este resultado también puede obtenerse sin necesidad de calcular la función suma.