• No se han encontrado resultados

Solución de Sistemas de Ecuaciones Lineales.

N/A
N/A
Protected

Academic year: 2021

Share "Solución de Sistemas de Ecuaciones Lineales."

Copied!
18
0
0

Texto completo

(1)

Soluci´on de Sistemas de Ecuaciones Lineales.

Jos´ e Mar´ıa Rico Mart´ınez Departamento de Ingenier´ıa Mec´ anica.

Universidad de Guanajuato, F. I. M. E. E.

Calle Tampico No. 912, Col. Bellavista.

CP 36730, Salamanca, Gto., M´ exico Tel. +52-464-6480911, Fax: +52-464-6472400.

E-mail: jrico@salamanca.ugto.mx

1 Introducci´ on

Estas notas tienen como objetivo presentar los conceptos fundamentales de la soluci´on de sistemas de ecuaciones lineales as´ı como los m´etodos computacionales mas eficientes para llevar a cabo la soluci´on de los sistemas de ecuaciones lineales. Es importante se˜nalar que algunos de los m´etodos empleados en la soluci´on de sistemas de ecuaciones lineales, durante la educaci´on media superior y en el curso previo de ´algebra lineal, a´un cuando son v´alidos, no son computacionalmente eficientes. Por ejemplo, la soluci´on de un sistema de 100 ecuaciones con 100 inc´ognitas no homogeneo por el m´etodo de Cramer, basado en determinantes, necesitaria, con las mas poderosas computadoras de la actualidad, una cantidad de tiempo mayor que la edad estimada del universo desde el ”Big Bang”. Si para resolver el sistema de ecuaciones se determina previamente la matriz inversa, tambi´en empleando determinantes, el tiempo necesario para resolver el sistema es semejante al anterior. Por lo tanto, si se reconoce que los m´etodos de elemento finito, en operaci´on, requieren la soluci´on de sistemas de 10, 000 ecuaciones con 10, 000 inc´ognitas, es evidente la necesidad de m´etodos mucho mas eficientes que el m´etodo de Cramer o la determinaci´on de la matriz inversa.

2 Establecimiento del problema y notaci´ on.

Un sistema de m ecuaciones lineales con n inc´ognitas no homogeneo es una expresi´on dada por la ecuaci´on (1)

a11x1+ a12x2+ a13x3+ . . . + a1nxn = b1 a21x1+ a22x2+ a23x3+ . . . + a2nxn = b2 ... ... ... ... ... ... ...

am1x1+ am2x2+ am3x3+ . . . + amnxn = bm (1) El sistema de ecuaciones puede escribirse en forma matricial como

⎢⎢

⎢⎣

a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ... ... ... ... ... am1 am2 am3 . . . amn

⎥⎥

⎥⎦

⎢⎢

⎢⎣ x1 x2 ... xm

⎥⎥

⎥⎦=

⎢⎢

⎢⎣ b1 b2 ... bm

⎥⎥

⎥⎦ o A x = b, (2)

(2)

donde la matrix A se conoce como la matriz de coeficientes del sistema, el vector x se conoce como el vector de inc´ognitas y el vector b se conoce como el vector de t´erminos independientes. Adem´as la matriz

Ab=

 A| b

se conoce como la matriz aumentada del sistema. Debe notarse que si se conoce la matriz aumentada del sistema, Ab, se conoce el sistema de ecuaciones lineales no homogeneo; adem´as, no es importante, en esta parte de las notas, si el n´umero de ecuaciones es igual, mayor o menor que el n´umero de inc´ognitas; o bi´en si las ecuaciones son o no linealmente independientes. Finalmente, el sistema dado por la ecuaci´on (3)

⎢⎢

⎢⎣

a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ... ... ... ... ... am1 am2 am3 . . . amn

⎥⎥

⎥⎦

⎢⎢

⎢⎣ x1 x2 ... xm

⎥⎥

⎥⎦=

⎢⎢

⎢⎣ 0 0 ... 0

⎥⎥

⎥⎦ o A x = 0, (3)

se conoce como el sistema de ecuaciones lineales homogeneas asociado al sistema original dado por la ecuaci´on (1) o la ecuaci´on (2).

Definici´on del problema. La soluci´on del sistema de ecuaciones lineales consiste en obtener el conjunto soluci´on del sistema; es decir, el conjunto formado por todas las posibles soluciones del sistema de ecuaciones lineales dado por la ecuaci´on (1) o, en forma matricial, por la ecuaci´on (2).

Definici´on: Rango de una Matriz. Dada una matriz A, el rango de la matriz es el n´umero de columnas (o filas) linealmente independientes.

Los siguientes resultados del ´algebra lineal son bien conocidos y permiten determinar si un sistema de ecuaciones lineales no homogeneo tiene soluci´on y cuales son las caracter´ısticas de esa soluci´on.

Teorema I. El sistema de ecuaciones dado por la ecuaci´on (2), con m ecuaciones y n inc´ognitas, tiene, al menos, una soluci´on si, y s´olo si,

Rango (A) = Rango(Ab). (4)

Si la condici´on dada por la ecuaci´on (4) se satisface, el sistema de ecuaciones es consistente, en caso contrario, el sistema de ecuaciones es inconsistente y no tiene soluci´on alguna.

Teorema II. El sistema de ecuaciones dado por la ecuaci´on (2), con m ecuaciones y n inc´ognitas, tiene soluci´on ´unica si, y s´olo si, es consistente y el rango de la matriz de coeficientes es igual al n´umero de inc´ognitas, n; es decir si, y s´olo si,

Rango (A) = Rango(Ab) y Rango (A) = n. (5)

De manera semejante, el sistema de ecuaciones dado por la ecuaci´on (2), con m ecuaciones y n inc´ognitas, tiene soluciones m´ultiples si, y s´olo si, es consistente y el rango de la matriz de coeficientes es menor al n´umero de inc´ognitas, n; es decir si, y s´olo si,

Rango (A) = Rango(Ab) y Rango (A) < n. (6)

A´un cuando es posible emplear m´etodos computacionales, como el empleo de programas de c´omputo de

´

algebra simb´olica, en la determinaci´on de las soluciones m´ultiples de sistemas de ecuaciones lineales que satis- facen la condici´on dada por la ecuaci´on (6). Los m´etodos num´ericos que se presentan en este curso tienen como objetivo la determinaci´on de la soluci´on ´unica de los sistemas de ecuaciones lineales que satisfacen la condici´on dada por la ecuaci´on (5). La figura 1 muestra la clasificaci´on de los sistemas lineales y los resultados que se obtienen en cada uno de esos casos.

3 Soluci´ on de sistemas de ecuaciones triangulares.

Un sistema de ecuaciones tiene forma triangular superior, cuando todos los elementos de su matriz de coeficientes por abajo de la diagonal principal son iguales a cero. En t´erminos matem´aticos, una matriz U y, por lo tanto,

(3)

Figure 1: Clasificaci´on y resultados de los diferentes sistemas de ecuaciones lineales.

el sistema de ecuaciones lineales asociado, Ux = b, es triangular superior si y s´olo si uij= 0 ∀ i > j.

De manera semejante, un sistema de ecuaciones tiene forma triangular inferior, cuando todos los elementos de su matriz de coeficientes por arriba de la diagonal principal son iguales a cero. En t´erminos matem´aticos, una matriz L y, por lo tanto, el sistema de ecuaciones lineales asociado, Lx = b, es triangular inferior si y s´olo si

lij = 0 ∀ i < j.

Finalmente, una matriz, T, se dice que es triangular unitaria si la matriz es triangular, superior o inferior, y los elementos de la diagonal principal son todos iguales a 1. En t´erminos de ecuaciones,

tii= 1, y {tij = 0 ∀ i > j o tij = 0 ∀ i < j} .

A menos que se indique lo contrario, en el resto de estas notas se supondr´a que los sistemas son consistentes, que el n´umero de ecuaciones es igual al n´umero de inc´ognitas y que las ecuaciones son linealmente independientes.

El primer y mas simple caso de soluci´on de sistemas de ecuaciones lineales ocurre cuando el sistema tiene forma triangular, ya sea triangular superior, vea ecuaci´on (7)

⎢⎢

⎢⎢

⎢⎣

u11 u12 u13 . . . u1n 0 u22 u23 . . . u2n 0 0 u33 . . . u3n ... ... ... ... ...

0 0 0 . . . unn

⎥⎥

⎥⎥

⎥⎦

⎢⎢

⎢⎢

⎢⎣ x1 x2 x3 ... xn

⎥⎥

⎥⎥

⎥⎦

=

⎢⎢

⎢⎢

⎢⎣ b1 b2 b3 ... bn

⎥⎥

⎥⎥

⎥⎦

o U x = b, (7)

o triangular inferior, vea ecuaci´on (8).

⎢⎢

⎢⎢

⎢⎣

l11 0 0 . . . 0 l21 l22 0 . . . 0 l31 l32 l33 . . . 0 ... ... ... ... ... ln1 ln2 ln3 . . . lnn

⎥⎥

⎥⎥

⎥⎦

⎢⎢

⎢⎢

⎢⎣ x1 x2 x3 ... xn

⎥⎥

⎥⎥

⎥⎦

=

⎢⎢

⎢⎢

⎢⎣ b1 b2 b3 ... bn

⎥⎥

⎥⎥

⎥⎦

o L x = b. (8)

(4)

Puede probarse que la consistencia del sistema y la igualdad entre el n´umero de inc´ognitas y el n´umero de ecuaciones se satisface, para una matriz triangular superior, cuando Rango (U) = Rango(U| b) = n, o en t´erminos de los elementos de la matriz

Rango (U) = nn

i=1

uii= 0. (9)

Si la matriz U satisface esas condiciones, se dice que es no-singular o invertible.

Similarmente la consistencia del sistema y la igualdad entre el n´umero de inc´ognitas y el n´umero de ecuaciones se satisface, para una matriz triangular inferior, cuando Rango (L) = Rango(L| b) = n, o en t´erminos de los elementos de la matriz

Rango (L) = n n i=1

lii= 0. (10)

Nuevamente, si la matriz L satisface esas condiciones, se dice que es no-singular o invertible.

3.1 Soluci´ on de un Sistema Triangular Superior.

La soluci´on de un sistema de ecuaciones triangular superior no homogeneo, vea ecuaci´on (7), que satisface la condici´on indicada por la ecuaci´on (9) es muy simple y est´a dada por

xi =

bi n

j=i+1uijxj

uii ∀ i = n, n − 1, . . . , 1. (11)

Debe notarse que la condici´on (9) implica necesariamente que uii = 0, ∀ i = 1, 2, . . . , n; por lo tanto, el algoritmo dado por la ecuaci´on (11) est´a bien definido. Este algoritmo, se conoce como sustituci´on inversa o

“backward”.

3.2 Soluci´ on de un Sistema Triangular Inferior.

La soluci´on de un sistema de ecuaciones triangular inferior no homogeneo, vea ecuaci´on (8), que satisface la condici´on indicada por la ecuaci´on (10) es muy simple y est´a dada por

xi=

bi i−1

j=1lijxj

lii ∀ i = 1, 2, . . . , n. (12)

Debe notarse que la condici´on (10) implica necesariamente que lii = 0, ∀ i = 1, 2, . . . , n; por lo tanto, el algoritmo dado por la ecuaci´on (11) est´a bien definido. Este algoritmo, se conoce como sustituci´on directa o

“forward”.

Teorema III. Sean L1y L2dos matrices triangulares inferiores del mismo orden, entonces la multiplicaci´on de las dos matrices L1· L2es tambi´en triangular inferior. Similarmente, si L1y L2son dos matrices triangulares inferiores unitaria del mismo orden, entonces la multiplicaci´on de las dos matrices L1· L2es tambi´en triangular inferior unitaria.

Prueba: Suponga que L1= [aij] y L2[bij] son dos matrices triangulares inferiores de orden n y sea L1· L2= [cij]. Entonces, se tiene que

cij =

n k=1

aikbkj.

Es suficiente probar que

cij = 0 ∀ i < j.

(5)

Considere 1≤ i < j ≤ n, entonces cij =

n k=1

aikbkj = ai,101,j+· · · + ai,j−10j−1,j+ 0i,jbj,j+ 0i,j+1bj+1,j+· · · + 0i,nbn,j= 0

Similarmente, si las matrices son triangulares inferiores unitarias, entonces son triangulares inferiores, y cij = 0 ∀ i < j, adem´as

cii=

n k=1

aikbki= ai,101,i+· · · + ai,i−10i−1,i+ 1i,i1i,i+ 0i,i+1bi+1,i+· · · + 0i,nbn,i= 1

Un resultado similar puede probarse para matrices triangulares superiores y matrices triangulares superiores unitarias.

3.3 El M´ etodo de Gauss-Jordan y la factorizaci´ on LU.

En esta secci´on se mostrar´a el m´etodo de Gauss-Jordan para la soluci´on de sistemas de ecuaciones lineales no homogeneas y la factorizaci´on L U de una matriz. El m´etodo de Gauss-Jordan consiste en convertir un sistema de ecuaciones lineales en un sistema equivalente de forma triangular superior, y a continuaci´on emplear el m´etodo de sustituci´on inversa para obtener la soluci´on del sistema empleando el m´etdo indicado en la ecuaci´on (11). Adem´as se mostrar´a que el m´etodo de Gauss-Jordan es equivalente a emplear la factorizaci´on LU de la matriz de coeficientes.

Considere el sistema mostrado en la ecuaci´on (2) y reproducido a continuaci´on A x = b,

si, de alguna manera, la matriz de coeficientes A se factoriza como A = L U entonces, el sistema original puede resolverse mediante la soluci´on de dos sistemas triangulares,

Ly = b y Ux = y de modo que A x = L U x = Ly = b, (13) que, como ya se indic´o, son muy simples de resolver.

Iniciemos el estudio del m´etodo de Gauss-Jordan y de la factorizaci´on LU con un ejemplo. Considere el siguiente sistema de ecuaciones lineales no homogeneo.

x1+ x2+ x3 = 6,

2 x1+ 4 x2+ 2 x3 = 16, (14)

−x1+ 5 x2− 4 x3 = −3.

En forma matricial, el sistema est´a dado por

⎣ 1 1 1

2 4 2

−1 5 −4

x1 x2 x3

⎦ =

⎣ 6 16

−3

⎦ o Ax = b (15)

Como se prueba en un curso introductorio de ´algebra lineal, el sistema puede analizarse considerando exclu- sivamente la matriz aumentada

 A| b

, dada por

 A| b

=

⎣ 1 1 1 6

2 4 2 16

−1 5 −4 −3

⎦ (16)

A fin de introducir ceros por debajo de la diagonal principal en la primera columna:

(6)

• Se suma a la segunda fila, la primera fila multiplicada por −2.

• Se suma a la tercera fila, la primera fila multiplicada por 1.

El resultado despu´es de este primer paso es

 A| b

1=

⎣ 1 1 1 6

0 2 0 4

0 6 −3 3

⎦ (17)

A fin de introducir ceros por debajo de la diagonal principal en la segunda columna:

• Se suma a la tercera fila, la segunda fila, de la nueva matriz, multiplicada por −3.

El resultado despu´es de este primer paso es

 A| b

2=

⎣ 1 1 1 6

0 2 0 4

0 0 −3 −9

⎦ (18)

El sistema de ecuaciones lineales es triangular superior y puede resolverse con el m´etodo indicado en la secci´on 3.1. De esta ecuaci´on es evidente la matriz U asociada al sistema triangular superior mostrado en la ecuaci´on (18), el resto de esta secci´on muestra como sistematizar este proceso, donde se encuentra la matriz L asociada a la descomposici´on L U y algunos de los problemas que pueden presentarse en este m´etodo.

3.3.1 Las Transformaciones de Gauss y el M´etodo de Gauss Jordan.

Considere el k ´esimo paso del proceso de eliminaci´on Gaussiana de una matriz,

 A| b

con m filas y n columnas.

Como se indic´o en la secci´on anterior, el caso m´as importante es cuando la matriz es la matriz aumentada de un sistema lineal de ecuaciones. Por lo que, usualmente n = m + 1. Entonces, se tiene

 A| b

k=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

ak1,1 ak1,2 · · · ak1,k ak1,k+1 · · · bk1 0 ak2,2 · · · ak2,k ak2,k+1 · · · bk2 ... ... . .. ... ... . .. ... 0 0 · · · akk,k akk,k+1 · · · bkk 0 0 · · · akk+1,k akk+1,k+1 · · · bkk+1

... ... . .. ... ... . .. ... 0 0 · · · akm,k akm,k+1 · · · bkm

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

(19)

Considere el vector columna, τk, con m elementos, dado por

k =



0, 0, . . . , 0, τk+1= akk+1,k

akk,k , . . . , τn= akm,k akk,k

T

, (20)

y el vector columna, k, con m elementos dado por

k = (0, 0, . . . , 1, . . . , 0, 0)T, (21) donde, el ´unico elemento diferente de cero, es igual a 1, est´a en la k-´esima posici´on.

(7)

Considere, ahora, la transformaci´on de Gauss definida a continuaci´on

Lk= Im×m− τkTk =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

1 0 · · · 0 · · · 0

0 1 · · · 0 · · · 0

... ... . .. ... . .. ...

0 0 · · · 1 0 0

0 0 · · · −akk+1,kak

k,k 0 0

... ... . .. ... . .. ...

0 0 · · · aakm,kk

k,k 0 · · ·

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

(22)

donde la ´unica columna que tiene elementos diferentes de 0 fuera de la diagonal principal es la k-´esima. Es importante notar que las matrices o transformaciones Lk son triangulares inferiores unitarias y no-singulares o invertibles, pues su determinante es, siempre, igual a 1.

Teorema IV. Considere una transformaci´on de Gauss dada por Lk = Im×m− τkTk, entonces la inversa de la transformaci´on de Gauss est´a dada por

L−1k = Im×m+ τkTk. Prueba: Realizando la multiplicaci´on se tiene que

L−1k Lk = 

Im×m+ τkTk 

Im×m− τkTk

= Im×m− τkTk + τkTk 

 τkTk 

kTk

= Im×m

 τkTk 

 τkTk

= Im×m (23)

pues, se puede observar que el producto

 τkTk 

 τkTk

es la matriz 0m×m. Premultiplicando la matriz

 A| b

k por la matriz Lk tiene como efecto, restar a la j-´esima fila, donde j varia de k + 1 hasta m, de la matriz

 A| b

k la k-´esima fila multiplicada por akk+1,kak

k,k asegurando de esa manera la eliminaci´on de los elementos en la k-´esima columna de la matriz

 A| b

k por debajo de la k-´esima fila. En t´erminos de ecuaciones se tiene que

 A| b

k+1= Lk

 A| b

k =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

ak+11,1 ak+11,2 · · · ak+11,k ak+11,k+1 · · · bk+11 0 ak+12,2 · · · ak+12,k ak+12,k+1 · · · bk+12 ... ... . .. ... ... . .. ... 0 0 · · · ak+1k,k ak+1k,k+1 · · · bk+1k 0 0 · · · 0 ak+1k+1,k+1 · · · bk+1k+1 ... ... . .. ... ... . .. ... 0 0 · · · 0 ak+1m,k+1 · · · bk+1m

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

(24)

De esa manera, el proceso de factorizaci´on LU, y el m´etodo de Gauss Jordan, avanza un paso adicional.

Debe notarse que el m´etodo de factorizaci´on LU, tal como se indic´o, puede fallar cuando el elemento ak,k de la matriz

 A| b

k es igual a 0, pues, en ese caso, el vector τ y, por consiguiente la transformaci´on de Gauss Lk, no pueden calcularse. Suponga por el momento, que el m´etodo procede sin problema, entonces el proceso

(8)

finaliza en el paso m− 1 y la matriz final A| b

mest´a dada por

 A| b

m=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

am1,1 am1,2 · · · am1,k am1,k+1 · · · am1,m bm1 0 am2,2 · · · am2,k am2,k+1 · · · am2,m bm2 ... ... . .. ... ... . .. ... ... 0 0 · · · amk,k amk,k+1 · · · bmk

0 0 · · · 0 amk+1,k+1 · · · amk+1,m bmk+1 ... ... . .. ... ... . .. ...

0 0 · · · 0 0 · · · amm,m bmm

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

. (25)

El proceso puede describirse como

 A| b

m= Lm−1

 A| b

m−1= Lm−1Lm−2

 A| b

m−2=· · · = Lm−1Lm−2· · · L2L1

 A| b

(26) o

L−11 L−12 · · · L−1m−2L−1m−1

 A| b

m =

 A| b

(27) Puesto que ya se mostr´o que la inversa de una transformaci´on de Gauss es tambien triangular inferior unitaria y que la multiplicaci´on de matrices triangulares inferiores unitarias es triangular inferior unitaria. Por lo tanto, es posible definir

L≡ L−11 L−12 · · · L−1m−2L−1m−1 (28)

Por otro lado, es evidente que la matrix

 A| b

m es triangular superior. Asi pues se ha llegado a la descom- posici´on LU, dada por 

A| b

= L U =

L−11 L−12 · · · L−1m−2L−1m−1  A| b

m (29)

Si como se sugiri´o al inicio de este an´alisis, la matriz

 A| b

es la matriz aumentada de un sistema de ecuaciones lineales no homogeneo, entonces el paso final consiste en resolver el sistema de ecuaciones cuando la matriz de coeficientes es triangular superior, un paso que ya se sabe es sencillo.

3.4 Condiciones Suficientes Para Llevar a Cabo la Descomposici´ on L U de una matriz M.

En esta secci´on se presentan las condiciones suficientes para llevar a cabo, sin problema alguno, la descomposici´on L U de una matriz A.

Definici´on: Submatriz Principal Delantera. Suponga que A es una matriz cuadrada de orden n; es decir A∈ n×n, con n≥ 2 y sea 1 ≤ k ≤ n. La submatriz principal delantera de orden k de A se define como la matriz Ak∈ k×k tal que

Ak[i, j] = A[i, j] ∀i, j = 1, 2, . . . k.

En palabras, los elementos de la submatriz principal delantera Ak son iguales a los elementos correspondientes de la matriz A para las primeras k filas y las primeras k columnas.

Teorema V. Suponga que A es una matriz cuadrada de orden n con n ≥ 2 y suponga que todas las submatrices principales delanteras de orden k; es decir Ak ∈ k×k para 1 ≤ k < n son no singulares o invertibles. Entonces, la matriz A admite una factorizaci´on L U; donde L es triangular inferior unitaria y U es triangular inferior.

(9)

Prueba: Por inducci´on, donde el paso inicial se realiza para n = 2, considere la matriz M, est´a dada por M =

 a b

c d



, (30)

donde por la suposici´on a= 0. Considere una matrix triangular inferior unitaria L y triangular superior U, dadas por

L =

 1 0

u 1

 U =

 v w 0 x



(31) Por lo tanto, se tiene que

M =

 a b

c d



= LU =

 v w

u v u w + x



. (32)

De aqu´ı que, el sistema de ecuaciones resultantes est´a dado por

a = v b = w c = u v d = u w + 1. (33)

De aqu´ı que

v = a w = b u = c

av x = d−c b

a. (34)

De nuevo puede observarse que la clave reside en que a= 0. Con esto termina el paso inicial, suponga ahora que la hip´otesis es correcta para n− 1. El paso final consiste en probar que si es v´alida para n − 1, tambi´en esalida para n.

Considere ahora una matriz M de orden n. Esta matriz puede escribirse en forma de bloques como Mn×n=

 M(n−1)×(n−1) mc



mf mnn



, (35)

donde M(n−1)×(n−1) es la submatriz delantera de Mn×n de orden n− 1, mc es un vector columna de orden n− 1 y mf es un vector fila de orden n− 1, finalmente mnn es una matriz de orden 1× 1; es decir un escalar.

Es importante notar que por la hip´otesis de inducci´on, M(n−1)×(n−1) es no singular o invertible y tiene una descomposici´on LU; es decir,

M(n−1)×(n−1)= L(n−1)×(n−1)U(n−1)×(n−1) (36)

Adem´as, a partir de la equation

| M(n−1)×(n−1)|=| L(n−1)×(n−1)U(n−1)×(n−1)|=| L(n−1)×(n−1) || U(n−1)×(n−1) | y, puesto que

| L(n−1)×(n−1) |= 1.

Entonces,

| M(n−1)×(n−1) |= 1 | U(n−1)×(n−1)| y puesto que M(n−1)×(n−1) es no singular o invertible

| U(n−1)×(n−1) |=| M(n−1)×(n−1)|= 0.

La conclusi´on es que las tres matrices M(n−1)×(n−1), L(n−1)×(n−1), y U(n−1)×(n−1) son no singulares o invert- ibles.

(10)

El paso final consiste en determinar la descomposici´on LU de la matriz Mn×n. Considere la ecuaci´on

Mn×n=

 M(n−1)×(n−1) mc



mf mnn



=

 L(n−1)×(n−1) 0c

lf 1nn

  U(n−1)×(n−1) uc

0f unn



=

 U(n−1)×(n−1)L(n−1)×(n−1)+ 0c0f L(n−1)×(n−1)uc+ 0cunn

lfU(n−1)×(n−1)+ 1nn0f lfuc+ 1nnunn



(37) Eliminando las indicaciones no indispensables acerca del tama˜no de las matrices se tiene las siguientes equaciones

M(n−1)×(n−1) = U(n−1)×(n−1)L(n−1)×(n−1) (38)



mc = L(n−1)×(n−1)uc (39)



mf = lfU(n−1)×(n−1) (40)

mnn = lfuc+ 1nnunn (41)

(42) De la ecuaci´on (38) y de las consideraciones indicadas previamente, las matrices U(n−1)×(n−1)y L(n−1)×(n−1)

son no singulares o invertibles, de aqu´ı que, el resto de las inc´ognitas, est´a dado por

 uc=

L(n−1)×(n−1)−1



mc lf = mf 

U(n−1)×(n−1)−1

unn= mnn− lfuc (43) Nuevamente, es importante notar que las claves para asegurar la existencia de la descomposici´on LU son la existencia de las inversas de las matrices L(n−1)×(n−1) y U(n−1)×(n−1).

El procedimiento indicado en esta secci´on muestra como una matriz, M, que satisface las condiciones del teorema V permite una factorizaci´on L U. Sin embargo, existe un buen n´umero de matrices cuadradas que son no-singulares o invertibles — que por lo tanto, el sistema Mx = b tiene una soluci´on ´unica— mas, sin embargo, bajo el procedimiento indicado en esta secci´on, no pueden factorizarse de la manera indicada en esta secci´on.

Un ejemplo muy simple, y por lo mismo muy revelador, de estas matrices, es la mostrada a continuaci´on M =

 0 1 1 0

 .

Es evidente que| M |= −1 y por lo tanto M es no singular o invertible. Mas sin emabargo, la matriz M no satisface las condiciones del teorema V, en particular, la submatriz delantera de orden 1, dada por

M1×1= [0] ,

es singular o no-invertible, de modo que el primer y ´unico paso del proceso de factorizaci´on no puede llevarse a cabo.

4 El m´ etodo de Gauss-Jacobi, el proceso de pivoteo entre filas.

El m´etodo de Gauss-Jacobi, presentado en esta secci´on, permite obtener la descomposici´on L U de una matriz no singular, de manera que evita los problemas, indicados en la secci´on anterior, que se presentan en matrices que son no singulares, y por lo tanto son invertibles, pero que no satisfacen las condiciones del teorema V.

Por otro lado, el proceso de pivoteo tiene otra raz´on de origen pr´actico, sumamente importante, relacionado con la representatci´on en punto flotante de n´umeros reales en computadoras digitales. Es bien sabido, que es

(11)

imposible representar un n´umero real de manera exacta1 en computadoras digitales, de manera que su repre- sentaci´on y las operaciones que se realizan entre n´umeros reales presentan errores de redondeo. Es importante mantener esos errores de redondeo tan peque˜nos como sea posible, pues pueden ocasionar que una matriz sin- gular aparezca, despu´es de realizar un buen n´umero de operaciones, como si fuera no-singular y viceversa. Una manera de evitar que ocurra esta situaci´on es evitar, tanto como sea posible, multiplicar n´umeros reales por factores de valor absoluto elevado.

En el resto de esta secci´on se mostrar´a como realizar el proceso de pivoteo entre filas2 y como realizarlo de manera de evitar el crecimiento de los errores de redondeo de los elementos de la matriz. Para tal f´ın, se presentan las definiciones y propiedades de las matrices de permutaci´on.

4.1 Matrices de permutaci´ on y matrices de permutaci´ on simples.

Definici´on: Matrices de Permutaci´on. Considere la matrix identidad de orden n, In×n, cualquier matriz P, obtenida a partir de la matriz identidad realizando un n´umero arbitrario de permutaciones de las columnas de la matriz identidad se denomina una matriz de permutaci´on. Adem´as, si la matriz de permutaci´on se obtiene realizando unicamente una permutaci´on de las columnas de la matriz identidad, la matriz se denomina una matriz de permutaci´on simple, Ps. 3

De manera mas espec´ıfica, si se representa la matriz identidad de orden n como I = [e1e2 . . . ei . . . ej . . . en] ,

una matriz de permutaci´on simple estar´a dada por

Ps= [e1e2 . . . ej . . . ei . . . en] , donde 1≤ i < j ≤ n

donde se puede apreciar que para obtener Ps, a partir de la matriz identidad, se han intercambiado las columnas i y j.

Teorema VI. Propiedades de las matrices de permutaci´on simples. Las matrices de permutaci´on simples tienen las siguientes propiedades.

1. Son no-singulares o invertibles; es decir existe P−1s . 2. Su determinante es−1; es decir | Ps|= −1.

3. Si una matriz de permutaci´on Psse obtiene intercambiando las columnas i y j de la matriz identidad, esa misma matriz de permutaci´on se obtiene intercambiando las filas i y j de la matriz identidad. Cuando se desee indicar de manera expl´ıcita cuales fueron las columnas, y filas, que se intercambiaron, esta matriz de permutaci´on se denominara como Ps(i, j).

4. Sea M una matriz arbritaria de orden n, entonces al premultiplicar M por la matriz de permutaci´on Ps= [e1e2 . . . ej . . . ei . . . en]

tiene como efecto intercambiar las filas 1≤ i < j ≤ n de la matriz M.

5. Su inversa es la misma matriz de permutaci´on simple; es decir P−1s = Ps.

1A menos que uno emplee programas de ´algebra simb´olica.

2Existe tambi´en la t´ecnica del proceso de pivoteo entre filas y columnas o pivoteo completo, pero su desarrollo y empleo est´a fuera del alcance de estas notas.

3Es posible permitir permutaciones entre las filas de la matriz identidad y a´un, de esta manera, obtener matrices de computaci´on, sin embargo no ser´a necesario para los prop´ositos de estas notas.

(12)

Prueba: Primeramente, como las columnas de una matriz de permutaci´on, no necesariamente simple, son las mismas columnas de la matriz identidad, el rango de P es n y la matriz es invertible. En segundo lugar, es bien sabido que el valor del determinante de una matriz cuadrada no-singular cambia de signo cuando se intercambian dos columnas de la matriz, puesto que una matriz de permutaci´on simple, se obtiene intercambiando dos columnas de la matriz identidad, se tiene que

| Ps|= −1 | I |= −1(1) = −1.

Para la tercera parte, considere la matriz de permutaci´on, con 1≤ i < j ≤ n

Ps= [e1e2. . . ej . . . ei . . . en] =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

1 0 . . . 0 . . . 0 . . . 0 0 1 . . . 0 . . . 0 . . . 0 ... ... ... ... ... ... ... ... 0 0 . . . 0 . . . 1 . . . 0 ... ... ... ... ... ... ... ... 0 0 . . . 1 . . . 0 . . . 0 ... ... ... ... ... ... ... ... 0 0 . . . 0 . . . 0 . . . 1

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

, (44)

puede observarse de la ecuaci´on (44) que, respecto de la matriz identidad de orden n, la matriz Ps tiene intercambiadas las filas i y j. Por lo tanto, es posible escribir la matriz de permutaci´on como

Ps= [e1e2. . . ej . . . ei . . . en] =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

e1T

e2T ...

ejT ...

eiT ...

enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

(45)

Para la cuarta parte, considere la multiplicaci´on PsM donde la primera matriz est´a escrita en filas y la segunda est´a escrita en columna.

PsM =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

e1T ...

ejT ...

eiT ...

 enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

[ mc1 . . . mci . . . mcj . . . mcn]

donde debe notarse que para todo 1≤ k ≤ n, se tiene que

ekT[ mc1 · · · mci · · · mcj · · · mcn] =

mk1 · · · mki · · · mkj · · · mkn  ,

(13)

es decir, el efecto de premultiplicar la matriz M por el vector ekT es el de producir la k-´esima fila de la matriz M. Por lo tanto

PsM =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

 e1T

...

 ejT

...

 eiT

...

enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

[ mc1 . . . mci . . . mcj . . . mcn] =

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

 mf1

...

 mfj

...

 mfi

...

 mfn

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

Es evidente que el producto de matrices PsM tiene las filas i y j intercambiadas respecto a la matriz original, M.

Finalmente, considere el producto PsPs, donde ambas matrices se escriben por filas

PsPs=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

e1T ...

ejT ...

 eiT

...

enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

e1T ...

ejT ...

eiT ...

enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

e1T ...

 eiT

...

ejT ...

enT

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

= In×n.

Es pues evidente que

P−1s = Ps.

4.2 El M´ etodo de Gauss-Jacobi.

De manera similar al m´etodo de Gauss, considere el k ´esimo paso del proceso de Gauss-Jacobi de una matriz,

 A| b

con m filas y n columnas, donde n = m + 1. Entonces, se tiene

 A| b

k=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

ak1,1 ak1,2 · · · ak1,k ak1,k+1 · · · bk1 0 ak2,2 · · · ak2,k ak2,k+1 · · · bk2 ... ... . .. ... ... . .. ... 0 0 · · · akk,k akk,k+1 · · · bkk 0 0 · · · akk+1,k akk+1,k+1 · · · bkk+1

... ... . .. ... ... . .. ... 0 0 · · · akj,k akj,k+1 · · · bkj

... ... . .. ... ... . .. ... 0 0 · · · akm,k akm,k+1 · · · bkm

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

(46)

A diferencia del m´etodo de Gauss-Jordan, el primer paso consiste en determinar cuales de los t´erminos de la k-´esima columna por debajo de la k-´esima fila tiene mayor valor absoluto.4 Suponga por un momento que ese es el t´ermino akj,k, donde k≤ j ≤ n, entonces, se satisface que

| akjk|≥| akik | ∀k ≤ i ≤ m (47)

4Unicamente se analizan los elementos por debajo de lak-´esima fila para evitar disturbios en la diagonalizaci´on de las primeras k − 1 filas.

(14)

El siguiente paso consiste en premultiplicar la matriz

 A| b

k por la matriz de permutaci´on simple dada por Ps(k, j) de esta manera se obtiene

 A| b

kp= Ps(k, j)

 A| b

k=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

ak1,1 ak1,2 · · · ak1,k ak1,k+1 · · · bk1 0 ak2,2 · · · ak2,k ak2,k+1 · · · bk2 ... ... . .. ... ... . .. ... 0 0 · · · akj,k akj,k+1 · · · bkj 0 0 · · · akk+1,k akk+1,k+1 · · · bkk+1 ... ... . .. ... ... . .. ... 0 0 · · · akk,k akk,k+1 · · · bkk ... ... . .. ... ... . .. ... 0 0 · · · akm,k akm,k+1 · · · bkm

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

(48)

donde el subscrito adicional p indica que la matriz tiene filas permutadas.

De esa manera el vector columna, τk, con m elementos, dado por

k =



0, 0, . . . , 0, τk+1= akk+1,k

akj,j , . . . , τn= akm,k akj,j

T

, (49)

y el vector columna, k, con m elementos dado por

k = (0, 0, . . . , 1, . . . , 0, 0)T, (50) donde, el ´unico elemento diferente de cero, es igual a 1, est´a en la k-´esima posici´on. Ademas, debido a la condici´on dada por la ecuaci´on (47), los elementos del vector τk tienen todos valor absoluto menor que 1. De esa manera, los errores de redondeo no crecen al propagarse.

El siguiente paso es id´entico al m´etodo de Gauss Jordan, es decir se premultiplicar´a la matriz

 A| b

kppor la transformaci´on de Gauss dada por

Lk = Im×m− τkTk. La premultiplicaci´on de la matriz

 A| b

kp por la matriz Lk tiene como efecto asegurar la eliminaci´on de los elementos en la k-´esima columna de la matriz

 A| b

kppor debajo de la k-´esima fila. En t´erminos de ecuaciones se tiene que

 A| b

k+1= Lk

 A| b

kp=

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎢

⎢⎣

ak+11,1 ak+11,2 · · · ak+11,k ak+11,k+1 · · · bk+11 0 ak+12,2 · · · ak+12,k ak+12,k+1 · · · bk+12 ... ... . .. ... ... . .. ... 0 0 · · · ak+1j,k ak+1j,k+1 · · · bk+1j 0 0 · · · 0 ak+1k+1,k+1 · · · bk+1k+1 ... ... . .. ... ... . .. ... 0 0 · · · 0 ak+1k,k+1 · · · bk+1k

... ... . .. ... ... . .. ... 0 0 · · · 0 ak+1m,k+1 · · · bk+1m

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎥

⎥⎦

(51)

De esa manera, el proceso de factorizaci´on LU, y el m´etodo de Gauss Jacobi, avanza un paso adicional.

Referencias

Documento similar

Período de realización (indicar meses ou períodos posibles de realización e xornada laboral: tempo completo ou parcial).. Do 01 de abril ao 30 de setembro en horario de

El sistema lineal m´ as sencillo consta de dos ecuaciones con dos variables: Debido a que la gr´ afica de una ecuaci´ on lineal ax − by = c es una l´ınea recta, el sistema

La Normativa de evaluación del rendimiento académico de los estudiantes y de revisión de calificaciones de la Universidad de Santiago de Compostela, aprobada por el Pleno or-

Este documento destaca nuestra visión colectiva sobre la Transición Energética Justa, tal como debatieron las/os participantes y se expresó en los seminarios virtuales de Amigos de

-Los aspectos analíticos, numéricos y gráficos de las ecuaciones diferenciales ordinarias de primer orden y de orden superior, y de los sistemas de ecuaciones lineales , así como de

-Los aspectos analíticos, numéricos y gráficos de las ecuaciones diferenciales ordinarias de primer orden y de orden superior, y de los sistemas de ecuaciones lineales , así como de

-Los aspectos analíticos, numéricos y gráficos de las ecuaciones diferenciales ordinarias de primer orden y de orden superior, y de los sistemas de ecuaciones lineales , así como de

La combinación, de acuerdo con el SEG, de ambos estudios, validez y fiabilidad (esto es, el estudio de los criterios de realidad en la declaración), verificada la