• No se han encontrado resultados

TEMA 2: MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

N/A
N/A
Protected

Academic year: 2022

Share "TEMA 2: MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES"

Copied!
12
0
0

Texto completo

(1)

Asignatura: Matemáticas I Profesor: Roque Molina Legaz

TEMA 2: MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Programa detallado:

2.1 Matrices y operaciones:

2.1.1 Primeras definiciones.

2.1.2 Operaciones con matrices.

2.1.3 Operaciones elementales en matrices.

2.1.4 Matrices invertibles.

2.2 Determinantes y rango:

2.2.1 Definición y propiedades.

2.2.2 Cálculo de la matriz inversa usando determinantes.

2.2.3 Cálculo del rango de una matriz usando determinantes.

2.3 Sistemas de ecuaciones lineales:

2.3.1 Definiciones y primeras propiedades.

2.3.2 El método de Gauss.

2.3.3 Otros métodos de factorización directa.

2.1 Matrices y operaciones.

2.1.1 Primeras definiciones.

Sea K un cuerpo (que normalmente será el de los números reales R o el de los complejos C).

Se llama matriz nxm sobre K a toda aplicación

A : 1, 2, . . . , n x 1, 2, . . . , m K

es decir, a cada pareja i, j , con i 1, 2, . . . , n y j 1, 2, . . . , m , se le hace corresponder un elemento A i, j K, al que normalmente denotaremos por aij. Se dice que aijes el elemento

i, j de la matriz A. A la matriz A la representaremos por A aij i 1,...,n

;j 1,...,m

; o simplemente por A aij . Denotaremos por Mnxm K al conjunto de las matrices nxm sobre K. A los elementos de K se les llama escalares.

La forma de representar la matriz anterior es ordenando las imágenes (es decir, sus elementos) en una ”caja” que consta de n filas y de m columnas de la forma

A

a11 a12 . . . a1m

a21 a22 . . . a2m

. . . . an1 an2 . . . anm

y se dice que A tiene n filas y de m columnas.

(2)

Definition Vectores fila y vectores columna.

Example Veamos un ejemplo de una matriz real (matriz con elementos sobreR) y otro de una matriz compleja (con elementos sobreC)

A

1 2 3

0 1 2

3 2 4

; B

2 3i 3 i

4 3i 4 i

2 2i 2 3i

Definition Dada una matriz A aij Mnxm K , se llama matriz traspuesta de A, a la matriz AT aji Mmxn K , es decir, a la matriz resultante de cambiar las filas por las columnas. Por ejemplo, si

A

1 2 3

0 1 2

3 2 4

entonces AT

1 0 3

2 1 2

3 2 4

Definition Si en una matriz coinciden el número de filas y de columnas, es decir, si n m, diremos que la matriz es cuadrada. Al conjunto de las matrices cuadradas nxn sobre Klo denotaremos por Mn K .

Definition Matriz opuesta. Matriz nula. Matriz fila. Matriz columna. Matriz diagonal.

Matriz triangular superior aij 0 si i j . Matriz triangular inferior aij 0 si i j . Matriz simétrica A AT . Matriz antisimétrica AT A . Matriz identidad. Submatriz.

2.1.2 Operaciones con matrices.

Definition (Suma) Si A aij Mnxm K y B bij Mnxm K , se define la matriz suma A B como la matriz resultante de realizar aij bij Mnxm K .

Proposition El conjunto Mnxm K con la operación anteriormente definida, es un grupo abeliano. (Nota: Hacer la demostración).

Definition (Producto de un escalar por una matriz) Si A aij Mnxm K y es un escalar ( K), se define la matriz producto por escalares A como la matriz resultante de realizar aij Mnxm K .

Proposition El conjunto Mnxm K con las operaciones y anteriormente definidas, es un espacio vectorial sobreK. (Nota: Hacer la demostración).

Definition (Producto de matrices) Si A aij Mnxm K y B bij Mmxr K , se define la matriz producto A B como la matriz cij Mnxr K donde

cij k 1

m aikbkj, con 1 i n, 1 j r. Notemos que el producto de dos matrices solo puede realizarse cuando el número de columnas de la primera

(3)

coincide con el número de filas de la segunda.

Example Varios.

Proposition El producto de matrices (siempre que pueda realizarse) verifica las propiedades asociativa y distributiva. En general, no tiene porqué cumplirse la propiedad conmutativa.

2.1.3 Operaciones elementales en matrices.

Definition Si A aij Mnxm K , se define el rango de A, y se denota por rgA, al rango del conjunto de los vectores fila (que coincide con el rango de conjunto de los vectores columna), es decir, al número de vectores fila (o columna) que son linealmente independientes.

Para calcular el rango de una matriz de forma práctica, además de los determinantes (como veremos en el apartado siguiente) necesitamos unas herramientas que se conocen con el nombre de operaciones elementales fila y columna. Así, dada una matriz A Mnxm K estas

operaciones son tres:

1. Intercambiar dos filas (o columnas) de la matriz A.

2. Multiplicar una fila (columna) por un escalar K no nulo.

3. Sumar a una fila (columna) otra fila (columna) multiplicada por un escalar K.

Para evitar equívocos que se pueden producir al utilizar indistintamente operaciones elementales fila y columna, a partir de ahora vamos a trabajar únicamente con operaciones elementales fila.

Como consecuencia de un resultado que se verá en el Capítulo de Espacios Vectoriales se obtiene el siguiente Teorema:

Theorem El rango de una matriz no varía al realizar una operación elemental sobre ésta.

Definition Dadas A, B Mnxm K diremos que A y B son equivalentes si existen P Mn K y Q Mm K tales que B P A Q.

Proposition Sean A, B Mnxm K . Entonces:

i) A y B son equivalentes sí y sólo si rgA rgB.

ii) rgA r sí y sólo si A es equivalente a

Ir 0rx m r

0n r xr 0n r x m r

2.1.4 Matrices invertibles.

Definition Dada A Mn K diremos que A es invertible, regular o no singular si existe B Mn K tal que A B B A In. Se dice en este caso que B es la inversa de A, y la denotaremos por A 1.

Se puede demostrar que la inversa de una matriz, si existe, es única.

Denotaremos por GLn K al conjunto de las matrices Mn K que son invertibles.

(4)

Proposition Si A, B GLn K , se verifican:

a) A 1 1 A.

b) A B GLn K y A B 1 B 1 A 1.

c) Sea A GLn K . Entonces A es invertible sí y sólo si rgA n.

Método para el cálculo de la inversa de una matriz invertible:

Sea A GLn K . Consideremos la siguiente matriz descompuesta en bloques A In . Entonces, realizaremos operaciones elementales a las filas de esta matriz de bloques con el objetivo de conseguir en el 1er bloque la matriz identidad. Si no es posible obtenerla, es que A no es invertible; si somos capaces de obtenerla, la matriz resultante en el segundo bloque es la inversa buscada.

Example Obtener, si existen, las inversas de las siguientes matrices

A

1 1 1 1 0 1 1 1 0

y B

1 1 1

1 0 1

2 1 2

2.2 Determinantes.

2.2.1 Definición y propiedades.

Dada A Mn K , definiremos su determinante, y lo denotaremos por |A|, al número obtenido de la siguiente forma:

Si n 1, entonces |A| |a11| a11.

Si n 2, entonces |A| a11 a12

a21 a22

a11a22 a12a21.

Para el caso n 2, definiremos el determinante de la matriz como el resultado que se obtiene al desarrollar por los elementos de una línea (por ejemplo, la primera fila). Así, si A Mn K , definiremos

|A|

a11 a12 . . . a1n

a21 a22 . . . a2n

. . . . an1 an2 . . . ann

: 1 1 1a11

a22 a23 . . . a2n

a32 a33 . . . a3n

. . . . an2 an3 . . . ann

1 1 2a12

a21 a23 . . . a2n

a31 a33 . . . a3n

. . . . an1 an3 . . . ann

. . . 1 n 1a1n

a21 a22 . . . a2,n 1

a31 a32 . . . a3,n 1

. . . . an1 an2 . . . an 1,n 1

Notemos que para el caso particular n 3, se obtiene la conocida Regla de Sarrus (hacerlo).

(5)

Proposition Sea A Mn K . Entonces:

a) Si se permutan dos filas (o columnas) de A, el determinante de la matriz obtenida es el mismo.

b) Si una fila (columna) de A es combinación lineal de las otras o equivalentemente, si las filas (columnas) de A son linealmente dependientes, entonces |A| 0.

c) Si multiplicamos por un escalar una fila (columna) de la matriz A, entonces

| A| |A|.

d) Si a una fila (columna) de una matriz A se le suma una combinación lineal de otras filas (columnas), el determinante de A no varia.

e)|A| |AT|.

f) Si B Mn K , entonces |A B| |A||B|.

g) Si una fila (o columna) es suma de dos cantidades, el determinante se puede poner como suma de dos determinantes, en la forma

a11 a12 . . . a1n

a21 a22 . . . a2n

. . . . ai1 bi1 ai2 bi2 . . . ain bin

. . . . an1 an2 . . . ann

a11 a12 . . . a1n

a21 a22 . . . a2n

. . . . ai1 ai2 . . . ain

. . . . an1 an2 . . . ann

a11 a12 . . . a1n

a21 a22 . . . a2n

. . . . bi1 bi2 . . . bin

. . . . an1 an2 . . . ann

h) A Mn K es regular sí y sólo si |A| 0.

i) Si A GLn K , entonces |A 1| |A| 1.

j) El determinante de una matriz triangular superior o triangular inferior coincide con el producto de los elementos de su diagonal.

Definition Sea A Mn K . Entonces, se define el menor complementario del elemento i, j , y se denota por ij, al determinante que resulta de eliminar la fila i y la columna j de A. Se define el adjunto del elemento i, j , y se denota por Aij, a Aij 1 i j ij.

Proposition El valor de un determinante coincide con la suma de los productos de cada uno de los elementos de una fila (columna) por sus respectivos adjuntos.

2.2.2 Cálculo de la matriz inversa usando determinantes.

Definition Dada A Mn K se define la matriz adjunta de A como

(6)

Adj A

A11 A12 . . . A1n

A21 A22 . . . A2n

. . . . An1 An2 . . . Ann

donde los Aijestán dados en la anterior definición.

Proposition Si A es una matriz invertible, entonces

A 1 Adj A T

|A|

Example Varios.

2.2.3 Cálculo del rango de una matriz usando determinantes.

Definition Si A aij Mnxm K , se define el rango de A, y se denota por rgA, al rango del conjunto de los vectores fila (que coincide con el rango de conjunto de los vectores columna), es decir, al número de vectores fila (o columna) que son linealmente independientes.

Definition Dada A Mnxm K y r N, con r n, m, llamaremos menor de orden r de A a todo determinante de una submatriz rxr de A.

Proposition Dada A Mnxm K , se tiene que rgA coincide con el máximo de los órdenes de sus menores no nulos.

Example Varios.

2.3 Sistemas de ecuaciones lineales.

2.3.1 Definiciones y primeras propiedades.

Sea K un cuerpo y n, m N.

Definition Un sistema de n ecuaciones y m incógnitas es un conjunto de n ecuaciones en la forma:

a11x1 a12x2 . . . a1mxm b1

a21x1 a22x2 . . . a2mxm b2

. . . . an1x1 an2x2 . . . anmxm bn

donde aij K, 1 i n, 1 j m (éstos reciben el nombre de coeficientes del sistema) y bi K, 1 i n, (reciben el nombre de términos independientes del sistema). Los x1, x2, . . . , xnreciben el nombre de incógnitas del sistema.

Definition Dado c c1, c2, . . . , cm , diremos que c es una solución del sistema anterior si al sustituir en las ecuaciones anteriores cada xj por cj, 1 j m, las igualdades son ciertas.

El sistema anterior se puede expresar por la igualdad matricial

Ax b

donde

(7)

A

a11 a12 . . . a1m

a21 a22 . . . a2m

. . . . an1 an2 . . . anm

, x

x1

x2

. . . xm

y b

b1

b2

. . . bn

Definition En el caso particular en que el vector b sea nulo, es decir, b 0, 0, . . . , 0 T, se dice que el sistema es homogéneo.

Definition Se dice que un sistema es compatible (SC) si tiene soluciones. Se dirá

compatible determinado (SCD) si es compatible y tiene una única solución; se dirá compatible indeterminado (SCI), si es compatible y no tiene una única solución. Se dice que un sistema es incompatible (SI) si no tiene solución.

Remark Notemos que un sistema homogéneo siempre tiene solución (al menos la solución nula).

Definition Dados dos sistemas lineales de n ecuaciones con m incognitas con coeficientes enK, diremos que son equivalentes si sus conjuntos de soluciones coinciden.

Proposition Consideremos un sistema de n ecuaciones con m incognitas con coeficientes en K. Entonces:

- Si sustituimos una ecuación del sistema por el resultado de multiplicar dicha ecuación por un elemento deKno nulo, el sistema obtenido es equivalente al primero.

- Si sustituimos una ecuación del sistema por el resultado de sumar a esta ecuación otra ecuación multiplicada por un escalar, el sistema obtenido es equivalente al primero.

Theorem (Rouché-Fröbenius) Sea Ax b un sistema de n ecuaciones con m incognitas y sea A A|b Mn m 1 K . Entonces el sistema es compatible sí y sólo si rgA rgA . Además, si rgA rgA m entonces el sistema es compatible determinado, y si rgA rgA m entonces el sistema es compatible

indeterminado;. además, en este último caso, el número de parámetros es m rgA.

(Notemos que m es el número de incógnitas del sistema).

Example Varios.

Proposition (Regla de Cramer) Consideremos el sistema de n ecuaciones con n incógnitas Ax b. Supongamos que A aij y |A| 0. Entonces

x1 1

|A|

b1 a12 . . . a1n

b2 a22 . . . a2n

. . . . bn an2 . . . ann

; x2 1

|A|

a11 b1 . . . a1n

a21 b2 . . . a2n

. . . . an1 bn . . . ann

; . . .

(8)

. . . ; xn 1

|A|

a11 a12 . . . b1

a21 a22 . . . b2

. . . . an1 an2 . . . bn

Example Varios.

2.3.2 El método de Gauss.

En el estudio de un método la primera cuestión a valorar será el coste del método, es decir el número de operaciones elementales a realizar, puesto que un elevado coste producirá la pérdida de excesivo tiempo, y además la propagación de errores de redondeo a lo largo de tantas operaciones hará que no se pueda confiar en el resultado. Por ejemplo, si se aplica la regla de Cramer para resolver un sistema compatible determinado de n ecuaciones, el número de operaciones a realizar es de n 1 ! n 1, por lo que si fuese, por ejemplo, n 10, resultará del orden de 4 108operaciones. Por tal motivo habremos de pensar en otros métodos para la resolución de estos sistemas.

Sin embargo, para algunos tipos particulares de matrices la resolución de los

correspondientes sistemas es casi inmediata por estos métodos directos. Entre estos tipos, cabe destacar el de las matrices triangulares. Posteriormente, y para otros tipos de matrices más generales, presentaremos el método de Gauss.

Sistemas triangulares.

Definition Una matriz cuadrada de orden n, A aij i,j 1,...,n Mn R , es triangular superior si tiene nulos todos los elementos situados por debajo de la diagonal principal, es decir si aij 0 si i j. Igualmente, es triangular inferior si aij 0 si i j.

Los sistemas triangulares (ya sean superiores o inferiores) son inmediatos de resolver, ya que, por ejemplo, si consideramos el sistema triangular (superior)

a11x1 a12x2 . . . a1,n 1xn 1 a1nxn b1

a22x2 . . . a2,n 1xn 1 a2nxn b2

. . . . an 1,n 1xn 1 an 1,nxn bn 1

annxn bn

es evidente que xn bn

ann. Además, si se sustituye en la penúltima ecuación, podríamos hallar xn 1. Repitiendo el proceso se obtiene trivialmente la solución x x1, x2, . . . , xn T

del sistema. A esta forma de resolver el sistema se le llama sustitución regresiva.

La expresión para el cálculo de cualquier incógnita viene dada por xn bn

ann

xi 1 aii bi

j i 1 n

aijxj , i n 1, n 2, . . . , 1

(9)

Remark Puede probarse que el coste del método es de n2operaciones.

El método de Gauss está incluido en los conocidos como métodos gaussianos, que son procedimientos que nos transforman los sistemas en otros triangulares y están basados en

combinaciones lineales simples de las ecuaciones que nos anulan los elementos por debajo o por encima de la diagonal.

En todos ellos se observan dos fases:

En la primera se producirá la eliminación de todos los elementos subdiagonales: el método de Gauss trabaja con la matriz y el vector de términos independientes; los métodos LU, de Cholesky y otros, producirán una factorización de la matriz del sistema como producto de una matriz triangular superior y de una triangular inferior.

En la segunda fase habrá que resolver un sistema triangular superior (caso del método de Gauss) o dos sistemas triangulares (en los demás métodos).

La primera fase es la que marcará la diferencia entre los diversos métodos.

El método de Gauss.

No vamos a explicar como se aplica la fase de eliminación gaussiana, ya que es más que conocida (si a11 0, a la fila i se le resta la 1afila multiplicada por aa11i1 , con lo que se consiguen ceros por debajo del elemento a11; si a11 0, buscaremos la 1afila cuyo elemento de la 1a columna sea no nulo, y esta fila se intercambia con la 1a; y así continua el proceso).

No obstante, sí que es preciso realizar una observación: Puesto que en este método se realizan divisiones por elementos (pivotes), si éstos son muy pequeños, un error de redondeo, aunque sea casi despreciable en valor absoluto, podrá producir errores muy grandes en el cociente, con el consiguiente perjuicio para la precisión del resultado. Así, una buena táctica consistirá en modificar el orden de las ecuaciones o de las incógnitas para que el pivote sea lo mayor posible. Esto suele hacerse de dos formas:

Pivote maximal por columnas: Consistirá en tomar como nuevo pivote el elemento de mayor valor absoluto entre los de la columna. En este caso cambiaremos filas (ecuaciones) y términos independientes.

Pivotaje completo: El nuevo pivote pasará a ser el elemento de máximo valor absoluto entre todos los elementos de la matriz resultante. En este caso cambiaremos filas y términos independientes, así como columnas y las incógnitas correspondientes. Esta forma es más complicada de llevar a la práctica, ya que no solo se intercambian filas (ecuaciones), sino que también se intercambian columnas (incógnitas).

Example Varios ejemplos.

El método de Gauss, aunque sencillo y no con muchas operaciones (puede probarse que tiene un coste de 16n n 1 4n 7 operaciones para reducir a forma triangular n2operaciones para resolver el sistema triangular), tiene la dificultad de la posibilidad indicada anteriormente de acarrear errores grandes, por lo que es conveniente usar alguna de las dos estrategias de elección de pivote para mejorar la precisión de manera satisfactoria. Veamos el siguiente ejemplo:

Example Realizando los cálculos con 5 cifras significativas, comparar los resultados obtenidos al aplicar el método de Gauss simple o con elección de pivote total al sistema

(10)

0 0002x 1 2121y 1 2139 0 4132x 1 9981y 1 7207

(Notemos que la solución exacta de este sistema es x 9, y 1).

2.3.3 Otros métodos de factorización directa.

Método de Jordan.

Otro método bastante parecido al de Gauss es el de Jordan (o Gauss-Jordan) en el que se transforma el sistema en uno diagonal, en vez de triangular. La diferencia con el método de Gauss radica en que en cada etapa se utiliza una ecuación no sólo para conseguir ceros por debajo de la diagonal, sino también por encima.

Example Resolver, mediante el método de Jordan el sistema

x y z 1

3x 2y z 1

5x 3y 4z 2

Factorización LU.

Si dado un sistema lineal Ax b (con |A| 0), podemos descomponer A en la forma A LU, donde L es una matriz triangular inferior y U es una matriz triangular superior, la resolución de Ax b se reducirá a la resolución de dos sistemas triangulares: Si denotamos y Ux, bastaría con resolver primero el sistema triangular Ly b, y a continuación el sistema Ux y, con un coste total de 2n2operaciones.

¿Cuando es entonces posible realizar la descomposición de A en la forma A LU? El siguiente resultado establece una condición suficiente para ello:

Proposition Sea A Mn R tal que todos los determinantes de las submatrices principales Ak aij i,j 1,...,k k 1, . . . , n son no nulos. Entonces A puede descomponerse como producto de una matriz L triangular inferior con 1 en la diagonal principal (lii 1,

i 1, . . . , n), por una matriz U trinagular superior. En estas condiciones, la descomposición es única.

Remark Este método se podrá aplicar de forma única siempre que todos los

determinantes principales de A sean no nulos. Si no se cumple esta condición, y siempre que A sea regular, será posible permutar las ecuaciones de manera que la nueva matriz admita tal factorización.

Al caso particular de esta descomposición en la que la matriz L tiene 1 en la diagonal principal, suele conocerse como método de Doolittle, y en el mismo, los valores de L y U se obtienen a partir de las siguientes expresiones:

(11)

uij aij si i 1 y j 1, 2, . . . , n li1 ai1

u11 si j 1 y i 2, 3, . . . , n lij 1

ujj aij k 1 i 1

likukj si i j con i 2, 3, . . . , n

uij aij k 1 i 1

likukj si i j con j 2, 3, . . . , n

Example Descomponer en la forma LU, mediante el método de Doolittle, la matriz

A

1 1 2

1 0 1

2 1 1

No obstante, también es posible realizar otra descomposición semejante para A, que es la dada por el llamado método de Crout: En este caso es la matriz U la que tiene 1 en la diagonal principal. Las expresiones que permiten obtener los elementos de L y U son:

li1 ai1 para i 1, 2, . . . , n u1j

a1j

a11 si i 1 uij 1

lii

aij k 1 j 1

likukj si i j

lij aij k 1 j 1

likukj si i j

Example Aplicando el método de Crout, resolver el sistema

2x 3y z 4

x y 3z 4

y z 2

En caso de que A sea simétrica y definida positiva, puede aplicarse la llamada factorización de Cholesky. Dicha factorización, se basa en el siguiente resultado:

Proposition Son equivalentes:

a) A es simétrica definida positiva.

b) Existe una matriz L triangular inferior, con elementos diagonales positivos, tal que A LLT.

(12)

Así pues, este método consiste en realizar la descomposición a11 a12 . . . a1n

a12 a22 . . . a2n

. . . . a1n a2n . . . ann

l11 0 . . . 0 l21 l22 . . . 0 . . . . ln1 ln2 . . . lnn

l11 l21 . . . ln1

0 l22 . . . ln2

. . . . 0 0 . . . lnn

de manera que los valores lij vienen dados por l11 a11

l1j

aj1

l11

lii aii k 1 i 1

lik2 si i 2, 3, . . . , n 1

lij 1 lll aij

k 1 j 1

lik lkj si j i 1, . . . , n

Sustituyento entonces en el sistema Ax b el valor de A, resulta LLTx b, de donde si hacemos y LTx, por sustitución progresiva hallaremos primero el valor y de Ly b, y después (mediante sustitución regresiva) hallaremos x a partir de LTx y.

Example Resolver el sistema

x y z 1

x 5y z 1

x y 3z 0

Referencias

Documento similar

algún bloque.. Sistemas de ecuaciones lineales.. Sistemas de ecuaciones lineales.. Sistemas de ecuaciones lineales. Determinante de una matriz cuadrada de orden 2. Parece que

Cuando aplicamos reducción por filas de una matriz aumentada correspondiente a un sistema de ecuaciones lineales obtenemos un sistema de ecuaciones lineales equivalente, es decir,

(b) Continúe la reducción por …las para obtener la forma escalonada reducida de la matriz aumentada, escriba el sistema de ecuaciones que corresponda a la matriz obtenida y de-

Tema 1: Matrices y Sistemas lineales de

Este método es especialmente apto para la inversión de matrices dado que implica la resolución simultánea de n SEL por el método de Gauss con idéntica matriz y términos

SISTEMAS DE ECUACIONES LINEALES VIII Los determinantes nos proporcionan también un nuevo método para calcular la inversa de una matriz A, que como sabemos es.. donde Adj(A) = (α ij

Observemos que el rango de la matriz de coeficientes y de la matriz ampliada es 3 e igual al n´ umero de inc´ ognitas, luego el sistema es compatible determinado.

El método de Gauss para resolver sistemas de ecuaciones lineales es una reducción escalonada para obtener un sistema equivalente más sencillo, cuya forma permite averiguar si se