• No se han encontrado resultados

16. Tema 16: Discusión y resolución de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan.

N/A
N/A
Protected

Academic year: 2022

Share "16. Tema 16: Discusión y resolución de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan."

Copied!
12
0
0

Texto completo

(1)

16. Tema 16: Discusión y resolución de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan.

Índice

16. Tema 16: Discusión y resolución de ecuaciones lineales. Teorema de

Rouché. Regla de Cramer. Método de Gauss-Jordan. ... 1

16.1. Introducción ... 1

16.2. Sistemas de ecuaciones lineales ... 2

16.3. Sistemas equivalentes ... 3

16.4. Rango o característica de una matriz ... 3

16.5. Método de Gauss ... 4

16.6. Método de Gauss-Jordan ... 5

16.7. Regla de Cramer ... 6

16.8. Teorema de Rouché-Frobenius ... 6

16.9. Eliminación de parámetros ... 7

16.10. Resolución gráfica de sistemas de ecuaciones lineales. Interpretación gráfica ... 8

16.11. Resumen ... 9

16.12. Conclusión ... 10

16.13. Bibliografía ... 10

Oposiciones de Secundaria (Matemáticas)

(2)

16. Tema 16: Discusión y resolución de ecuaciones lineales. Teorema de Rouché.

Regla de Cramer. Método de Gauss-Jordan.

16.1. Introducción

LEGISLACIÓN Actualmente, el currículo de la Educación Secundaria Obligatoria y del Bachillerato viene determinado por el siguiente marco legislativo estatal y autonómico:

• Real Decreto 1105/2014, de 26 de diciembre.

• Decreto 48/2015 de 14 de mayo del Consejo de Gobierno.

• Decreto 52/2015, de 21 de mayo, del Consejo de Gobierno.

CURRÍCULO

En Álgebra, la mayoría de los problemas diarios se pueden resolver a través de expresiones polinómicas lineales (de primer grado), repartir una cantidad en partes proporcionales, etc. Los polinomios cuadráticos se representan en los problemas bidimensionales (áreas, sistemas de adición y producto de dos variables, etc.). Los cúbicos se presentan en los problemas tridimensionales (volúmenes, pesos, etc.).

En términos curriculares, las bases del presente tema comienzan en la introducción del concepto de Álgebra en 1ESO y se acentúan en 2ESO con la incorporación de sistemas de ecuaciones que van consolidándose hasta el final del segundo ciclo de Educación Secundaria y se refuerzan y completan en Bachillerato con la introducción del concepto de matriz y sus aplicaciones.

En cuanto a los contenidos y procedimientos relacionados con las Ecuaciones en la etapa de la ESO, destacan el empleo del lenguaje algebraico para generalizar propiedades sencillas, simbolizar relaciones y resolver problemas a través de ecuaciones –en un primer momento de primer grado y aumentando su dificultad a medida que se avanza en los cursos- y sistemas. En Bachillerato, por su parte, las enseñanzas tienen como finalidad proporcionar al alumnado las herramientas necesarias para la interpretación gráfica de ecuaciones y su utilización en resolución de problemas.

O.D.

Las ecuaciones nos permiten resolver problemas muy laboriosos, la traducción de un problema podrá ser más o menos difícil en función de la complejidad del planteamiento del problema, pero una vez trasladado a un sistema de ecuaciones, la resolución se reduce a la resolución del sistema, por métodos que dependen del número de ecuaciones lineales y de incógnitas, para dos o tres incógnitas usaremos los métodos clásicos como sustitución, igualación y reducción, pero si aumentamos el número de incógnitas y/o ecuaciones necesitaremos otros métodos para resolver sistemas con m ecuaciones y n incógnitas tales como la Regla de Cramer, el Teorema de Rouché, el Método de Gauss, etc.

Proyecto Gauss, así como otras aplicaciones, es una herramienta que nos puede facilitar la introducción de todos estos conceptos en los distintos niveles de Secundaria y Bachillerato, que comienzan con una introducción al Álgebra y alcanzan ecuaciones y representación de las mismas de segundo grado.

HISTORIA

Desde los comienzos de la historia no es difícil encontrar la necesidad de resolver ecuaciones para encontrar la respuesta a alguna cuestión. Encontramos ejemplos de resolución de sistemas en las antiguas tablillas babilónicas, en las que hay sistemas resueltos mediante un método similar al que hoy conocemos como el método de reducción. También tenemos ejemplos de métodos geométricos utilizados por los griegos de la antigüedad para la resolución de sistemas o un método, en un libro chino que data del siglo III a.C. que equivale al método matricial hoy conocido por la regla de Cramer.

Pero al igual que ocurrió en todas las ramas de las Matemáticas fue esencial la evolución del lenguaje algebraico para el desarrollo de los estudios sobre ecuaciones y sistemas de ecuaciones.

A partir del siglo XVII se encuentran estudios sobre la resolución y discusión de sistemas de ecuaciones lineales, que irán ligados a conceptos relacionados con las matrices.

A continuación, desarrollaremos el tema siguiendo el índice anteriormente expuesto.

(3)

16.2. Sistemas de ecuaciones lineales

16.2.1. Definiciones previas

Una expresión algebraica es un conjunto de números y letras ligadas por los signos de las operaciones algebraicas. Una ecuación es una igualdad de expresiones algebraicas.

Sea una expresión de la forma: , son variables, , con un cuerpo conmutativo, , es una ecuación lineal con n incógnitas, llamándose miembros a las expresiones que están a ambos lados de la igualdad y términos a las expresiones separadas por los signos de suma y resta, si no están dentro de paréntesis.

Las variables se llaman incógnitas; , coeficientes; y , el término independiente.

Así, se llama sistema de ecuaciones con n incógnitas y coeficientes en K a un conjunto de m ecuaciones lineales:

, donde denota el coeficiente de en la i-ésima ecuación

Su representación matricial es: AX = b, siendo A = , donde:

A es la matriz de coeficientes y A|b es la matriz ampliada.

Ejemplo:

Resolver el sistema es encontrar una n-upla que verifique las ecuaciones, y a dicha n-upla se le llama solución o raíz del sistema.

Llamamos sistema incompatible al que carece de soluciones y si admite alguna solución se dice compatible, que puede tener una única solución, llamándose sistema compatible determinado, o infinitas soluciones siendo un sistema compatible indeterminado.

Se llama solución general del sistema al conjunto de soluciones del sistema, y dentro de ellas cada una en particular es una solución particular del sistema.

16.2.2. Sistemas de ecuaciones lineales homogéneos y no homogéneos

Sea Ax = b, se dice un sistema homogéneo si b es igual a cero, y no homogéneo si b es distinto de cero.

Propiedades

1) Si es solución de un sistema homogéneo también es solución

2) Si son soluciones de un sistema homogéneo también es solución 3) es solución de todo sistema homogéneo

4) El conjunto de todas las soluciones de un sistema de ecuaciones lineales homogéneo, es un subespacio vectorial de Kn.

1 1

...

n n

a x

+ +

a x

=

b xi a b Ki

, Î

K K R=

xi ai b

11 1 1 1

21 1 2 2

1 1

...

...

...

n n n n

m mn n m

a x a x b

a x a x b

a x a x b

+ + =

ìï + + =

ïí

ïï + + =

î

! aijÎK xj

( )

aij =( ,..., )a1 an ÎKmxn a1

=

1

11 12 1

21 22 2 2

1 2

1 2

, , , y b

n n n

m m mn m

a

a a b

a a a b

a a a

a a a b

æ ö

æ ö æ ö æ ö

ç ÷

ç ÷ ç ÷ ç ÷

ç ÷

ç ÷ ç ÷ ç ÷

=ç ÷ =ç ÷ =ç ÷ =ç ÷

ç ÷

ç ÷ ç ÷ ç ÷

ç ÷ ç ÷ ç ÷ ç ÷

è ø è ø è ø è ø

" " ! " "

1 2

2

1 2

2 5

2

3 7

x x x x x

+ =

ì ï = í ï + = î

3 2

1 2 0 1 1 3

A K x

æ ö

ç ÷

= ç ÷ Î

ç ÷

è ø

3

5 2 7

b K

æ ö ç ÷

= ç ÷ Î ç ÷ è ø

( ,..., ) a

1

a

n

( ,..., )

1 n

y

=

y y

Þ

ky

= (

ky1

,...,

kyn

)

, ´

y y Þ +ky k y´ ´

0 (0,...,0)=

(4)

16.3. Sistemas equivalentes

Dos sistemas con el mismo número de incógnitas (aunque no tengan el mismo número de ecuaciones) se dicen equivalentes si tienen las mismas soluciones, es decir, si toda solución del primero es solución del segundo y viceversa. Ejemplo: x + y = 2 y 2x + 2y = 4.

Propiedad fundamental de equivalencia: Un sistema de ecuaciones lineales es equivalente a cualquier sistema que resulte de realizar en él alguna operación elemental. Se llaman operaciones elementales a las siguientes transformaciones:

1) Cambiar de orden las ecuaciones.

2) Multiplicar los dos miembros de la ecuación por un número distinto de cero.

3) Sustituir una ecuación del sistema por una combinación lineal de ella y de las restantes siempre que el coeficiente de la ecuación sustituida sea distinto de cero.

4) Aplicar, reiteradamente, cualesquiera de las operaciones anteriores, en particular, sumarle a una ecuación cualquier combinación lineal de las demás).

Demostración: Simplificamos la notación, llamando , el sistema de ecuaciones S se escribe: . Los casos 1) y 2) son obvios y el 4) es la aplicación reiterada

de 1) y 2). Para el caso 3), es solución del sistema si y solo si ,

pero esto es equivalente a:

16.4. Rango o característica de una matriz

Sea A una matriz de orden mxn, cualquier matriz que se obtenga de ella suprimiendo ciertas filas y columnas se llama submatriz de A, y se llama menor de orden h de A al determinante de una submatriz cuadrada que se obtiene de A eliminando m-h filas y n-h columnas.

Un menor es no nulo si dicho determinante es distinto de cero y todo menor no nulo de orden h de A se denomina menor principal de orden h.

Se dice que A tiene rango h (rg(A) = h) cuando en ella existe, por lo menos un menor de orden h distinto de cero, siendo nulos los menores posibles de orden superior a h.

Ejemplo: Verificamos primero todos los menores de orden 3 y luego los de orden 2.

Consecuencias

1) Si intercambiamos filas (ó columnas) no varía el rango.

2) Si una fila (ó columna) está formada por ceros, suprimimos esa fila y el rango no varía.

3) rg(matriz nula) = 0.

4)

5) rg(A) = rg(At).

6)

1 1 2 2

( ) -

i i i in n i

e x

! º

a x

+

a x

+…+

a x b

( ) 0, para i=1,...,m

e xi

! º

a !

e xi

( ) 0, para i=1,...,m ! º

e xi

( ) 0, para todo i ! º

1

( )

2

( ) 0

1

( )

2

( ) 0

, es decir, es solución del sistema

( ) 0, para i=2,...,m ( ) 0, para i=2,...,m

i i

e e e x e x

e e x

a a

a a

+ = + =

ì ì

í º í º

î î

! ! ! !

! ! !

1 2 1 2

3 0 1 4

1 1 1 1

A

- -

æ ö

ç ÷

= ç - ÷

ç - - ÷

è ø

1 2 1 1 2 2

3 0 1 0 3 0 4 0

1 1 1 1 1 1

- -

= - =

- - -

2 1 2 1 1 2

0 1 4 0 3 1 4 0

1 1 1 1 1 1

- - - -

- = - =

- - -

1 2 0 6 6 0 1 0 = - = - ¹

, 0 rg(A) min(m,n) A Mmxn

" Î £ £

, rg(A)=n detA 0 A Mnxn

" Î Û ¹

(5)

Dadas l filas de A , si ninguna de ellas se puede expresar como combinación lineal de las otras, se dice que esas filas son linealmente independientes (llii).

Teorema: La característica de una matriz coincide con el número máximo de sus filas ó columnas linealmente independientes.

Demostración: Para probar el teorema vamos a ver que si la característica de A (matriz dada anteriormente) es h y α representa un menor principal de orden h de la misma, cada una de las filas de A que no figuran en α es una combinación lineal de las h filas que constituyen dicho menor, las cuales son linealmente independientes. En efecto, supongamos para simplificar la notación que un menor principal está constituido por los elementos comunes a las h primeras filas y columnas de A. Entonces —para un valor cualquiera I comprendido entre h + 1 y m, ambos inclusive, y todos los valores j = 1, ..., n se tiene:

pues para j = 1, ..., h, este determinante tiene dos columnas iguales, y para j = h + 1, ..., n, es un menor de la matriz A cuyo orden es mayor que la característica h. Desarrollado (5) por los elementos de la última columna, tendremos: a1j α1 + ... + ahj αh + aIj α = 0, donde α1, ..., αh denotan, respectivamente, los adjuntos de los h primeros elementos de dicha columna.

Como α ≠ 0, se sigue que para todos los valores j = 1, ..., n se verifica: es decir, cada elemento de la fila I-resulta de sumar sus correspondientes de las filas 1ª, ..., hª, previamente multiplicados por los números . Por tanto esa fila I es una combinación lineal de las h primeras.

Que ninguna de las h primeras filas de la matriz A se puede expresar mediante una combinación lineal de las otras h – 1 es inmediato, pues en tal caso una de las filas del menor α sería combinación lineal de las restantes y, en consecuencia (recordar propiedades de los determinantes), α = 0 en contra de lo que hemos supuesto.

Análogamente se demuestra el resultado para columnas, con lo que queda demostrado el teorema.

16.5. Método de Gauss

El método de Gauss consiste en transformar el sistema de ecuaciones dado en otro equivalente, pero con la condición de que cada ecuación contenga una incógnita menos.

De esta forma, encontrando la solución del segundo (cuyo método de resolución es sencillo), tendremos la solución del sistema original.

Así pues, si partimos de un sistema de m ecuaciones

con n incógnitas tal que:

Se trata de obtener un sistema de m ecuaciones con n incógnitas equivalente al dado (1) y cuya resolución sea más sencilla. El método de Gauss muestra la forma de hacer esta transformación de un sistema a otro de más fácil resolución.

El sistema equivalente a obtener, con m ecuaciones y n incógnitas tendrá la primera ecuación con n incógnitas, la segunda con n-1 incógnitas, la tercera con n-2, y así sucesivamente, hasta la m-ésima ecuación que tendrá una sola incógnita.

Se trata, pues, de transformar un sistema en otro equivalente de forma que sean nulos todos los coeficientes que estén por debajo de la diagonal principal en la matriz de coeficientes. Se obtiene así, un sistema triangular o escalonado de forma general (2).

Evidentemente, por el teorema fundamental de equivalencia de sistemas, desde un principio, se puede suprimir cualquier ecuación que pueda obtenerse a partir de las otras ecuaciones.

El método de reducción de Gauss es el más rápido para resolver un sistema de n ecuaciones lineales con n incógnitas cuando los coeficientes son numéricos.

(1 l m)£ £

11 1 1

1 1

0 (5)

h j

h hh hj

I Ih ij

a a a

a a a

a a a

=

!

" # # "

#

!

1

1 h

Ij j hj

a a

a

a

a

a a

= - - - !

1

, , a

h

a

a ! - a

11 1 1 1

21 1 2 2

1 1

...

(1) ...

...

n n n n

m mn n m

a x a x b

a x a x b

a x a x b

+ + =

ìï + + =

ïí

ïï + + =

î

!

11 1 12 2 1 1

22 2 2 2

' ' ... ' '

' ... ' ' (2)

' '

n n n n

mn n m

a x a x a x b

a x a x b

a x b

+ + + =

ìï + + =

ïí

ïï =

î

!

(6)

Para razonarlo algebraicamente utilizaremos un sistema de 3 ecuaciones con 3 incógnitas por comodidad

y claridad en la escritura:

1. Suponiendo :

a.

b.

c.

2. Suponiendo , (denotando los nuevos coeficientes como bij) resulta:

a.

b.

3. Obteniendo el siguiente sistema escalonado: , que se resuelve fácilmente

despejando en la tercera ecuación: , y sucesivamente:

Se suele hacer también escalonado directamente en forma matricial sin necesidad de escribir las incógnitas.

16.5.1. Discusión del sistema

a. Puede acontecer que como resultado de la aplicación de las transformaciones anteriores a las ecuaciones de un sistema, aparezca alguna ecuación absurda de primer miembro idénticamente nulo y segundo miembro distinto de cero (0 · xi = dij,dij ≠ 0), entonces el sistema dado es equivalente a un sistema incompatible y, por tanto, incompatible.

b. Ninguna ecuación es de la forma 0 · xi = dij ≠ 0; entonces el sistema es compatible y determinado si el número de incógnitas es igual al número de ecuaciones no triviales.

c. Puede suceder también que aparezca alguna ecuación en la que el primer miembro sea idénticamente nulo y el segundo miembro igual a cero (0 · xi = 0), entonces el sistema dado es equivalente a un sistema en el que una o más incógnitas pueden tomar valores arbitrarios y, por tanto, indeterminado. Esto es, el número de incógnitas es mayor que el número de ecuaciones no triviales, y por tanto, el sistema es compatible indeterminado (admite infinitas soluciones).

16.6. Método de Gauss-Jordan

Consiste en transformar el sistema de ecuaciones en otro equivalente, de forma que cada ecuación contenga una sola incógnita, convirtiendo el sistema con matriz A en una diagonal mediante transformaciones elementales que no alteran el rango ni la solución del sistema, como hemos visto.

Sea el sistema 3x3:

1. Suponiendo :

a.

b.

c.

11 1 12 2 13 3 1

21 1 22 2 23 3 2

31 1 32 2 33 3 3

a x a x a x b a x a x a x b a x a x a x b

+ + =

ìï + + =

íï + + =

î

11

0

a

¹

12 13 1

1 11 1 2 3 1

11 11 11

/ a a b ´

F a x x x F

a a a

® + + = ®

2 1´ 21 0 ( 22 12 21/ 11) 2 ( 23 13 21/ 11) 3 2 21 1/ 11 2´ F -F a ® + a -a a a x + a -a a a x = -b a b a ®F

3 1´ 31 0 ( 32 12 31/ 11) 2 ( 33 13 31/ 11) 3 3 31 3/ 11 3´ F -F a ® + a -a a a x + a -a a a x = -b a b a ®F

22

0

b

¹

1 12 222 2 13 323 3 1424

32 2 33 3 34

b

x b x b x b x b x b b x b x b

+ + =

ìï + =

íï + =

î

23

2 22 2 3 24 22 2

22

´/ b / ´´

F b x x b b F

® +b = ®

3´ 2´´ 32 ( 33 32 23/ 22) 3 34 32 24/ 22 3´´

F F b- ® b -b b b x =b -b b b ®F

1 12 2 13 3 14

2 23 3 24

33 3 34

x c x c x c x c x c

c x c

+ + =

ìï + =

íï =

î

34 3

33

x c

=c 1 14 13 34 12 24 23 34

33 33

( )

c c c c

x c c c

c c

= - - -

11 12 13 14 12 13 14 12 13 14 12 13 14

21 22 23 24 22 23 24 23 24 23 24

31 32 33 34 32 33 34 33 34 34

1 1 1

( ) ( ) 0 ( ) 0 1 ( ) 0 1

0 0 0 0 0 1

a a a a b b b c c c d d d

M A a a a a M B b M C c c M D d d

a a a a b b b c c d

b b

= ® = ® = ® =

æ ö æ ö æ ö æ ö

ç ÷ ç ÷ ç ÷ ç ÷

ç ÷ ç ÷ ç ÷ ç ÷

ç ÷ ç ÷ ç ÷ ç ÷

è ø è ø è ø è ø

11 1 12 2 13 3 1

21 1 22 2 23 3 2

31 1 32 2 33 3 3

a x a x a x b a x a x a x b a x a x a x b

+ + =

ìï + + =

íï + + =

î

11

0

a

¹

1/ 11 1 12 2 13 3 14 1´

F a ® +x b x +b x =b ®F

2 1´ 21 22 2 23 3 24 2´

F -F a ®b x +b x =b ®F

3 1´ 31 32 2 33 3 34 3´

F -F a ®b x +b x =b ®F

(7)

2. Suponiendo , resulta:

a.

b.

c.

3. Y, por último:

a.

b.

c.

El método de eliminación de Gauss-Jordán presenta la ventaja de que obtenemos directamente la solución del sistema. En la práctica se realiza con las matrices ampliadas, así:

16.7. Regla de Cramer

Se dice que un sistema de ecuaciones lineales AX=B es un sistema de Cramer si el número de ecuaciones es igual al número de incógnitas y el determinante ∆ de la matriz de coeficientes es distinto de cero, por lo tanto, es cuadrada.

Regla de Cramer: Todo sistema de Cramer AX=B tiene solución única: , donde ∆i es el determinante de la matriz que se obtiene al sustituir en a, la columna i-ésima por la columna de los términos independientes, para i=1,…,n.

Demostración: El sistema AX=B, con A matriz regular, es equivalente a X=A-1B (basta permultiplicar por A-1 en AX=B y por A en X=A-1B), luego tiene solución única X=A-1B, así es que si αij es el adjunto del elemento (i,j) en A, la solución es:

Ejemplo:

Nota: Como podemos observar, para resolver un sistema de Cramer de n ecuaciones con n incógnitas es preciso calcular n+1 determinantes. Por eso, para la resolución numérica de sistemas en los que n mayor que 3 se recomienda el método de Gauss-Jordan.

16.8. Teorema de Rouché-Frobenius

Sea un sistema de m ecuaciones con n incógnitas, AX = B, siendo:

, ,

Teorema: Se cumplen las siguientes afirmaciones:

i) AX=B es compatible si, y sólo si, rang(A|B)=rangA.

ii) AX=B tiene solución única si, y sólo si, rang(A|B)=rangA=n.

iii) AX=B, tiene más de una solución (y, por tanto, infinitas) si, y sólo si, rang(A|B)=rangA<n.

22

0

b

¹

2´/ 22 2 23 3 24 2´´

F b ® +x c x =c ®F

3´ 2´´ 32 33 3 34 3´´

F F b- ®c x =c ®F

1´ 2´´12 1 13 3 14 1´´

F F b- ® +x c x =c ®F

3´´/ 33 3 34 3´´´

F c ® =x d ®F

2´´ 23 3´´´ 2 24

F -c F ®x =d

1´´ 13 3´´´ 1 14

F -c F ® =x d

11 12 13 14 12 13 14 13 14 14

21 22 23 24 22 23 24 23 24 24

31 32 33 34 32 33 34 33 34 34

1 1 0 1 0 0

( ) ( ) 0 ( ) 0 1 ( ) 0 1 0

0 0 0 0 0 1

a a a a b b b c c d

M A a a a a M B b M C c c M D d

a a a a b b b c c d

b b

= ® = ® = ® =

æ ö æ ö æ ö æ ö

ç ÷ ç ÷ ç ÷ ç ÷

ç ÷ ç ÷ ç ÷ ç ÷

ç ÷ ç ÷ ç ÷ ç ÷

è ø è ø è ø è ø

1 2

1

,

2

, ,

n n

x

= D

x

= D

x

= D

D D ! D

1 11 1 1 11 1 1 1

1

1 1 1

1

n

1

n n

1

n n nn n n nn n n

x b b b

X A B

x b b b

a a a a

a a a a

-

æ ö æ öæ ö æ ö æ D ö

ç ÷ = = = ç ÷ç ÷ = ç ÷ = ç ÷

ç ÷ D ç ÷ç ÷ D ç ÷ D ç ÷

ç ÷ ç ÷ç ÷ ç ÷ ç D ÷

è ø è øè ø è ø è ø

! !

" " # " " " # " "

! !

1 2 1 2 1 1 2 2 1

2 1 1 2 2 1 2 1 2

3 - 2 1 2 2 1

0 3 1 1 0 1 1 3 0

2 2 2 1 1 7 0, 1, z 3

7 7 7

3 0 1 3 1

x z z

x y z A x y

x y z

- - - - -

- -

+ = - -

ì - -

ï + - = Þ = - = - Þ = = = = - = = -

í - - -

ï - + = -

î

( )

11 1

1

...

( ) ...

...

n

ij mxn

m mn

a a

M A a K

a a

æ ö

ç ÷

= =ç ÷Î

ç ÷

è ø

1

. .

m

b

B K

b

æ ö

ç ÷

ç ÷

=ç ÷Î

ç ÷

è ø

11 1 1 11 1 1 1

( 1)

1 1 1

... ...

'( | ) ... ....

... ...

n n n

mx n

m mn m m mn n m

a a b a x a x b

M A B K

a a b a x a x b

+

+ + =

æ ö ì

ï

ç ÷

=ç ÷Î ® í

ç ÷ ï + + =

è ø î

(8)

Es decir, la condición necesaria y suficiente para que un sistema de ecuaciones lineales tenga solución es que la matriz de los coeficientes y la matriz ampliada sean de igual rango.

Demostración: Supongamos que el sistema admite solución, esto es, que existen un conjunto de valores ξ1, ..., ξn tales que multiplicando por ellos las columnas 1, 2, ... , n, de M y sumando a continuación se obtiene la columna formada por los términos independientes b1, b2, bm. Entonces esta columna es combinación lineal de las anteriores y no influye, por consiguiente, en la característica de M’ y, por tanto, las dos matrices M y M’ tienen el mismo rango.

Recíprocamente, veamos que si ambas matrices tienen el mismo rango h, el sistema admite solución.

Sea entonces α un menor principal de la matriz M, que también es, entonces, menor principal de la matriz M’. Sin perder generalidad podemos suponer que α está formado por los elementos comunes a las h primeras filas y columnas, pues siempre podremos ordenar las ecuaciones y las incógnitas para que sea así. En estas condiciones llamaremos incógnitas principales a las h primeras y ecuaciones principales a las h primeras. Como cada una de las filas (h + 1), (h + 2), ..., m de la matriz M’ es combinación lineal de las h primeras, la ecuación correspondiente es la misma combinación lineal de las h primeras ecuaciones y, por tanto, consecuencia de ellas.

Suprimiendo las ecuaciones (h + 1), ..., m del sistema se obtiene un sistema equivalente a éste formado por las h- ecuaciones principales.

Este nuevo sistema lo podemos escribir así:

El cual para cada conjunto de valores que asignemos arbitrariamente a las incógnitas xh+1, xh+2, ..., xn, pasa a ser un sistema de Cramer (h ecuaciones con h incógnitas y cuya matriz de los coeficientes es no-singular) y, por tanto, es compatible. En consecuencia, por ser equivalente al dado, éste también es compatible. En resumen para la resolución de un sistema de ecuaciones lineales se procederá de la forma siguiente:

Calculada la característica de la matriz M según las normas dadas, para hallar la característica de M’ bastará orlar el menor principal α con la columna (b1, ..., bm) y cada una de las (m-h) filas que no figuran en él. Se obtiene

así determinantes de la forma: .

Si estos determinantes (llamados determinantes característicos de la ecuación correspondiente) son todos nulos, la característica de M’ es también h puesto que la columna de los términos independientes es combinación lineal de las que entran en el menor principal. El sistema es por tanto compatible. Si, por el contrario, hay alguno distinto de cero, la característica de M’ es mayor que h y el sistema es entonces incompatible.

En el caso de que el sistema sea compatible si la característica h es menor que el número n de incógnitas el sistema es indeterminado, obteniéndose cada solución asignando un conjunto de valores arbitrarios a las n-h incógnitas no principales y calculando a continuación el valor, ya determinado, que corresponde a cada incógnita principal. Si la característica es igual al número de incógnitas, la solución es única, pues no hay incógnitas no principales.

En el estudio de un sistema de ecuaciones lineales, los diversos casos se pueden resumir de la forma siguiente, donde h y h’ representan, respectivamente, las características de las matrices M y M’:

a. h < h’ ⇒ Sistema Incompatible

b. h = h’ ⇒ Sistema Compatible

16.9. Eliminación de parámetros

Discutir o estudiar un sistema de ecuaciones lineales en cuyos coeficientes o términos independientes aparecen uno o varios parámetros es clasificarlo en función de estos, es decir, averiguar para qué valores de dichos parámetros el sistema es compatible, determinado o indeterminado, o incompatible.

11 1 1 1 11 1 1 1

1 1 1 1

... ... ...

' .... ( ') ...

... ... ...

n n h n

r hn n h h hh hn

a x a x b a a a

A rang A rang

a x a x b a a a

+

+

+ + =

ì æ ö

ï ç ÷

=í ® = ç ÷®

ï + + = ç ÷

î è ø

11 1 1 1 1 1 1 1

1 1 1 1

... ...

....

... ...

h h h h n n

h hh h r hh h hn n

a x a x b a x a x

a x a x b a x a x

+ +

+ +

+ + = - - -

ìï

íï + + = - - -

î

11 1

1 1

1

( 1,..., )

h

hh h

I Ih I

a a b

I h m

a a b

a a b

æ ö

ç ÷

ç ÷ = +

ç ÷

ç ÷

è ø

!

" # " "

#

!

Sistema Determinado Sistema Indeterminado

h n

h n

ì = ®

® í î < ®

(9)

Para ello se estudia el rango de matriz de coeficientes y el rango de la matriz ampliada con los términos independientes, y se aplica el teorema de Rouché-Frobenius para discutir la solución en cada uno de los casos posibles en función de los distintos valores de los parámetros.

Ejemplo: Discutir según los distintos valores de k el sistema: . Para ello calculamos el

determinante de la matriz de coeficientes: , cuyas raíces son k = 1 y k = −2. Para estos

valores del parámetro consideramos los casos:

a) ∀κ∈ℝ ≠ {–2, 1} rg(M) = rg(M’) = 3 ⇒ Sistema compatible determinado.

b) Si k = −2 entonces rg(M) = 2, rg(M’) = 3 ⇒ Sistema incompatible.

c) Si k = 1 entonces rg(M) = rg(M’) = 1 ⇒ Sistema compatible indeterminado.

16.10. Resolución gráfica de sistemas de ecuaciones lineales. Interpretación gráfica

Recordemos que la ecuación algebraica de una recta en el plano es ax+by+c=0. De igual forma, la ecuación algebraica de un plano en el espacio es ax+by+cz+d=0.

El estudio geométrico de la posición relativa de rectas y planos y del cálculo de los puntos de intersección de ellos se traduce en el problema algebraico de discutir y resolver sistemas de ecuaciones lineales de dos o tres incógnitas dependiendo de si estamos en el plano o en el espacio tridimensional.

16.10.1. Posición relativa de dos rectas en el plano

Sean r/ax+by+c=0 y s/a'x+b'y+c'=0 dos rectas en el plano. Para estudiar su posición relativa, consideramos

el sistema . Consideramos las matrices: asociadas al

sistema.

Pueden presentarse los siguientes casos:

r(A)=r(A*)=2, entonces el sistema es compatible determinado. Tiene solución única, y por tanto las rectas se cortan en un punto.

r(A)=r(A*)=1, entonces el sistema es compatible indeterminado.

Tiene infinitas soluciones, y por tanto las rectas son coincidentes.

r(A)=1, r(A*)=2, entonces el sistema es incompatible, es decir las dos rectas no tiene ningún punto en común y por tanto son paralelas.

16.10.2. Posición relativa de dos planos en el espacio

Sean π/Ax+By+Cz+D=0; π'/A'x+B'y+C'z+D'=0 dos planos del espacio. Consideramos el siguiente sistema:

, cuyas matrices asociadas son .

Pueden presentarse los casos:

r(A)=r(A*)=2<3=nº de incógnitas, entonces el sistema es compatible indeterminado. El sistema tiene infinitas

r(A)=r(A*)=1, entonces el sistema es compatible indeterminado, esto es, tiene infinitas soluciones, pero en

r(A)=1 y r(A*)=2, entonces el sistema es incompatible, es decir, los

2

1

kx y z x ky z k x y kz k

ì + + = ï + + = í ï + + = î

2

1 1

1 1 ( 1) ( 2)

1 1

k

k k k

k

= - +

0

' ' ' 0

ax by c a x b y c

+ + =

ì í + + =

î y *

' ' ' ' '

a b a b c

A A

a b a b c

æ ö æ - ö

= ç è ÷ ø = ç è - ÷ ø

0

' ' ' 0

Ax By Cz D A x B y C z D

+ + + =

ì í + + + =

î y *

' ' ' ' ' ' '

A B C A B C D

A A

A B C A B C D

æ ö æ - ö

= ç è ÷ ø = ç è - ÷ ø

(10)

soluciones. Pero en este caso la variedad lineal solución es de dimensión 1, ya que solo hay una incógnita libre, y por tanto los planos se cortan en una recta.

este caso la variedad lineal solución es de dimensión dos, ya que hay una sola incógnita principal y dos libres.

Por tanto, los planos son coincidentes.

planos no tienen ningún punto en común y por tanto son paralelos.

16.10.3. Posición relativa de tres planos en el espacio

Sean π/Ax+By+Cz+D=0; π'/A'x+B'y+C'z+D'=0 π''/A''x+B''y+C''z+D''=0 3 planos del espacio, y

consideremos el siguiente sistema: , cuyas matrices asociadas son

.

Pueden presentarse los casos:

r(A)=r(A*)=3=nº de incógnitas, entonces el sistema es compatible determinado. Los tres planos se cortan en un punto.

r(A)=2 y r(A*)=3, entonces el sistema es incompatible. Como r(A)=2, tenemos que hay 2 planos que son linealmente independientes, y que por tanto se cortan en una recta. Al ser el sistema incompatible, el tercer plano debe ser paralelo a dicha recta.

r(A)=2=r(A*), entonces es

compatible indeterminado. Al haber 2 incógnitas principales y una secundaria, la variedad lineal afín solución es de dimensión uno, es decir, los tres planos se cortan en una recta.

r(A)=1 y r(A*)=2, entonces el sistema es incompatible. Los tres planos no tiene ningún punto en común, ni siquiera dos a dos, ya que r(A)=1 y por tanto son paralelos (puede que dos de ellos coincidan).

r(A)=r(A*)=1 entonces el sistema es compatible indeterminado. Al haber una sólo incógnita principal y dos secundarias, la variedad lineal afín solución es de dimensión 2 y por tanto es un plano, por lo que concluimos que los tres planos son coincidentes.

16.11. Resumen

Como conceptos en el primer apartado de sistemas de ecuaciones lineales se definen: expresión algebraica, ecuación algebraica, ecuación lineal y homogénea y se caracterizan estas últimas. Se define sistema

0

' ' ' 0

'' '' '' 0

Ax By Cz D A x B y C z D A x B y C z D

+ + + =

ì ï + + + =

í ï + + + =

î

' ' ' y * ' ' ' '

'' '' '' '' '' '' ''

A B C A B C D

A A B C A A B C D

A B C A B C D

æ ö æ - ö

ç ÷ ç ÷

= ç ÷ = ç - ÷

ç ÷ ç - ÷

è ø è ø

(11)

de ecuaciones lineales así como su clasificación y los diferentes tipos (homogéneos y no homogéneos). Se introduce la notación matricial y su terminología: matriz de coeficientes, matriz incógnita, matriz de términos independientes, matriz ampliada. Se caracterizan finalmente los sistemas lineales homogéneos.

En el apartado de sistemas equivalentes, se define que dos sistemas de ecuaciones lineales con el mismo número de incógnitas se dice que son equivalentes si tienen las mismas soluciones. Se demuestra que todo sistema de ecuaciones lineales puede ser transformado en otro equivalente a él mediante lo que se conoce como transformaciones elementales. En rango o característica de una matriz se definen los conceptos de submatriz, menor, menor principal y rango. Y se presenta y demuestra el siguiente teorema: el rango de una matriz coincide con el número de sus filas o columnas linealmente independientes.

El método de Gauss consiste en transformar el sistema de ecuaciones dado en otro equivalente que sean nulos todos los coeficientes que estén por debajo de la diagonal principal en la matriz de coeficientes obteniendo así, un sistema triangular o escalonado. Este método permite asimismo calcular el rango de una matriz. Asimismo, el método de Gauss-Jordan es una modificación del método de eliminación de Gauss, consistente en eliminar cada incógnita no sólo de las ecuaciones posteriores a las que estamos utilizando sino, también, de las ecuaciones anteriores. En el apartado de la regla de Cramer se estudia un tipo particular de sistemas de ecuaciones lineales que son los llamados sistemas de Cramer aportando un método para su resolución. Estos sistemas son compatibles determinados. Se define Sistema de Cramer y se caracteriza su solución mediante la llamada Regla de Cramer. El teorema de Rouché-Frobenius establece la condición necesaria y suficiente para que un sistema de ecuaciones lineales tenga solución en función del rango.

Discutir o estudiar un sistema de ecuaciones lineales en cuyos coeficientes o términos independientes aparecen uno o varios parámetros es clasificarlo en función de estos averiguando para qué valores de dichos parámetros el sistema es compatible, determinado o indeterminado, o incompatible. Este tipo de discusiones se plantean en el apartado de eliminación de parámetros. Por último, se plantean las aplicaciones del estudio y discusión del rango de las matrices en la resolución gráfica de sistemas de ecuaciones lineales:

interpretación gráfica.

16.12. Conclusión

DESARROL LO TEMA

El objeto de este tema es dar métodos de resolución de sistemas de ecuaciones lineales, y condiciones que permitan determinar si hay soluciones, y en su caso la cantidad de dichas soluciones y la forma de hallarlas. Para su desarrollo hemos seguido el esquema expuesto al inicio.

APLICACIONES

Junto con las ecuaciones, los sistemas lineales constituyen una de las partes mejor estudiada del álgebra tradicional, ya que muchos problemas de matemáticas se formulan o resuelven utilizando el lenguaje de los polinomios, y de ahí su gran importancia.

Además de la evidente aplicación ya mencionada en la introducción de la discusión y resolución de los sistemas de ecuaciones para poder resolver problemas y estudiar las posiciones relativas de rectas y planos en el plano y el espacio tal y como se ha descrito en el presente tema, en la vida cotidiana como en la vida laboral facilita su aplicación en el desarrollo de problemas de una manera más fácil pero a su vez compleja, con lo cual se llega a dar una solución exacta y mejores resultados en un determinado proceso.

16.13. Bibliografía

BORGES: Álgebra lineal y geometría cartesiana. McGraw-Hill, 2000.

BURGOS: Curso de Álgebra y Geometría. Pearson Education, 1992.

LIPSCHUTZ: Álgebra lineal. MacGraw-Hill, 1991.

GARCÍA GARCÍA; LÓPEZ PELLICER: Álgebra lineal y Geometría: teoría y práctica. Ed. Marfil, 1992.

TEMARIO DEIMOS TEMARIO GAMBOA

(12)

TEMARIO MATEMÁTICAS DIVERTIDAS TEMARIO CLAUSTRO

Referencias

Documento similar