• No se han encontrado resultados

Luis Felipe Prieto Mart´ınez

N/A
N/A
Protected

Academic year: 2019

Share "Luis Felipe Prieto Mart´ınez"

Copied!
47
0
0

Texto completo

(1)

´

ALGEBRA LINEAL EN 11 LECCIONES

Contada como un cuento y con algunos ejercicios propuestos

(2)
(3)

´

Indice general

Pr´ologo III

I

Matrices y Sistemas

1

1. M´etodo de Gauss 3

1.1. Eliminaci´on de Gauss. Sustituci´on hacia atr´as . . . 5

1.2. Gauss-Jordan . . . 6

1.3. Forma Escalonada . . . 7

Ejercicios . . . 7

2. Matrices y su relaci´on con los sistemas 9 2.1. El concepto de grupo . . . 9

2.2. La multiplicaci´on de matrices . . . 10

2.3. Matrices inversas . . . 10

2.4. Rango de una matriz. Teorema de Rouch´e-Frobenius . . . 11

2.5. Calcular la soluci´on de un sistema mediante una matriz inversa . . . 11

2.6. Comentario Final . . . 11

Ejercicios . . . 12

3. Dependencia Lineal de vectores flecha y sistemas 13 3.1. Dependencia lineal (de vectores flecha) . . . 13

3.2. Dependencia lineal (de vectores) y sistema lineales . . . 14

3.3. Combinaciones lineales y el rango de una matriz . . . 14

Ejercicios . . . 14

4. El espacio de soluciones de un sistema 15 4.1. Espacio de soluciones de un sistema homog´eneo . . . 15

4.2. Espacio de soluciones de un sistema no-homog´eneo . . . 16

4.3. Regreso al futuro . . . 16

Ejercicios . . . 16

5. Factorizaci´on LU 17 5.1. ¿Qu´e es la factorizaci´on LU? . . . 17

5.2. ¿C´omo se calculanL yU? . . . 17

5.3. ¿C´omo se utiliza la factorizaci´on LU para resolver sistemas? . . . 18

Ejercicios . . . 19

II

Espacios Vectoriales

21

6. Espacios vectoriales 23 6.1. Definici´on de espacio vectorial . . . 24

6.2. Subespacios vectoriales . . . 24

Ejercicios . . . 24

(4)

ii ´INDICE GENERAL

7. Dimensi´on de un Espacio Vectorial 25

7.1. Combinaciones lineales. Espacio finitamente generado . . . 25

7.2. Bases. Teorema de la Dimensi´on . . . 26

7.3. Comentario final: espacios de dimensi´on infinita . . . 26

Ejercicios . . . 26

8. Operaciones con Subespacios. F´ormula de Grassman 27 8.1. Subespacio intersecci´on . . . 27

8.2. Subespacio Suma . . . 27

8.3. F´ormula de Grassman . . . 28

Ejercicios . . . 28

III

Aplicaciones Lineales

29

9. Aplicaciones Lineales. Un ejemplo importante 31 9.1. Aplicaciones Lineales . . . 31

9.2. Un ejemplo importante: aplicaciones lineales asociadas a matrices . . . 32

9.3. Inyectivo, sobreyectivo, biyectivo... . . 33

Ejercicios . . . 33

10.Aplicaciones Lineales y Bases 35 10.1. Aplicaciones lineales entre espacios vectoriales de dimensi´on finita . . . 35

10.2. El Teorema del Isomorfismo . . . 36

10.3. Cambios de Base . . . 36

Ejercicios . . . 37

11.Subespacios Invariantes. Diagonalizaci´on 39 11.1. Autovectores y Autovalores . . . 39

11.2. Diagonalizaci´on . . . 40

(5)

Pr´

ologo

(6)
(7)

Parte I

Matrices y Sistemas

(8)
(9)

Cap´ıtulo 1

Eliminaci´

on de Gauss. M´

etodo de

Gauss-Jordan. Forma escalonada de un

Sistema

El primer paso que daremos en el mundo del ´Algebra Lineal es estudiar bien los sitemas: repasando lo que ya sabemos y aprendiendo cosas nuevas. Es conveniente repasar tambi´en porque, eso s´ı, hay un cambio importante respecto a lo que se aprende en el instituto: la forma de expresarse y el rigor. Este cap´ıtulo servir´a para acostumbrarnos a las “nuevas maneras”.

Todos estamos de acuerdo en que lo siguiente es unejemplode sistema de ecuaciones lineales:

(

2x+ 3y= 0

x+ 3y= 1

de dos ecuaciones y dos inc´ognitas. Pero ¿como podemos dar una “definici´on” de sistema lineal1? (no vamos a

entrar en ¿qu´e es una ecuaci´on?, etc.). Para que nos vayamos acostumbrando a escribir, un sistema dek ecuaciones yninc´ognitas, es una “cosa” de la forma:

    

    

a11x1+a12x2+. . .+a1nxn =b1

a21x1+a22x2+. . .+a2nxn =b2

..

. ...

ak1x1+ak2x2+. . .+aknxn =bk

donde los aij son n´umeros (reales, m´as adelante veremos otras posibilidades) que conocemos y los x1, . . . , xn son

inc´ognitas.Resolverel sistema es encontrar unos valores de las inc´ognitas que satisfagansimul´aneamentetodas esas ecuaciones lineales.

No vamos a entrar a discutir por qu´e son tan importantes. Hay varios libros que lo cuentan. Uno que est´a bastante bien (en espa˜nol) es [1], de Fernando Chamizo2. Lo escribi´o expresamente para motivar a ingenieros.

IMPORTANTE:Si yo quierodemostraroexplicar una cosapara todos los sistemas, tengo que trabajar con esa “cosa abstracta sin n´umeros”, no me vale concomprobarloen un ejemploa.

aComo esto son unas notas apresuradas, a veces nosotros mismos tendremos que explicar cosas con ejemplos, lo sentimos

Para encontrar la soluci´on de un sistema de ecuaciones existen multitud de m´etodos. Unos son ´utiles en unos casos, y otros son ´utiles en otros. Confiad en estas notas cuando afirmamos que los dos que se explican aqu´ı son ´utiles e importantes y no son un capricho de los profesores del curso.

1Todos los sitemas aqu´ı son lineales (porque todas las ecuaciones lo son, ya hablaremos de esto). No voy a decir “lineal” todas las

veces

2Un profesor GENIAL del Departamento de Matem´aticas de la UAM

(10)

4 CAP´ITULO 1. M ´ETODO DE GAUSS

SISTEMA EN FORMA DE MATRIZ:Para trabajar m´as c´omodos, podemos escribir el sistema en forma de matriz, por ejemplo:

(

2x+ 3y= 0

x+y= 1 −→

2 3 0 1 1 1

(11)

1.1. ELIMINACI ´ON DE GAUSS. SUSTITUCI ´ON HACIA ATR ´AS 5

1.1.

Eliminaci´

on de Gauss. Sustituci´

on hacia atr´

as

Supongamos que tenemos un sistema y supongamos que tiene soluci´on ´unica3. Para resolver un sistema,

tenemos que manipular sus ecuaciones sin alterar la soluci´on. ¿Que manipulaciones permitimos en este m´etodo4? Las

que llamaremosoperaciones elementales:

(1) Intercambiar dos ecuaciones (filas en la forma matricial) de sitio

(2) Multiplicar una ecuaci´on (fila, en la forma matricial) por un n´umero

(3) Sustituir una ecuaci´on (fila en la forma matricial) por ella misma m´as un multiplo de otra

Con la eliminaci´on de Gauss, encontramos un sistema equivalente en forma triangular. Describiremos el m´etodo con un ejemplo (aunque est´e feo):

ELIMINACI ´ON DE GAUSSSi tenemos un sistema con soluci´on ´unica, por ejemplo:

 

 

x+y+z = 2 2x+ 4y+ 4z = 4

x+ 2y+ 4z = 1

−→

1 1 1 2 2 4 4 4 1 2 4 1

Preparamos la columna 1

• Elegimos un pivotea: un elemento de la primera columna distinto de 0 (a ser posible un 1) e intercambiamos las filas si es necesario para que esta fila quede en primera posici´on.

• A veces podemos simplificar una ecuaci´on. Por ejemplo sustituimos la segunda por ella misma multiplicada por 1

2:

−→

1 1 1 2 1 2 2 2 1 2 4 1

−→

• Nuestro objetivo es hacer 0’s debajo de la fila 1 (porque estamos arreglando la columna 1). Susti-tuimos la segunda fila por ella misma menos la primera, y la tercera fila por ella misma menos la primera y ya lo tenemos:

−→

1 1 1 2 0 1 1 0 1 2 4 1

−→ 

1 1 1 2 0 1 1 0 0 1 3 1

−→

• La fila 1 ya no se va a tocar m´as.

Preparamos la columna 2

• Elegimos un pivoteb: un elemento de la segunda columna distinto de 0 (que no est´e en la fila 1

que ya est´a “prohibido tocar”) e intercambiamos las filas si es necesario para que esta fila quede en primera posici´on.

• Nuestro objetivo es hacer 0’s debajo de la fila 2 (porque estamos arreglando la columna 2 esta vez). Sustituimos la tercera fila por ella misma menos la segunda:

−→

1 1 1 2 0 1 1 0 0 0 2 1

−→

• La fila 2 ya no se va a tocar m´as

En este caso ya hemos terminado. Ese sistema decimos que est´a en formal triangular.

aDebe haber alguno porque si no el sistema no puede tener soluci´on ´unica (ya lo veremos) bLo mismo

3Porque lo pone en el enunciado o porque lo sabemos de forma emp´ırica

4¡Ojo! hay que asegurarse de que no alteramos la soluci´on (lo dejamos como ejercicio para vosotros). En otros m´etodos (no lo usaremo

(12)

6 CAP´ITULO 1. M ´ETODO DE GAUSS

Pero nosotros no queremos poner el sistema en forma triangular, queremos resolverlo. Para eso, tenemos que combinar el m´etodo anterior con el siguiente (de nuevo lo explicamos sobre un ejemplo):

SUSTITUCI ´ON HACIA ATR ´ASDesde la forma triangular (es mejor trabajar ahora con las ecuaciones):

 

 

x+y+z = 2 0 +y+z = 0 0 + 0 + 2z = 1

De la tercera (la ´ultima) ecuaci´on obtenemos el valor dez:

2z= 1 −→ z= 12

Ahora sustituimos esto en la segunda ecuaci´on y obtenemos el valor dey:

y+1

2 = 0 −→ y=−

1 2

Ahora sustituimos ambas cosas en la primera ecuaci´on y hemos terminado:

x−1

2 + 1

2 = 2 −→ x= 2

1.2.

Gauss-Jordan

El m´etodo de Gauss-Jordan utiliza las mismas operaciones elementales que el anterior, pero resuelve el sistema sin pasar por la forma triangular. Tiene una ventaja importante: si tenemos dos sistemas con la misma matriz de coeficientes5 (ahora vemos qu´e es eso) Gauss-Jordan permite por el mismo esfuerzo resolver los dos a la vez.

GAUSS JORDANTenemos dos sistemasa con soluci´on ´unica y la misma matriz de coeficientes.

 

 

x+y+z = 2 2x+ 4y+ 4z = 4

x+ 2y+ 4z = 1

 

 

x+y+z = 0 2x+ 4y+ 4z = 0

x+ 2y+ 4z = 0

−→

1 1 1 2 0 2 4 4 4 0 1 2 4 1 0

Columna 1Elegimos un pivoteb y reordenamos, como antes. Ahora dividimos la fila del pivote

para que en la posici´on del pivote haya un 1. Luego hacemos 0’s debajo de la fila 1 (omitimos los detalles) y ya no tocamos m´as.

−→

1 1 1 2 0 0 1 1 0 0 1 2 4 1 0

−→ 

1 1 1 2 0 0 1 1 0 0 0 1 3 1 0

−→

Columna 2Igual pero ¡ojo! Ahorahacemos 0’s encima y debajo de la fila 2y no tocamos m´as:

−→

1 1 1 2 0 0 1 1 0 0 0 0 2 1 0

−→ 

1 0 0 2 0 0 1 1 0 0 0 0 2 1 0

−→

Columna 3Lo mismo (bueno, ahora s´olo 0’s arriba)−→

1 0 0 2 0 0 1 0 −1

2 0

0 0 0 1

2 0  −→     

x= 2 /x= 0 y=−1

2 /y= 0

z= 12 /z= 0

aLos sistemas que tiene todas las ecuaciones “= 0” se llamanhomog´eneosy si tiene soluci´on ´unica esta esx

1=. . .=xn= 0

(ejercicio: ¡comprobadlo!) pero nos vale de ejemplo

bDe nuevo debe haber alguno en cada paso)

(13)

1.3. FORMA ESCALONADA 7

1.3.

Forma Escalonada

El algoritmo de la eliminaci´on de Gauss se puede hacer aunque el sistema no tenga soluci´on, o esta no sea ´unica. La diferencia es que en este caso lo que obtenemos no es un sistema triangular, si no un sistemaescalonado:

ELIMINACI ´ON DE GAUSS PARA LA FORMA ESCALONADASea el sistema de 3 ecuacione 4 inc´ognitasa siguiente (ya en forma de matriz):

1 2 0 0 0 0 0 1 1 0 0 0 2 2 0

Columna 1 Hacemos como siempre, elegimos el pivote (ya est´a puesto en su lugar) y hacemos 0’s (ya est´an hechos) y la fila 1 no se toca m´as.

Columna 2 No podemos encontrar ning´un pivote en la columna 2. Pasamos a la siguiente.

Columna 3 Ecogemos el 1 como pivote. Restamos a la fila 3 dos vece la fila 2 y la fila 2 no se toca m´as.

1 2 0 0 0 0 0 1 1 0 0 0 0 0 0

Columna 4 No podemos encontrar ning´un pivote. Hemos terminado.

aA diferencia de antes ahora puede haber distinto n´umero de ecuaciones y de inc´ognitas

Independientemente de c´omo hayamos hecho la eliminaci´on de Gauss, el n´umero de columnas en las que hemos encontrado un pivote es siempre el mismo (es uninvariante: ¡comprobadlo!)

El n´umero de pivotes que hay en un sistema en forma escalonada, o lo que es lo mismo, el n´umero de filas distintas de 0 es elrangode la matriz de coeficientes (2 en el ejemplo anterior).

Si tenemos un sistema conninc´ognitas:

La matriz tiene soluci´on ´unica si y solo si el rango esn.

Si en la forma escalonada tenemos alguna ecuaci´on del tipo 0 =bi con bi 6= 0, entonces el sistema es

incompatible.

En cualquier otro caso, el sistema es compatible indeterminado y tiene infinitas soluciones, que dependen de uno o m´as parametros (nmenos el rango).

Ejercicios

(14)
(15)

Cap´ıtulo 2

Matrices y su relaci´

on con los sistemas

Ya hemos utilizado tramposamente matrices (s´olo como notaci´on) en la lecci´on anterior. Unamatriz 1 es una

“cosa” del siguiente tipo:

 

a11 . . . a1n

..

. ... am1 . . . amn

 

donde esas “cosas”aij son “n´umeros”2. Decimos que esta matriz esm×no que tienemfilas yncolumnas.

Las matrices valen para infinidad de cosas3 y no podemos contarlas todas aqu´ı. A nivel te´orico, nos interesan

poque est´an relacionadas con los sistemas, y m´as adelante con las aplicaciones lineales y el rango de conjuntos de vectores.

2.1.

El concepto de grupo

Primero necesitamos un poquito de notaci´on:

Un conjuntoX(de “cosas”, en esta lecci´on seran matrices) que se pueden operara (de momento denotaremos a la operaci´on “·”) y tal que la operaci´on cumple las siguientes propiedades:

(1) Existe un elemento neutro, esto es, un elementoedel conjuntoX tal que para cualquier otro elementox de ese conjunto

e·x=x·e=x

(2) Todo elemento tiene su inverso: dado un elementoxdel conjuntoX, existe otro elementox−1del conjunto

X tal que:

x·x−1=x−1·x=e

(3) Se cumple la propiedad asociativa: para cualesquiera elementosx, y, zdeX, se tiene que:

(x·y)·z=x·(y·z)

decimos que es un grupo. Si adem´as, se cumple la propiedadconmutativa, esto es:

Para cualesquiera elementosxey del conjuntox, se tiene que:

x·y=y·x

decimos que el grupo es conmutativoo abeliano.

aEsto es, que existe una operaci´on entre estas cosas, que se suele llamar “suma”, o “multiplicaci´on”, que es el caso de las

matrices aunque no tenga nada que ver con sus an´alogas definidas para n´umeros

Por ejemplo, el conjunto de los n´umeros enteros junto con la operaci´on “suma” habitual forma un grupo abeliano. Lo mismo para el conjunto de los n´umeros reales distintos de 0 junto con la operaci´on multiplicaci´on. ¡Comprobadlo!

1Esta nombre se lo debemos a Cayley, y ya veremos de donde viene

2Son elementos de uncuerpo. De momento, n´umeros reales o complejos, como en el la lecci´on anterior 3ease por ejemplo la parte V del libro [3]

(16)

10 CAP´ITULO 2. MATRICES Y SU RELACI ´ON CON LOS SISTEMAS

2.2.

La multiplicaci´

on de matrices

SeanAm,n una matrizm×nyBn,k una matrizn×k:

Am,n=

 

a11 . . . a1n

..

. ... am1 . . . amn

, Bn,k = 

 

b11 . . . b1k

..

. ... bn1 . . . bnk

 

Elproductode esas dos matrices es una matrizCm,kde tama˜nom×k:

Cm,k=

 

c11 . . . c1k

..

. ... cm1 . . . cmk

 

tal que:

cij = n

X

r=1

air·brj (2.1)

Se entender´a mejor con un ejemplo:

1 1 0 2 2 0

3 4 5 0 0 0 3 4 6

=

1·3 + 1·0 + 0·3 1·4 + 1·0 + 0·4 1·5 + 1·0 + 0·6 2·3 + 2·0 + 0·3 2·4 + 2·0 + 0·4 2·5 + 2·0 + 0·6

=

3 4 5 6 8 10

esto es, para calcular la posici´on 1,2 del producto anterior hemos miramos la fila 1 y la columna 2 de las matrices que estamos multiplicando:

1 1 0

  4 0 4 

= 1·4 + 1·0 + 0·4 = 4

IMPORTANTE:AUNQUE SE ENTIENDA MEJOR EL EJEMPLO ES IMPRESCINDIBLE APRENDER Y COMPRENDER LA F ´ORMULA (2.1).

2.3.

Matrices inversas

En esta secci´on s´olo miraremos matrices cuadradas. Vamos a estudiar cuando estas matrice matriz tienen una inversa (en el sentido que le d´abamos a esta palabra cuando hablabamos de grupos) respecto a la operacion producto.

Encontrar la inversa de una matriz:

 

a11 . . . a1n

..

. ... an1 . . . ann

 

es equivalente a resolver los siguiente sitemas simult´aneamentea:

 

a11 . . . a1n 1

..

. ... . .. an1 . . . ann 1

 

a¡Pensad por qu´e! Si no, igual os da alguna pista la secci´on siguiente

Hay otras f´ormulas diab´olicas para calcular la inversa de una matriz4 pero no son tan importante de momento.

Para cualquier n´umero naturaln≥1, el conjunto de matrices de tama˜non×n que tienen inversa, forman un grupo no abeliano (¡comprobadlo!).

(17)

2.4. RANGO DE UNA MATRIZ. TEOREMA DE ROUCH ´E-FROBENIUS 11

2.4.

Rango de una matriz. Teorema de Rouch´

e-Frobenius

Si tenemos una matrizM, podemos utilizar la eliminaci´on de Gauss igual que en la lecci´on anterior y conseguir una matriz escalonada y definir el rango,rg(M), igual que hac´ıamos con los sistemas.

Usando esto y pensando un poco, os convencer´eis del siguiente Teorema:

TEOREMA DE ROUCH ´E-FROBENIUS: Supongamos que tenemos el siguiente sistema puesto en forma de matriz:

[A|b] =

 

a11 . . . a1n b1

..

. ... ... am1 . . . amn bm

 

[A|b] se llamamatriz aumentada. La matriz sin la ´ultima columna (A) se llama lamatriz de coeficientes.

El sistema escompatible(tiene al menos una soluci´on) sirg(A) =rg([A|b]).

El sistema esincompatible(no tiene ninguna soluci´on) sirg(A)< rg([A|b]).

El sistema escompatible determinado(tiene soluci´on ´unica) si y s´olo sirg(A) =rg([A|b]) =n.

2.5.

Calcular la soluci´

on de un sistema mediante una matriz inversa

Una manera de escribir el sistema:

      

a11x1+. . .+a1nxn=b1

.. .

an1x1+. . .+annxn=b1

usando productos de matricesa es la siguiente:

 

a11 . . . a1n

..

. ... an1 . . . ann

  ·    x1 .. . xn   =    b1 .. . bn   

Pod´eis comprobar que si la matriz de coeficientes tiene inversa se puede calcular el valor dex1, . . . , xn

calcu-lando la inversa y luego haciendo el siguiente producto:

   x1 .. . xn   =   

a11 . . . a1n

..

. ... an1 . . . ann

   −1 ·    b1 .. . bn   

aHasta ahora lo hemos estado haciendo informalmente, en realidad

Este m´etodo requiere hacer muchas operaciones, pero a veces (por cosas de la vida) es conocida la inversa de la matriz de coeficientes (de c´alculos anteriores por ejemplo) y podemos aprovechar esto.

2.6.

Comentario Final

Las matrices y los sistemas est´an muy relacionados, pero las matrices surgen hist´oricamente m´as tarde. Pr´ oxi-mamente, estudiaremos varios conceptos (independencia lineal,determinante,. . . ) que son estructuras naturales que uno se encuentra si estudia sistemas lineales, no es algo que un matem´atico se invent´o de la nada.

Sintetizar la estructura que uno observa en un problema5, es en general complicado. En este caso es m´as sencillo

hacerlo usando matrices (por eso se explica as´ı), pero los conceptos no son exclusivos de, ni motivados por, las matrices.

(18)

12 CAP´ITULO 2. MATRICES Y SU RELACI ´ON CON LOS SISTEMAS

Ejercicios

(19)

Cap´ıtulo 3

Dependencia Lineal de vectores flecha y

sistemas

Ya hemos visto en algunos ejercicios propiedades curiosas e inquietantes... cuando uno trabaja un rato con matrices y sistemas acaba desarrollando de manera intuitiva los conceptos de dependencia e independencia lineal1.

Peeeeero tenemos un problema pedag´ogico en este punto. No hemos contado aun espacios vectoriales. Vamos a tener que hablar de vectores en ese cap´ıtulo de todas maneras. Pero son vectores tal como los entend´ıamos en el instituto2 y no en el sentido que se le dar´a m´as adelante:

Esto es un vector columna:

1 2 4

. En general es un objeto de la forma: 

   

b1

b2

.. . bn

   

donde losbi son n´umeros (reales,

complejos o de otro cuerpo).

Esto es un vector fila: [1,2,4]. En general es un objeto de la forma: [b1, b2, . . . , bn] donde los bi son n´umeros

(reales, complejos o de otro cuerpo).

Para distinguirlos, a los vectores del instituto los llamaremos vectores flecha. Los vectores flecha se pueden sumar y restar entre s´ı y multiplicar por un escalar (un n´umero, de nuevo real, complejo o de otro cuerpo en cada caso). Eso lo sab´ıamos hacer en el instituo y no hablaremos m´as de ello aqu´ı, porque bastante hablaremos en su momento.

El conjunto de todos los vectores flecha de longitudnse suele denotar porRn.

3.1.

Dependencia lineal (de vectores flecha)

Esto que vamos a decir ahora, se puede aplicar a muchos otros objetos aparte de los vectores flecha (a vectores en un espacio vectorial en general). Volveremos sobre ello m´as adelante:

Sean~x1, . . . , ~xn un conjunto de vectores flecha (fila o columna, da lo mismo). Otro vector~y decimos que es

combinaci´on lineal de los anteriores si existen unos n´umeritosλ1, . . . , λn (reales, complejos o en el cuerpo que

sea) tales que:

~

y=λ1·~x1+. . .+λn·~xn

Un conjunto de vectores~x1, . . . , ~xn eslinealmente independientesi ninguno de ellos es combinaci´on lineal

de los restantes y linealmente dependienteen caso contrario.

Por ejemplo: [1,2] es combinaci´on lineal de [1,0],[0,1] ya que:

[1,2] = 1·[1,0] + 2·[0,1]

Hablaremos en la secci´on siguiente de c´omo comprobar si un vector flecha es combinaci´on lineal de otros resolviendo un sistema (y tambi´en de como calcular los “numeritos” λi).

1Yo ten´ıa un profesor (lo dec´ıa por otra cosa) que dec´ıa “Esto es un concepto muy natural, y si no existiera habr´ıa que inventarlo

porque es que verdaderamente ESTA AH´I”

2Este concepto de vector como una “flechita” es debido a un matem´atico llamado Bellavitis

(20)

14 CAP´ITULO 3. DEPENDENCIA LINEAL DE VECTORES FLECHA Y SISTEMAS

3.2.

Dependencia lineal (de vectores) y sistema lineales

Supongamos que tenemos unos vectores flecha columna (si los originales eran fila, los “tumbamos” y ya est´a):

~b=      a11 a21 .. . am1

   

, ~A1=      a11 a21 .. . am1

   

, ~A2      a11 a21 .. . am1

   

, . . . , ~An

     a11 a21 .. . am1

   

y queremos saber si~v es combinaci´on lineal de los dem´as. Esto es equivalentea a resolver el sistema:

 

a11 . . . a1n

..

. ... am1 amn

      λ1 .. . λn   =    b1 .. . bn   

a¡Ojo! ¡Curvas peligrosas! esto quiere decir: “no hay m´as que explicar, pero entender esto requiere mirar a la frase un rato”

Entonces tenemos el siguiente magn´ıfico resultado3:

PROPOSCI ´ON:El sistema [A|b] es compatible (esto es, tiene al menos una soluci´on) si y s´olo si la columna bes una combinaci´on lineal de las columnas deA.

3.3.

Combinaciones lineales y el rango de una matriz

Hasta ahora se ha definido el rango de una matriz como el n´umero de pivotes que tiene si hacemos la eliminaci´on de Gauss. Aunque se masca en el ambiente que hay mas maneras de calcularlo. Todo se basa en el siguiente resultado del que ten´eis que convenceros emborronando alg´un papel:

PROPOSICI ´ON: Si tengo un conjunto de vectores flecha fila, estos son linealmente dependientes si y s´olo al hacer la eliminaci´on de Gauss, obtenemos una o m´as filas de 0’s en la matriz escalonada correspondiente.

Este resultado nos da la siguiente caracterizaci´on SUPERIMPORTANTE:

PROPOSICI ´ON:Si tenemos una matrizMsu rango se puede calcular de las siguientes maneras (obviamente todas nos dan el mismo resultado):

Haciendo eliminaci´on de Gauss como siempre y contando el n´umero de pivotes.

Haciendoeliminaci´on de Gauss por columnas y contando los pivotes (me voy a saltar lo detalles, porque creo que sabr´eis a que me refiero, es equivalente a calcular la transpuesta de la matriz, que tambi´en supongo que sab´eis lo que es, y luego hacer la eliminaci´on de Gauss normal).

Calculando el m´aximo n´umero de flias linealmente independientes

Calculando el m´aximo n´umero de columnas linealmente independientes

Un ´ultimo comentario (seguro que se os habr´ıa ocurrido) pero esto tambi´en nos indica que si tenemos un conjunto de vectores flecha fila y queremos saber cual es el m´aximo n´umero de vectores linealmente independientes, basta con ponerlos en una matriz, hacer eliminaci´on de Gauss y contar el n´umero de filas no nulas.

Ejercicios

1.

(21)

Cap´ıtulo 4

El espacio de soluciones de un sistema

En Matem´aticas la palabra “espacio” se puede entender en muchos casos como equivalente a la palabra “conjunto” con la condici´on de que los elementos del conjunto se llamen “puntos”. Se suele hacer as´ı cuando queremos darle un aspecto geom´etrico a lo que estamos haciendo.

En esta lecci´on queremos pensar un poco sobre c´omo es el conjunto de soluciones de un sistema. Y queremos darle ese toque geom´etrico porque pueden ser interpretadas como vectores flecha. Ya sabemos varias cosas. Por ejemplo, si tenemos un sistema (con n´umeros reales o complejos1) que los sistemas pueden (Teorema de Rouch´e-Frobenious):

No tener soluci´on

Tener una soluci´on ´unica

Tener infinitas soluciones

Veremos m´as cosas sobre la estructura del espacio de soluciones, y adem´as esto ser´a la motivaci´on del concepto de espacio vectorial.

4.1.

Espacio de soluciones de un sistema homog´

eneo

Un sistema [A|b] se llama homog´eneosi la columna b es una columna de 0’s (se suele denotar~0). Se tiene lo siguiente:

PROPOSICI ´ON:Sea el sistema homog´eneoA~x=~0:

~x=~0 es una soluci´on del sistema

Si~xes una soluci´on del sistema yλes un n´umero (real, complejo o en el cuerpo que sea), entoncesλ·~x es una soluci´on.

Si~xy~y son soluciones del sistema, entonces~x+~y es una soluci´on del sistema.

Lo que realmente esta pasando es lo siguiente:

TEOREMA:Sea el sistema [A|~0] que tienenvariables. Existenkvectores flecha linealmente independientes, tales que cualqueir soluci´on de [A|~0] es combinaci´on lineal de ellos .

Adem´ask=rg(A)−n

Este resultado es muy sencillo de comprender si uno hace la triangulaci´on de Gauss, y luego escribe el sistema en forma de ecuaciones. Algunas de las variables pasan a a ser par´ametros, y ah´ı aparecen esosk vectores linealmente independientes.

Por ejemplo:

(

x+y+z+t = 0

x+ 2y= 0 →Soluci´on:

    x y z t     =    

−2z−2t z+t

z t     −→     x y z t    

=z·

    −2 1 1 0    

+t·

    −2 1 0 1     (FORMA VECTORIAL)

1Con otros cuerpos hay que afinar m´as

(22)

16 CAP´ITULO 4. EL ESPACIO DE SOLUCIONES DE UN SISTEMA

4.2.

Espacio de soluciones de un sistema no-homog´

eneo

La proposici´on de la secci´on anterior es falsa para sistemas no homog´eneos. ¿Est´a todo perdido? No, gracias a la siguiente observaci´on:

PROPOSICI ´ON:Sea el sistema [A|b] Supongamos que conocemos una soluci´on~x. Cualquier otra soluci´on ~yse puede comprobar que es del tipo:

~y=~x+~yH

donde~yH es una soluci´on del sistema homog´eneo [A|~0] (que se suele llamarsistema homog´eneo asociado

al sistema [A|B]).

Por lo tanto, razonando como antes tenemos lo siguiente:

TEOREMA:Sea el sistema [A|~0] compatible que tienenvariables. Sea~xuna soluci´on del sistema. Existen kvectores flecha linealmente independientes~v1, . . . , ~vk, tales que cualqueir soluci´on de [A|~b] es de la forma:

~ x+~v

donde~ves una combinaci´on lineall de los~v1, . . . , ~vk, que a su vez son soluci´on del sistema homog´eneo asociado.

Adem´ask=rg(A)−n

(

x+y+z+t = 1

x+ 2y = 2 →Soluci´on:

    x y z t     =    

−2z−2t 1 +z+t

z t     −→     x y z t     =     0 1 0 0     +z·     −2 1 1 0     +t·     −2 1 0 1     (FORMA VECTORIAL)

N´otese que

    0 1 0 0    

es una soluci´onparticulardel sistema no homog´eneo (como se explicaba en la primera

proposi-ci´on de esta secci´on) y

    −2 1 1 0     ,     −2 1 0 1    

son dos soluciones linealmente independientes del sistema homog´eneo asociado

(lo vimos en la seccion anterior).

4.3.

Regreso al futuro

Lo que hemos estudiado en este cap´ıtulo, es la motivaci´on de varios de los conceptos que aparecer´an en cap´ıtulos siguientes. En particular, cuando hayamos desarrollado el lenguaje adecuado, lo que acabamos de contar puede ser reformulado como:

Sea un sistema [A|b] que tiene ninc´ognitas (las soluciones ser´an por tanto vectores flecha enRn):

El conjunto de soluciones de [A|~0] es un subespacio vectorial deRn

El conjunto de soluciones de [A|b] es un subespacio af´ın deRn

Ejercicios

(23)

Cap´ıtulo 5

Factorizaci´

on LU

Desde el punto de vista argumental de la asignatura de ´Algebra Limeal, este tema podr´ıa no ser contado1. Pero para ciertas Ingenier´ıas es importante, as´ı que lo contamos2. Pero, podr´ıas saltarte este tema, seguir con la asignatura, y estudiartelo despu´es.

La factorizaci´on LU es importante por sus aplicaciones pr´acticas a la resoluci´on de sistemas principalmente.

5.1.

¿Qu´

e es la factorizaci´

on LU?

Lafactorizaci´on LUes un m´etodo para descomponer una matrizM en un producto de dos:

M =LU

dondeLes triangular inferior y tiene 1’s en la diagonal y U es triangular superior.

Nosotros s´olo vamos a estudiar el caso en que la matriz M es cuadrada. Por razones que se desprenden de la teor´ıa que veremos m´as adelante:

No toda matriz cuadradaM admite una descomposici´on LU.

SiM admite una descomposici´on LU, esta es ´unica (s´olo existen dos matrices L yU satisfaciendo las condiciones que dijimos arriba).

5.2.

¿C´

omo se calculan

L

y

U

?

Supongamos que tenemos una matrizM. Vamos a suponer que:

M =

2 2 2 1 1 1 0 0 0

para que se entienda mejor con este ejemplo, aunque lo que contemos aqu´ı se puede hacer en general. Hacer una de las operaciones elementales permitidas en la eliminaci´on de Gauss, es equivalente a multiplicar aM por una matriz de las que se explican a continuaci´on, que tambi´en se llaman elementales3

Si quiero multiplicar la filaipor un escalarλ, es equivalente a multiplicar por una matriz diagonal donde todas las entradas de la diagonal son 1’s excepto la entrada (i, i). Por ejemplo si quiero multiplicar la fila 1 deM por

1

2 simplemente:

 1

2 0 0

0 1 0 0 0 1

 

2 2 2 1 1 1 0 0 0

= 

1 1 1 1 1 1 0 0 0

1En la asignatura correspondiente del Grado en Matem´aticas en mis tiempos no se hac´ıa, se contaba en otra asignatura 2Y por eso entra en el examen y es igual de importante que los dem´as

3No daremos detalles

(24)

18 CAP´ITULO 5. FACTORIZACI ´ON LU

Si quiero intercambiar varias filas de stitio, tengo que multiplicar por una matriz que tiene 0’s y 1’s y que s´olo tiene un 1 por cada fila y cada columna (¡os dejo de encargo averiguar por cual en cada caso!). Por ejemplo, para intercambiar las filas 2 y 3 en la matrizM:

1 0 0 0 0 1 0 1 0

 

2 2 2 1 1 1 0 0 0

= 

2 2 2 0 0 0 1 1 1

Si quiero sustituir la filai por ella misma m´as λ veces la fila j, simplemente tengo que multiplicar por una matriz que es como la matriz identidad salvo en la posici´on (i, j), en la que vale λ. Por ejemplo si quiero sustituir la fila 1 deM por la ella misma menos 2 veces la fila 2:

1 −2 0 0 1 0 0 0 1

 

2 2 2 1 1 1 0 0 0

= 

0 0 0 1 1 1 0 0 0

Conjugando astutamente estos razonamientos, se llega a lo siguiente:

SeaM una matriz cuadrada.

(1) M tiene una factorizaci´on LU si y solo si, al hacer eliminaci´on por Gauss no es necesario intercambiar la posici´on de dos filas en ning´un momento (los pivotes est´an colocados en el sitio adecuado desde el principio).

(2) SiM tiene una factorizaci´on LU, esto es:

M =LU

para dos matricesLyU cumpliendo lo correspondiente, entonces:

U es la matriz que te queda cuando haces eliminaci´on de Gauss aM

Les una matriz con 1’s en la diagonal y donde la entrada (i, j) es el m´ultilo de la filaj que se resta a la filaipara cargarte la posici´on (i, j)

5.3.

¿C´

omo se utiliza la factorizaci´

on LU para resolver sistemas?

El truco es el siguiente:

Supongamos que queremos resolver el sistema:

M x=b

dondeM tiene una descomposici´on LU:

M =LU En realidad queremos resolver:

(LU)x=bo equivalentementL(U x) =b

as´ı que si llamamosy=U x:

(1) Resolvemos el sistemaLy=bporsustituci´on hacia alante (totalmente an´aloga a la sustituci´on hacia atr´as).

(2) Una vez que conocemos el valor dey, resolvemos el sistemaU x=y por sustituci´on hacia atr´as.

(25)

5.3. ¿C ´OMO SE UTILIZA LA FACTORIZACI ´ON LU PARA RESOLVER SISTEMAS? 19

Ejercicios

(26)
(27)

Parte II

Espacios Vectoriales

(28)
(29)

Cap´ıtulo 6

Espacios vectoriales

Ya hemos presentado el conjunto de los “vectores flecha” 1

Rn que surgen de manera natural de la Geometria

af´ın.

Muchos a˜nos m´as tarde (a principios del siglo XX) se produce, un desarrollo importante del estudio de los espacios de funciones2 (An´alilsis).

En alg´un momento, alguien se da cuenta que ambos objetos tienen una estructura muy parecida. Y entonces la sintetiza, dando lugar al concepto moderno de espacio vectoria (el que presentaremos aqu´ı). Este concepto se establece desde entonces firmemente para los Matem´aticos y su uso se exitende a todas las ramas de las Matem´aticas (y de las Ciencias).

Siendo estudiantes de primero, no conoc´eis mucho sobre espacios de funcionesapero, si sois ingenieros, creedme

os los encontrar´eis.Y muchob.

A lo largo de toda la asignatura, estar´eis tentados de seguir pensando que esencialmente el ´unico espacio vectorial posible, es el de los vectores flechac. Y ya hemos dicho que no, y que ense˜naros los dem´as no es un

capricho de los matem´aticos, es que los vais a necesitar en vuestra vida ingenieril.

De manera que por favor, haced un esfuerzo por pensar con generalidadd, (salvo, por supuesto, que se indique

en alg´un caso que estamos estudiando s´olo vectores flecha). Quiz´a si no hac´eis caso a este recuadro aprob´eis. Pero no habr´eis aprendido lo que se esperar´ıa de vosotros.

aAqu´ı veremos alg´un ejemplo de a qu´e nos referimos

bCada vez que hag´ais desarrollos de Fourier, por ejemplo, cosa imprescindible si uno trabaja con ondas

cEsto es lo que se hace en [4] como os comentaba el otro d´ıa. No es que los vectores flecha no sean interesantes ¡claro que s´ı!

(por eso tienen libros. Es que necesitamos m´as.) .

dEsto quiere decir que intentemos razonar de manera abstracta conjugando las propiedades de la definici´on (de espacio vectorial

en este caso), y no con la intuici´on (en este caso la intuci´on geom´etrica de los vectores flecha)

1Descartes y Fermat y luego Bolzano introducen alguna de las ideas. Como dijimos el concepto de “vector flecha” fue introducido por

Bellavitis y retocado por Argand y Hamilton.

2Lebesgue y un poco m´as tarde Banach y Hilbert

(30)

24 CAP´ITULO 6. ESPACIOS VECTORIALES

6.1.

Definici´

on de espacio vectorial

Unespacio vectorialsobre un cuerpoK(generalmenteRoC), es un conjuntoV, cuyos elementos se llaman

vectoresy que tiene dos operaciones:

Una que se suele llamar suma(no tiene por qu´e ser nada parecido a una suma), que permite “sumar vectores entre s´ı” (para obtener otro vector) y tal que V respecto a la operaci´on suma sea un grupo conmutativo.

Otra que se suele llamarproducto por escalares(no tiene por qu´e ser nada que se le parezca), que permite “multiplicar un elemento del cuerpo (unescalarse suele llamar) por un vector” (para obtener otro vector) y que cumple las siguientes propiedades :

• ∀λ1, λ2∈K,∀x∈V, λ1(λ2·x) = (λ1λ2)·x

• ∀λ∈K,∀x, y∈V, λ·(x+y) =λ·x+λ·y

• ∀λ1, λ2∈K,∀x∈V, (λ1+λ2)x=λ1x+λ2x

• ∀x∈V, 1·x=x

Rn (el conjuto de los vectores flecha de longitudn) junto con la suma y el producto por escalares ya conocidos,

son el ejemplo m´as motivador.

Otro ejemplo es el conjunto de todas las funciones de variable real con la suma y multiplicaci´on por escalares habituales.

6.2.

Subespacios vectoriales

Supongamos que tenemos un espacio vectorialV (sobre un cuerpoK) con una operaci´on suma y una operaci´on producto por escalares. Supongamos que tenemos un conjuntoW contenido enV. SiW con las operaciones anteriores forma un espacio vectorial en s´ı mismo, decimos que es unsubespacio vectorial(cuidadito, en particular, la suma de dos vectores deW debe pertenecer tambi´en aW y lo mismo para el producto por escalares).

En realidad, dado un espacioV (sobre un cuerpoK) con una suma y un producto por escalares, si tenemos

un subconjntoW deV, para comprobar si es un subespacio vectorial, basta comprobar:

que la suma de vectores deW es un vector deW

que el producto de un vector deW por cualquier escalar es un vector deW

Ejercicios

(31)

Cap´ıtulo 7

Dimensi´

on de un Espacio Vectorial

Los espacios vectoriales, pueden ser muy dif´ıciles de tratar. Los que son m´as sencillos, son los llamadosfinitamente generados. Son esos los que vamos a tratar aqu´ı. Pero recordemos, hay m´as espacios vectoriales que son interesantes, no dejemos que el contenido de esta lecci´on eclipse lo aprendido en la anterior.

7.1.

Combinaciones lineales. Espacio finitamente generado

La siguiente definici´on generaliza lo que estudiamos en la lecci´on 3. Se puede definir dependencia e independencia lineal de vectores en cualquier espacio vectorial (no s´olo para vectores flecha):

Sea V un espacio vectorial sobre un cuerpo K. Sean x1, . . . , xn ∈ V un conjunto de vectores. Otro vector

y∈V decimos que escombinaci´on linealde los anteriores si existen unos (n´umeritos)λ1, . . . , λn∈Ktales

que:

~

y=λ1·~x1+. . .+λn·~xn

Un conjunto de vectoresx1, . . . , xn ∈V eslinealmente independientesi ninguno de ellos es combinaci´on

lineal de los restantes ylinealmente dependiente en caso contrario.

Ya vimos ejemplos en la lecci´on 3 cuandoV es el espacio vectorial de los vectores flecha, y en este caso sabemos encontrar losλi.

Definimos por ´ultimo lo siguiente:

Sea un espacio vectorialV sobre un cuerpo K.

Seanv1, . . . , vn ∈V. Definimos elsubespacio vectorial generado porv1, . . . , vn como el subespacio

vectorial formado por todas las posibles combinaciones lineales de :

hv1, . . . , vni={λ1·v1+. . .+λn·vn:λ1, . . . , λn∈K}

Se puede comprobar (ejercicio) que este subespacio es el subespacio m´as peque˜no deV que contiene a v1, . . . , vn.

Un espacio vectorialV sobre un cuerpoKdecimos que est´afinitamente generadosi existenv1, . . . , vn

que sonun conjunto finito de generadores del espacio, esto es:

hv1, . . . , vni=V

El espacio vectorial de los vectores flechaR3 (lo mismo pasa con

Rn) es finitamente generado. Podemos ver que

los vectores: (1,0,0),(0,1,0),(0,0,1) son un conjunto de generadores del espacio.

(32)

26 CAP´ITULO 7. DIMENSI ´ON DE UN ESPACIO VECTORIAL

7.2.

Bases. Teorema de la Dimensi´

on

Se tiene lo siguiente:

SeaV un espacio vectorial sobreK. Sean x1, . . . , xn, y sobreK. Supongamos quey es combinaci´on lineal de

x1, . . . , xn. Entonces:

hx1, . . . , xn, yi=hx1, . . . , xni

y se dice quey es ungenerador redundante (y si sobra ¿para que lo vamos a poner?). SeaV un espacio vectorial cobreK, sean v1, . . . , vn∈V tales que:

Son un conjunto de generadores deV (que por lo tanto es finitamente generado)

Ninguno de ellos es redundante, esto es,v1, . . . , vnes un conjunto de vectores linealmente independiente

Entonces decimos que{v1, . . . , vn}es unabasedeV.

Nuestro inter´es en que no haya “vectores redundantes” no es s´olamente est´etico. Se debe a que estas bases tienen la siguiente maravillosa propiedad:

Sea un espacio vectorialV sobre un cuerpoKy{v1, . . . , vn}una base del mismo. Entonces cualquier vector

x∈V se puede escribir de manera ´unica como:

x=λ1·v1, . . . , λn·vn

En base a esto, podemos comprobar el:

TEOREMA DE LA BASETodas las bases de un espacio vectorial finitamente generado tienen el mismo tama˜no (cardinal). Al n´umero de elementos de cualquiera de estas bases se le llama dimensi´on del espacio vectorial.

Bueno, estas cosas que hemos dicho aqu´ı, posibilitar´an que digamos (m´as adelante lo haremos con m´as detalle) queesencialmente todos los espacios vectoriales de dimensi´onnsobre un cuerpoK(digamosRsi lo prefer´ıs) “son” (la palabra que introduciremos luego es “son isomorfos a”) Kn o

Rn en el otro caso concreto). Esto se debe a que

al tener una base{v1, . . . , vn} para un espacioV cualquier elementoxse puede escribir como:

x=λ1·v1+. . .+λn·vn

y por tanto los puntos de V se pueden “identificar” con sus coordenadas respecto a una base fija: λ1·v1+. . .+λn·vn∼[λ1, . . . , λn]

Ya veremos los detalles.

7.3.

Comentario final: espacios de dimensi´

on infinita

Todo lo que se ha dicho aqu´ı, se puede hacer aunqueV no sea un espacio finitamente generado. Se puede hablar del conjunto generado por un conjunto infinito de vectores.

Se puede definir una base como un conjunto de vectores linealmente independientes, y tales que cualquier elemento del espacio se pueda poner como combinaci´on lineal de un conjunto finito de ellos.

En este caso la descomposici´on sigue siendo unica y el teorema de la base sigue siendo cierto, aunque en este caso diremos que la dimensi´on es infinita.

Un ejemplo, es el conjunto de polinomios con coeficientes realesR[x]. Una posible base (con un conjunto numerable de elementos) para este espacio es:

{1, x, x2, . . .}

Ejercicios

(33)

Cap´ıtulo 8

Operaciones con Subespacios. F´

ormula

de Grassman

Ahora que sabemos unas cuantas cosas sobre los espacios vectoriales y sus subespacios, vamos a estudiar algunos aspectos de algunos ejemplos importantes de subespacios, y nos vamos a centrar en el caso de espacios finitamente generados.

8.1.

Subespacio intersecci´

on

Sea V un espacio vectorial sobreK. SeanS1 yS2 subespacios deV. La intersecci´on:

S1∩S2

es un espacio vectorial.

Si S1 y S2 est´an finitamente generados por los vectores v1, . . . , vn y u1, . . . , um ¿c´omo podemos calcular un

conjunto de generadores deS1∩S2? Resolviendo el sistema lineal:

↑ ↑

v1 . . . vn

↓ ↓      λ1 .. . λn   =   ↑ ↑

u1 . . . um

↓ ↓      µ1 .. . µm   

e interpretando adecuadamente la soluci´on.

Tambi´en se pueden intersecar familiasfinitas o infinitas (numerables) de subespacios y el resultado es de nuevo un subespacio vectorial.

8.2.

Subespacio Suma

En las mismas hip´otesis que en el recuadro anterior,S1∪S2puede comprobarse f´acilmente que no es un espacio

vectorial. El “an´alogo” a “juntar dos subespacios” es formar el subespacio suma:

Sea V un espacio vectorial sobreK. SeanS1 yS2 subespacios deV. Se define elsubespacio suma:

S1+S2={λ1x1+λ2x2:x1∈S1, x2∈S2, λ1, λ2∈K}

y es un espacio vectorial.

Se puede definir tambi´en la suma de una colecci´on finita o infinita (numerable) de espacios vectoriales. En el caso infinito hay que ser un poco m´as cuidadoso con la definici´on: s´olo se permiten sumas finitas (no entro en detalles).

Puede comprobarse f´acilmente que el subespacio suma S1+S2 es el subespacio m´as peque˜no deV que contiene

aS1 y aS2.

(34)

28 CAP´ITULO 8. OPERACIONES CON SUBESPACIOS. F ´ORMULA DE GRASSMAN

8.3.

ormula de Grassman

Se tiene la siguiente f´ormula que es realmente ´util para ahorrar trabajo:

F ´ORMULA DE GRASSMAN:SeaV un espacio vectorial sobreK. SeanS1, S2dos subespacios vectoriales

deV. Supongamos queV es finitamente generado (y por tanto tambi´enS1, S2). Se tiene que:

dim(S1+S2) =dim(S1) +dim(S2)−dim(S1∩S2)

Ejercicios

(35)

Parte III

Aplicaciones Lineales

(36)
(37)

Cap´ıtulo 9

Aplicaciones Lineales. Un ejemplo

importante

Cuando en matem´aticas uno define un tipo de objeto o de estructura (en nuestro caso espacios vectoriales) despues generalmente define las aplicaciones entre ellos (en nuestro caso aplicaciones lineales) que “se comportan bien” respecto a la estructura.

9.1.

Aplicaciones Lineales

Sean dos espacios vectorialesV, W sobre el mismo cuerpoK. Una aplicaci´on:

T :V −→W

decimos que eslinealsi cumple las dos siguientes condiciones:

(1) ∀x, y∈V se tieneT(x+y) =T(x) +T(y)

(2) ∀x∈V,∀λen el cuerpo, se tiene queT(λx) =λT(x)

Como para cualquier aplicaci´on, uno puede definir laim´agen de una aplicaci´on linealT como:

Im(T) ={y∈W : existe x∈V, tal queT(x) =y}

Im(T) es un subespacio vectorial deW, o sea del espacio de llegada (¡comprobadlo!).

Adem´as, todos los espacios vectoriales tienen un punto “especial”, que es el 0, y por eso es muy interesante el siguiente espacio, llamadon´ucleo:

Ker(T) ={x∈V :T(x) = 0}

Ker(T) es un subespacio vectorial deV, o sea del espacio de salida (¡comprobadlo!).

(38)

32 CAP´ITULO 9. APLICACIONES LINEALES. UN EJEMPLO IMPORTANTE

9.2.

Un ejemplo importante: aplicaciones lineales asociadas a matrices

En el siguiente cap´ıtulo, veremos que las matrices no s´olo son un ejemplo importante si no que esencialmente cualquier aplicaci´on lineal entre dos espacios vectoriales de dimensi´on finita es una aplicaci´on lineal asociada a una matriz. Pero de momento vamos a coger soltura con ellas:

SeaAuna matriz m×n:

A=

 

a11 . . . a1n

..

. ... am1 amn

 

La aplicacion:

TA:Rn−→Rm

que obtenemos multiplicando vectores por esta matriz:

TA       x1 .. . xn      =   

a11 . . . a1n

..

. ... am1 amn

      x1 .. . xn   

es una aplicaci´on lineal.

Una cosa importante que hay que saber sobre estas aplicaciones, es que hay un truco para calcular su im´agen y su n´ucleo:

La im´agen de la aplicaci´on linealTA es el conjunto de vectores:

   y1 .. . xm   =   

a11 . . . a1n

..

. ... am1 amn

      x1 .. . xn   

esto es, el conjunto de todas las combinaciones lineales posibles de sus columnas. Por lo tanto, la im´agen deTAes el subespacio vectorial de W generado por las columnas deA:

Im(TA) =h

   a11 .. . am1

  , . . . ,   

a1n

.. . amn   i

El nucleo de la aplicaci´on linealTA es el conjunto de vectores [x1, . . . , xn] que satisfacen:

 

a11 . . . a1n

..

. ... am1 amn

      x1 .. . xn   =    0 .. . 0   

(39)

9.3. INYECTIVO, SOBREYECTIVO, BIYECTIVO... 33

9.3.

Inyectivo, sobreyectivo, biyectivo...

Como funciones que son, las aplicaciones lineales pueden ser inyectivas, sobreyectivas o biyectivas. Recordemos que:

Una aplicaci´on (lineal o no) f :V −→W se dice que es:

inyectiva si ∀x1, x2 ∈ V tales que x1 =6 x2 se tiene f(x1) 6= f(x2) (si dos puntos son iguales, sus

im´agenes son iguales). En este caso,W tiene “igual o m´as” elementos queV.

sobreyectivasi∀y∈W, existe alg´unx∈V tal quef(x) =y (todos los puntos deV son la imagen de alguien enX). En este casoV tiene “igual o m´as” elementos queW

biyectivasi es inyectiva y sobreyectiva. En este casoV yW tienen el “mismo n´umero” de elementos.

En el caso de aplicaciones lineales (especialmente si est´an asociadas a una matriz), existen criterios sencillos para determinar si son inyectivas o sobreyectivas:

Una aplicaci´on linealT :V −→W es inyectiva si y solo siker(T) ={0}

Una aplicaci´on lineal T :V −→W es sobreyectiva si y solo siIm(T) =W (eso es exactamente lo que dice la definici´on). SiT es una aplicaci´on lineal dada por una matriz (como en la secci´on anterior), esto es:

T :Rn−→Rm

T

  

 

x1

.. . xn

 

 =

 

a11 . . . a1n

..

. ... am1 amn

 

 

x1

.. . xn

 

para comprobar queIm(T) =W basta comprobar que el espacio generado por las columnas de la matriz, tiene rangom(en este caso).

Ejercicios

(40)
(41)

Cap´ıtulo 10

Aplicaciones Lineales entre espacios

vectoriales de dimensi´

on finita. Bases

Bien, ya hemos avanzado que si tenemos un espacio vectorial de dimensi´on finita V con una base{v1, . . . , vn}

podemos identificar sus elementos con las coordenadas en esa base. Cualquier elemento de x ∈ V que, como ya sabemos, se puede escribir de manera ´unica como combinaci´on lineal de los elementos de la base (sea la base que sea):

x=λ1v1+. . .+λnvn

lo podemos identificar de manera ´unica con esas coordenadas:

x∼[λ1, . . . , λn]

En vista de esto y de lo que sigue, veremos de que de hecho cualquier espacio vectorial sobre un cuerpo K de dimensi´on finitan, gracias a esta identificaci´on, se comporta esencialmente igual que el espacio vectorialKn.

10.1.

Aplicaciones lineales entre espacios vectoriales de dimensi´

on

fini-ta

Ya sabemos (o deber´ıamos saber) que una aplicaci´on lineal:

T :V −→W

entre dos espacios vectoriales, dondeBV ={v1, . . . , vn}es una base deV queda determinada si conocemosT(v1), . . . , T(vn),

ya que podemos calcularT(x) para cualquierx∈V haciendo lo siguiente:

T(x) =T(λ1v1+. . .+λnvn) =λ1T(v1) +. . .+λnT(vn)

si tambi´en tenemos una base deW,BW ={w1, . . . , wm} y tenemos que:

      

T(v1) =µ11w1+. . .+µm1

.. .

T(vn) =µ1nw1+. . .+µmn

ocurre la siguiente cosa maravillosa:

En las hip´otesis anteriores, podemos describirT utilizando las bases BV yBW utilizando la matriz:

 

µ11 . . . µ1n

..

. ... µm1 . . . µmn

 

de la manera siguiente: si tenemos un vectorx de V cuyas coordenadas en la base Bv son [λ1, . . . , λn] las

coordenadas deT(x) en la baseBW ser´an [α1, . . . , αm] donde:

 

µ11 . . . µ1n

..

. ... µm1 . . . µmn

(42)

36 CAP´ITULO 10. APLICACIONES LINEALES Y BASES

10.2.

El Teorema del Isomorfismo

No recuerdo si el nombre cl´asico es este, pero esa frase tan informal de que “todos los espacios vectoriales sobre

Kde dimensi´on finitanson esencialmenteKn” bien escrito ser´ıa:

SeaV un espacio vectorial sobreKde dimensi´on finitan. Entonces existe un isomorfismo entreV yKn.

De hecho hay muchos, cojamos cualquier base deV,BV ={v1, . . . , vn}. La aplicaci´on:

T :V −→Kn

x=λ1v1+. . .+λnvn7−→λnvn = [λ1, . . . , λn]

es un isomorfismo.

Si dos espacios vectoriales son isomorfos, tienen exactamente la misma estructura. Desde el punto de vista del Algebra Lineal, ambos son indistinguibles1.

10.3.

Cambios de Base

Si un espacio vectorial V tiene dos bases B = {v1, . . . , vn}, B0 ={u1, . . . , un} y tenemos un vector x ∈ V en

coordeandas sobre la baseB, es f´acil calcular sus coordenadas sobre la baseB0:

Si tenemos que:

      

v1=a11u1+. . .+an1un

.. .

vn =a1nu1+. . .+annun

y tenemos un vectorx∈V cuya expresi´on en la baseB esx=λ1v1+. . .+λnvn, su expresi´on en la baseB0

ser´ax=α1u1+. . .+αnun donde:

 

a11 . . . a1n

..

. ... an1 . . . ann

      λ1 .. . λn   =    α1 .. . αn   

esa matriz es la que llamamosmatriz de cambio de base de B a B0 y se suele denotar porPBB0

Podeis comprobar quePB0 B = (P

B B0)

−1.

Ahora bien, esto nos permite hacer los siguientes juegos:

Supongamos que tenemos una aplicaci´on linealT :V −→W.V tiene una baseBV yW tiene una baseBW.

Ya sabemos que podemos describir T utilizando esas bases con una matriz. Supongamos que esa matriz es M.

Imaginemos que ahora queremos expresar esa aplicaci´on linealT usando otras dos bases diferentesBV0 yBW0 deV y deW respectivamente. a¿Cual ser´a la matriz correspondiente? pues ser´a:

PB 0

W

BW ·M ·P

BV

B0

V

Cuando entend´ais por qu´e esta f´ormula, entender´eis pr´acticamente toda esta parte de la asignatura. Apren-derselaNO VALE DE NADA.

aGRABAD ESTO A FUEGO: esto no se hace para poneros un problema en una clase y obligaros a hacer cuentas

estupidas. A veces, en la vida, uno puede expresar muy f´acilmente una aplicaci´on lineal en una base concreta pero esta no le sirve (porque es complicada o lo que sea). Veremos ejemplos cuando hablemos de diagonalizacion.

1En Matem´aticas, la palabra isomorfismo quiere decir exactamente eso, en una “categoria de objetos” (espacios vectoriales en este

(43)

10.3. CAMBIOS DE BASE 37

Ejercicios

(44)
(45)

Cap´ıtulo 11

Subespacios Invariantes. Diagonalizaci´

on

Sin entrar en detalles: es muy importante por muchos motivos (aplicaciones en geometr´ıa, qu´ımica, estudios poblacionales,...) estudiar, dada una aplicaci´on lineal, cu´ales son subespacios invariantes, esto es:

Sea una aplicaci´on lineal de un espacio vectorial en si mismo:

T :V −→V

Sea S un subespacio vectorial deV.S es unsubespacio invariantesiT(S)⊂S

Para espacios vectoriales de dimensi´on finita, no es muy complicado determinar cuales son los subespacios vecto-riales invariantes mediante una aplicaci´on determinada. En espacios vectoriales de dimensi´on infinita, este problema llega a ser tremendamente complicado (problema del subespacio invariante).

11.1.

Autovectores y Autovalores

Vamos a estudiar ahora el caso m´as f´acil y seguramente m´as intersante por sus consecuencias y aplicaciones: determinar si una aplicaci´on lineal de un espacio vectorial de dimensi´on finita en s´ı mismo tiene subespacios invariantes de dimensi´on uno.

Sea K un cuerpo (digamos R o C). Sea T : Kn −→

Kn. Sea M la matriz de T en la base can´onica. Un

subespacio de dimensi´on 1 de Kn, es el subespacio generado por alg´un vector no nulo (x1, . . . , xn).

Por lo tanto, encontrar los subespacios invariantes de T de dimensi´on 1, es encontrar los vectores no nulos (x1, . . . , xn) que satisfacen:

M    x1 .. . xn   =λ    x1 .. . xn  

 para alg´unλ∈K

que se llamanautovectoreso lo que es lo mismo:

(M −λ·I)

   x1 .. . xn   =    0 .. . 0  

 para alg´unλ∈K (11.1)

No podemos ir probando uno por uno todos losλ∈K. Pero si tenemos esperanza de que el sistema de (11.1)

tenga alguna soluci´on aparte de la trivial, es porque:

rango(M−λ·I)< n (11.2)

En tal caso a eseλse le llamaautovalor.

Vamos a ser ahora un poco malos, porque despues de todo el curso intentando no usar determinantes ahora los vamos a usar un momento. Para encontrar losλque cumplen (11.2) resolvemos la siguiente ecuaci´on polin´omica:

det(M−λI) = 0

(46)

40 CAP´ITULO 11. SUBESPACIOS INVARIANTES. DIAGONALIZACI ´ON

11.2.

Diagonalizaci´

on

Una consecuencia algebraica de la existencia de autovectores es la siguiente:

Sea M la matriz en la base can´onica de una aplicaci´on lineal T : Kn −→ Kn. Si M tiene n autovectores

linealmente independientes y los ponemos en una matriz P por columnas (por lo dicho anteriormente ser´a una matriz cuadrada) tenemos que:

M ·P =P·D

dondeD es una matriz diagonal cuyas entradas diagonales son los autovalores. Como las columnas deP son linealmente independientes, tiene inversa y en otras palabras, tenemos que;

M =P·D·P−1

y se dice queM esdiagonalizable.

Hay muchas maneras interesantes de interpretar esto. La principal es que existe una base en la que la matriz de T es diagonal.

Hay algo que hay que saber: si todos los autovalores deM, entonces evidentemente todos los autovectores deM son linealmente independientes entre s´ı, y por lo tantoM es diagonalizable.

Ejercicios

(47)

Bibliograf´ıa

[1] F. Chamizo Llorente,¿Y a mi que me importa? Aplicaciones del ´Algebra Lineal, disponible en la web del autor (a fecha de septiembre de 2015).

[2] C. D. Meyer,Matrix analysis and applied linear algebra. Siam, 2000.

[3] M. J. Sterling,Linear Algebra for Dummies, Wiley Publishing (2009)

[4] S. Treil,Linear Algebra Done Wrong, disponible en la web del autor (a fecha de octubre de 2015).

Referencias

Documento similar

Tras el estudio de la plataforma y entorno de desarrollo Android as´ı como el funciona- miento y estructura del est´ andar SCORM o las aplicaciones educativas para ejecutar

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

Nuestro objetivo en este cap´ıtulo es extender al ´ ambito de operadores de super- posici´ on ponderados algunos de los resultados que hemos expuesto en el cap´ıtulo anterior

Digamos que uno tiene un cuerpo y que puede disponer de él como quiera (salvo por unos parámetros impuestos que en honor a aquello que se denomina “sentido común” uno no

The buildings of Jose Llinas besides their formal aptitudes, in addi- tion to the quality of their materials, not to mention the perfection of their

o esperar la resolución expresa&#34; (artículo 94 de la Ley de procedimiento administrativo). Luego si opta por esperar la resolución expresa, todo queda supeditado a que se

En el cap´ıtulo 4, titulado “Din´ amica hamiltoniana de un gir´ ostato en interacci´ on newtoniana con un s´ olido r´ıgido esf´ erico”, se plantea la formulaci´ on

b) El Tribunal Constitucional se encuadra dentro de una organiza- ción jurídico constitucional que asume la supremacía de los dere- chos fundamentales y que reconoce la separación