´
ALGEBRA LINEAL EN 11 LECCIONES
Contada como un cuento y con algunos ejercicios propuestos
´
Indice general
Pr´ologo III
I
Matrices y Sistemas
1
1. M´etodo de Gauss 3
1.1. Eliminaci´on de Gauss. Sustituci´on hacia atr´as . . . 5
1.2. Gauss-Jordan . . . 6
1.3. Forma Escalonada . . . 7
Ejercicios . . . 7
2. Matrices y su relaci´on con los sistemas 9 2.1. El concepto de grupo . . . 9
2.2. La multiplicaci´on de matrices . . . 10
2.3. Matrices inversas . . . 10
2.4. Rango de una matriz. Teorema de Rouch´e-Frobenius . . . 11
2.5. Calcular la soluci´on de un sistema mediante una matriz inversa . . . 11
2.6. Comentario Final . . . 11
Ejercicios . . . 12
3. Dependencia Lineal de vectores flecha y sistemas 13 3.1. Dependencia lineal (de vectores flecha) . . . 13
3.2. Dependencia lineal (de vectores) y sistema lineales . . . 14
3.3. Combinaciones lineales y el rango de una matriz . . . 14
Ejercicios . . . 14
4. El espacio de soluciones de un sistema 15 4.1. Espacio de soluciones de un sistema homog´eneo . . . 15
4.2. Espacio de soluciones de un sistema no-homog´eneo . . . 16
4.3. Regreso al futuro . . . 16
Ejercicios . . . 16
5. Factorizaci´on LU 17 5.1. ¿Qu´e es la factorizaci´on LU? . . . 17
5.2. ¿C´omo se calculanL yU? . . . 17
5.3. ¿C´omo se utiliza la factorizaci´on LU para resolver sistemas? . . . 18
Ejercicios . . . 19
II
Espacios Vectoriales
21
6. Espacios vectoriales 23 6.1. Definici´on de espacio vectorial . . . 246.2. Subespacios vectoriales . . . 24
Ejercicios . . . 24
ii ´INDICE GENERAL
7. Dimensi´on de un Espacio Vectorial 25
7.1. Combinaciones lineales. Espacio finitamente generado . . . 25
7.2. Bases. Teorema de la Dimensi´on . . . 26
7.3. Comentario final: espacios de dimensi´on infinita . . . 26
Ejercicios . . . 26
8. Operaciones con Subespacios. F´ormula de Grassman 27 8.1. Subespacio intersecci´on . . . 27
8.2. Subespacio Suma . . . 27
8.3. F´ormula de Grassman . . . 28
Ejercicios . . . 28
III
Aplicaciones Lineales
29
9. Aplicaciones Lineales. Un ejemplo importante 31 9.1. Aplicaciones Lineales . . . 319.2. Un ejemplo importante: aplicaciones lineales asociadas a matrices . . . 32
9.3. Inyectivo, sobreyectivo, biyectivo... . . 33
Ejercicios . . . 33
10.Aplicaciones Lineales y Bases 35 10.1. Aplicaciones lineales entre espacios vectoriales de dimensi´on finita . . . 35
10.2. El Teorema del Isomorfismo . . . 36
10.3. Cambios de Base . . . 36
Ejercicios . . . 37
11.Subespacios Invariantes. Diagonalizaci´on 39 11.1. Autovectores y Autovalores . . . 39
11.2. Diagonalizaci´on . . . 40
Pr´
ologo
Parte I
Matrices y Sistemas
Cap´ıtulo 1
Eliminaci´
on de Gauss. M´
etodo de
Gauss-Jordan. Forma escalonada de un
Sistema
El primer paso que daremos en el mundo del ´Algebra Lineal es estudiar bien los sitemas: repasando lo que ya sabemos y aprendiendo cosas nuevas. Es conveniente repasar tambi´en porque, eso s´ı, hay un cambio importante respecto a lo que se aprende en el instituto: la forma de expresarse y el rigor. Este cap´ıtulo servir´a para acostumbrarnos a las “nuevas maneras”.
Todos estamos de acuerdo en que lo siguiente es unejemplode sistema de ecuaciones lineales:
(
2x+ 3y= 0
x+ 3y= 1
de dos ecuaciones y dos inc´ognitas. Pero ¿como podemos dar una “definici´on” de sistema lineal1? (no vamos a
entrar en ¿qu´e es una ecuaci´on?, etc.). Para que nos vayamos acostumbrando a escribir, un sistema dek ecuaciones yninc´ognitas, es una “cosa” de la forma:
a11x1+a12x2+. . .+a1nxn =b1
a21x1+a22x2+. . .+a2nxn =b2
..
. ...
ak1x1+ak2x2+. . .+aknxn =bk
donde los aij son n´umeros (reales, m´as adelante veremos otras posibilidades) que conocemos y los x1, . . . , xn son
inc´ognitas.Resolverel sistema es encontrar unos valores de las inc´ognitas que satisfagansimul´aneamentetodas esas ecuaciones lineales.
No vamos a entrar a discutir por qu´e son tan importantes. Hay varios libros que lo cuentan. Uno que est´a bastante bien (en espa˜nol) es [1], de Fernando Chamizo2. Lo escribi´o expresamente para motivar a ingenieros.
IMPORTANTE:Si yo quierodemostraroexplicar una cosapara todos los sistemas, tengo que trabajar con esa “cosa abstracta sin n´umeros”, no me vale concomprobarloen un ejemploa.
aComo esto son unas notas apresuradas, a veces nosotros mismos tendremos que explicar cosas con ejemplos, lo sentimos
Para encontrar la soluci´on de un sistema de ecuaciones existen multitud de m´etodos. Unos son ´utiles en unos casos, y otros son ´utiles en otros. Confiad en estas notas cuando afirmamos que los dos que se explican aqu´ı son ´utiles e importantes y no son un capricho de los profesores del curso.
1Todos los sitemas aqu´ı son lineales (porque todas las ecuaciones lo son, ya hablaremos de esto). No voy a decir “lineal” todas las
veces
2Un profesor GENIAL del Departamento de Matem´aticas de la UAM
4 CAP´ITULO 1. M ´ETODO DE GAUSS
SISTEMA EN FORMA DE MATRIZ:Para trabajar m´as c´omodos, podemos escribir el sistema en forma de matriz, por ejemplo:
(
2x+ 3y= 0
x+y= 1 −→
2 3 0 1 1 1
1.1. ELIMINACI ´ON DE GAUSS. SUSTITUCI ´ON HACIA ATR ´AS 5
1.1.
Eliminaci´
on de Gauss. Sustituci´
on hacia atr´
as
Supongamos que tenemos un sistema y supongamos que tiene soluci´on ´unica3. Para resolver un sistema,
tenemos que manipular sus ecuaciones sin alterar la soluci´on. ¿Que manipulaciones permitimos en este m´etodo4? Las
que llamaremosoperaciones elementales:
(1) Intercambiar dos ecuaciones (filas en la forma matricial) de sitio
(2) Multiplicar una ecuaci´on (fila, en la forma matricial) por un n´umero
(3) Sustituir una ecuaci´on (fila en la forma matricial) por ella misma m´as un multiplo de otra
Con la eliminaci´on de Gauss, encontramos un sistema equivalente en forma triangular. Describiremos el m´etodo con un ejemplo (aunque est´e feo):
ELIMINACI ´ON DE GAUSSSi tenemos un sistema con soluci´on ´unica, por ejemplo:
x+y+z = 2 2x+ 4y+ 4z = 4
x+ 2y+ 4z = 1
−→
1 1 1 2 2 4 4 4 1 2 4 1
Preparamos la columna 1
• Elegimos un pivotea: un elemento de la primera columna distinto de 0 (a ser posible un 1) e intercambiamos las filas si es necesario para que esta fila quede en primera posici´on.
• A veces podemos simplificar una ecuaci´on. Por ejemplo sustituimos la segunda por ella misma multiplicada por 1
2:
−→
1 1 1 2 1 2 2 2 1 2 4 1
−→
• Nuestro objetivo es hacer 0’s debajo de la fila 1 (porque estamos arreglando la columna 1). Susti-tuimos la segunda fila por ella misma menos la primera, y la tercera fila por ella misma menos la primera y ya lo tenemos:
−→
1 1 1 2 0 1 1 0 1 2 4 1
−→
1 1 1 2 0 1 1 0 0 1 3 1
−→
• La fila 1 ya no se va a tocar m´as.
Preparamos la columna 2
• Elegimos un pivoteb: un elemento de la segunda columna distinto de 0 (que no est´e en la fila 1
que ya est´a “prohibido tocar”) e intercambiamos las filas si es necesario para que esta fila quede en primera posici´on.
• Nuestro objetivo es hacer 0’s debajo de la fila 2 (porque estamos arreglando la columna 2 esta vez). Sustituimos la tercera fila por ella misma menos la segunda:
−→
1 1 1 2 0 1 1 0 0 0 2 1
−→
• La fila 2 ya no se va a tocar m´as
En este caso ya hemos terminado. Ese sistema decimos que est´a en formal triangular.
aDebe haber alguno porque si no el sistema no puede tener soluci´on ´unica (ya lo veremos) bLo mismo
3Porque lo pone en el enunciado o porque lo sabemos de forma emp´ırica
4¡Ojo! hay que asegurarse de que no alteramos la soluci´on (lo dejamos como ejercicio para vosotros). En otros m´etodos (no lo usaremo
6 CAP´ITULO 1. M ´ETODO DE GAUSS
Pero nosotros no queremos poner el sistema en forma triangular, queremos resolverlo. Para eso, tenemos que combinar el m´etodo anterior con el siguiente (de nuevo lo explicamos sobre un ejemplo):
SUSTITUCI ´ON HACIA ATR ´ASDesde la forma triangular (es mejor trabajar ahora con las ecuaciones):
x+y+z = 2 0 +y+z = 0 0 + 0 + 2z = 1
De la tercera (la ´ultima) ecuaci´on obtenemos el valor dez:
2z= 1 −→ z= 12
Ahora sustituimos esto en la segunda ecuaci´on y obtenemos el valor dey:
y+1
2 = 0 −→ y=−
1 2
Ahora sustituimos ambas cosas en la primera ecuaci´on y hemos terminado:
x−1
2 + 1
2 = 2 −→ x= 2
1.2.
Gauss-Jordan
El m´etodo de Gauss-Jordan utiliza las mismas operaciones elementales que el anterior, pero resuelve el sistema sin pasar por la forma triangular. Tiene una ventaja importante: si tenemos dos sistemas con la misma matriz de coeficientes5 (ahora vemos qu´e es eso) Gauss-Jordan permite por el mismo esfuerzo resolver los dos a la vez.
GAUSS JORDANTenemos dos sistemasa con soluci´on ´unica y la misma matriz de coeficientes.
x+y+z = 2 2x+ 4y+ 4z = 4
x+ 2y+ 4z = 1
x+y+z = 0 2x+ 4y+ 4z = 0
x+ 2y+ 4z = 0
−→
1 1 1 2 0 2 4 4 4 0 1 2 4 1 0
Columna 1Elegimos un pivoteb y reordenamos, como antes. Ahora dividimos la fila del pivote
para que en la posici´on del pivote haya un 1. Luego hacemos 0’s debajo de la fila 1 (omitimos los detalles) y ya no tocamos m´as.
−→
1 1 1 2 0 0 1 1 0 0 1 2 4 1 0
−→
1 1 1 2 0 0 1 1 0 0 0 1 3 1 0
−→
Columna 2Igual pero ¡ojo! Ahorahacemos 0’s encima y debajo de la fila 2y no tocamos m´as:
−→
1 1 1 2 0 0 1 1 0 0 0 0 2 1 0
−→
1 0 0 2 0 0 1 1 0 0 0 0 2 1 0
−→
Columna 3Lo mismo (bueno, ahora s´olo 0’s arriba)−→
1 0 0 2 0 0 1 0 −1
2 0
0 0 0 1
2 0 −→
x= 2 /x= 0 y=−1
2 /y= 0
z= 12 /z= 0
aLos sistemas que tiene todas las ecuaciones “= 0” se llamanhomog´eneosy si tiene soluci´on ´unica esta esx
1=. . .=xn= 0
(ejercicio: ¡comprobadlo!) pero nos vale de ejemplo
bDe nuevo debe haber alguno en cada paso)
1.3. FORMA ESCALONADA 7
1.3.
Forma Escalonada
El algoritmo de la eliminaci´on de Gauss se puede hacer aunque el sistema no tenga soluci´on, o esta no sea ´unica. La diferencia es que en este caso lo que obtenemos no es un sistema triangular, si no un sistemaescalonado:
ELIMINACI ´ON DE GAUSS PARA LA FORMA ESCALONADASea el sistema de 3 ecuacione 4 inc´ognitasa siguiente (ya en forma de matriz):
1 2 0 0 0 0 0 1 1 0 0 0 2 2 0
Columna 1 Hacemos como siempre, elegimos el pivote (ya est´a puesto en su lugar) y hacemos 0’s (ya est´an hechos) y la fila 1 no se toca m´as.
Columna 2 No podemos encontrar ning´un pivote en la columna 2. Pasamos a la siguiente.
Columna 3 Ecogemos el 1 como pivote. Restamos a la fila 3 dos vece la fila 2 y la fila 2 no se toca m´as.
1 2 0 0 0 0 0 1 1 0 0 0 0 0 0
Columna 4 No podemos encontrar ning´un pivote. Hemos terminado.
aA diferencia de antes ahora puede haber distinto n´umero de ecuaciones y de inc´ognitas
Independientemente de c´omo hayamos hecho la eliminaci´on de Gauss, el n´umero de columnas en las que hemos encontrado un pivote es siempre el mismo (es uninvariante: ¡comprobadlo!)
El n´umero de pivotes que hay en un sistema en forma escalonada, o lo que es lo mismo, el n´umero de filas distintas de 0 es elrangode la matriz de coeficientes (2 en el ejemplo anterior).
Si tenemos un sistema conninc´ognitas:
La matriz tiene soluci´on ´unica si y solo si el rango esn.
Si en la forma escalonada tenemos alguna ecuaci´on del tipo 0 =bi con bi 6= 0, entonces el sistema es
incompatible.
En cualquier otro caso, el sistema es compatible indeterminado y tiene infinitas soluciones, que dependen de uno o m´as parametros (nmenos el rango).
Ejercicios
Cap´ıtulo 2
Matrices y su relaci´
on con los sistemas
Ya hemos utilizado tramposamente matrices (s´olo como notaci´on) en la lecci´on anterior. Unamatriz 1 es una
“cosa” del siguiente tipo:
a11 . . . a1n
..
. ... am1 . . . amn
donde esas “cosas”aij son “n´umeros”2. Decimos que esta matriz esm×no que tienemfilas yncolumnas.
Las matrices valen para infinidad de cosas3 y no podemos contarlas todas aqu´ı. A nivel te´orico, nos interesan
poque est´an relacionadas con los sistemas, y m´as adelante con las aplicaciones lineales y el rango de conjuntos de vectores.
2.1.
El concepto de grupo
Primero necesitamos un poquito de notaci´on:
Un conjuntoX(de “cosas”, en esta lecci´on seran matrices) que se pueden operara (de momento denotaremos a la operaci´on “·”) y tal que la operaci´on cumple las siguientes propiedades:
(1) Existe un elemento neutro, esto es, un elementoedel conjuntoX tal que para cualquier otro elementox de ese conjunto
e·x=x·e=x
(2) Todo elemento tiene su inverso: dado un elementoxdel conjuntoX, existe otro elementox−1del conjunto
X tal que:
x·x−1=x−1·x=e
(3) Se cumple la propiedad asociativa: para cualesquiera elementosx, y, zdeX, se tiene que:
(x·y)·z=x·(y·z)
decimos que es un grupo. Si adem´as, se cumple la propiedadconmutativa, esto es:
Para cualesquiera elementosxey del conjuntox, se tiene que:
x·y=y·x
decimos que el grupo es conmutativoo abeliano.
aEsto es, que existe una operaci´on entre estas cosas, que se suele llamar “suma”, o “multiplicaci´on”, que es el caso de las
matrices aunque no tenga nada que ver con sus an´alogas definidas para n´umeros
Por ejemplo, el conjunto de los n´umeros enteros junto con la operaci´on “suma” habitual forma un grupo abeliano. Lo mismo para el conjunto de los n´umeros reales distintos de 0 junto con la operaci´on multiplicaci´on. ¡Comprobadlo!
1Esta nombre se lo debemos a Cayley, y ya veremos de donde viene
2Son elementos de uncuerpo. De momento, n´umeros reales o complejos, como en el la lecci´on anterior 3V´ease por ejemplo la parte V del libro [3]
10 CAP´ITULO 2. MATRICES Y SU RELACI ´ON CON LOS SISTEMAS
2.2.
La multiplicaci´
on de matrices
SeanAm,n una matrizm×nyBn,k una matrizn×k:
Am,n=
a11 . . . a1n
..
. ... am1 . . . amn
, Bn,k =
b11 . . . b1k
..
. ... bn1 . . . bnk
Elproductode esas dos matrices es una matrizCm,kde tama˜nom×k:
Cm,k=
c11 . . . c1k
..
. ... cm1 . . . cmk
tal que:
cij = n
X
r=1
air·brj (2.1)
Se entender´a mejor con un ejemplo:
1 1 0 2 2 0
3 4 5 0 0 0 3 4 6
=
1·3 + 1·0 + 0·3 1·4 + 1·0 + 0·4 1·5 + 1·0 + 0·6 2·3 + 2·0 + 0·3 2·4 + 2·0 + 0·4 2·5 + 2·0 + 0·6
=
3 4 5 6 8 10
esto es, para calcular la posici´on 1,2 del producto anterior hemos miramos la fila 1 y la columna 2 de las matrices que estamos multiplicando:
1 1 0
4 0 4
= 1·4 + 1·0 + 0·4 = 4
IMPORTANTE:AUNQUE SE ENTIENDA MEJOR EL EJEMPLO ES IMPRESCINDIBLE APRENDER Y COMPRENDER LA F ´ORMULA (2.1).
2.3.
Matrices inversas
En esta secci´on s´olo miraremos matrices cuadradas. Vamos a estudiar cuando estas matrice matriz tienen una inversa (en el sentido que le d´abamos a esta palabra cuando hablabamos de grupos) respecto a la operacion producto.
Encontrar la inversa de una matriz:
a11 . . . a1n
..
. ... an1 . . . ann
es equivalente a resolver los siguiente sitemas simult´aneamentea:
a11 . . . a1n 1
..
. ... . .. an1 . . . ann 1
a¡Pensad por qu´e! Si no, igual os da alguna pista la secci´on siguiente
Hay otras f´ormulas diab´olicas para calcular la inversa de una matriz4 pero no son tan importante de momento.
Para cualquier n´umero naturaln≥1, el conjunto de matrices de tama˜non×n que tienen inversa, forman un grupo no abeliano (¡comprobadlo!).
2.4. RANGO DE UNA MATRIZ. TEOREMA DE ROUCH ´E-FROBENIUS 11
2.4.
Rango de una matriz. Teorema de Rouch´
e-Frobenius
Si tenemos una matrizM, podemos utilizar la eliminaci´on de Gauss igual que en la lecci´on anterior y conseguir una matriz escalonada y definir el rango,rg(M), igual que hac´ıamos con los sistemas.
Usando esto y pensando un poco, os convencer´eis del siguiente Teorema:
TEOREMA DE ROUCH ´E-FROBENIUS: Supongamos que tenemos el siguiente sistema puesto en forma de matriz:
[A|b] =
a11 . . . a1n b1
..
. ... ... am1 . . . amn bm
[A|b] se llamamatriz aumentada. La matriz sin la ´ultima columna (A) se llama lamatriz de coeficientes.
El sistema escompatible(tiene al menos una soluci´on) sirg(A) =rg([A|b]).
El sistema esincompatible(no tiene ninguna soluci´on) sirg(A)< rg([A|b]).
El sistema escompatible determinado(tiene soluci´on ´unica) si y s´olo sirg(A) =rg([A|b]) =n.
2.5.
Calcular la soluci´
on de un sistema mediante una matriz inversa
Una manera de escribir el sistema:
a11x1+. . .+a1nxn=b1
.. .
an1x1+. . .+annxn=b1
usando productos de matricesa es la siguiente:
a11 . . . a1n
..
. ... an1 . . . ann
· x1 .. . xn = b1 .. . bn
Pod´eis comprobar que si la matriz de coeficientes tiene inversa se puede calcular el valor dex1, . . . , xn
calcu-lando la inversa y luego haciendo el siguiente producto:
x1 .. . xn =
a11 . . . a1n
..
. ... an1 . . . ann
−1 · b1 .. . bn
aHasta ahora lo hemos estado haciendo informalmente, en realidad
Este m´etodo requiere hacer muchas operaciones, pero a veces (por cosas de la vida) es conocida la inversa de la matriz de coeficientes (de c´alculos anteriores por ejemplo) y podemos aprovechar esto.
2.6.
Comentario Final
Las matrices y los sistemas est´an muy relacionados, pero las matrices surgen hist´oricamente m´as tarde. Pr´ oxi-mamente, estudiaremos varios conceptos (independencia lineal,determinante,. . . ) que son estructuras naturales que uno se encuentra si estudia sistemas lineales, no es algo que un matem´atico se invent´o de la nada.
Sintetizar la estructura que uno observa en un problema5, es en general complicado. En este caso es m´as sencillo
hacerlo usando matrices (por eso se explica as´ı), pero los conceptos no son exclusivos de, ni motivados por, las matrices.
12 CAP´ITULO 2. MATRICES Y SU RELACI ´ON CON LOS SISTEMAS
Ejercicios
Cap´ıtulo 3
Dependencia Lineal de vectores flecha y
sistemas
Ya hemos visto en algunos ejercicios propiedades curiosas e inquietantes... cuando uno trabaja un rato con matrices y sistemas acaba desarrollando de manera intuitiva los conceptos de dependencia e independencia lineal1.
Peeeeero tenemos un problema pedag´ogico en este punto. No hemos contado aun espacios vectoriales. Vamos a tener que hablar de vectores en ese cap´ıtulo de todas maneras. Pero son vectores tal como los entend´ıamos en el instituto2 y no en el sentido que se le dar´a m´as adelante:
Esto es un vector columna:
1 2 4
. En general es un objeto de la forma:
b1
b2
.. . bn
donde losbi son n´umeros (reales,
complejos o de otro cuerpo).
Esto es un vector fila: [1,2,4]. En general es un objeto de la forma: [b1, b2, . . . , bn] donde los bi son n´umeros
(reales, complejos o de otro cuerpo).
Para distinguirlos, a los vectores del instituto los llamaremos vectores flecha. Los vectores flecha se pueden sumar y restar entre s´ı y multiplicar por un escalar (un n´umero, de nuevo real, complejo o de otro cuerpo en cada caso). Eso lo sab´ıamos hacer en el instituo y no hablaremos m´as de ello aqu´ı, porque bastante hablaremos en su momento.
El conjunto de todos los vectores flecha de longitudnse suele denotar porRn.
3.1.
Dependencia lineal (de vectores flecha)
Esto que vamos a decir ahora, se puede aplicar a muchos otros objetos aparte de los vectores flecha (a vectores en un espacio vectorial en general). Volveremos sobre ello m´as adelante:
Sean~x1, . . . , ~xn un conjunto de vectores flecha (fila o columna, da lo mismo). Otro vector~y decimos que es
combinaci´on lineal de los anteriores si existen unos n´umeritosλ1, . . . , λn (reales, complejos o en el cuerpo que
sea) tales que:
~
y=λ1·~x1+. . .+λn·~xn
Un conjunto de vectores~x1, . . . , ~xn eslinealmente independientesi ninguno de ellos es combinaci´on lineal
de los restantes y linealmente dependienteen caso contrario.
Por ejemplo: [1,2] es combinaci´on lineal de [1,0],[0,1] ya que:
[1,2] = 1·[1,0] + 2·[0,1]
Hablaremos en la secci´on siguiente de c´omo comprobar si un vector flecha es combinaci´on lineal de otros resolviendo un sistema (y tambi´en de como calcular los “numeritos” λi).
1Yo ten´ıa un profesor (lo dec´ıa por otra cosa) que dec´ıa “Esto es un concepto muy natural, y si no existiera habr´ıa que inventarlo
porque es que verdaderamente ESTA AH´I”
2Este concepto de vector como una “flechita” es debido a un matem´atico llamado Bellavitis
14 CAP´ITULO 3. DEPENDENCIA LINEAL DE VECTORES FLECHA Y SISTEMAS
3.2.
Dependencia lineal (de vectores) y sistema lineales
Supongamos que tenemos unos vectores flecha columna (si los originales eran fila, los “tumbamos” y ya est´a):
~b= a11 a21 .. . am1
, ~A1= a11 a21 .. . am1
, ~A2 a11 a21 .. . am1
, . . . , ~An
a11 a21 .. . am1
y queremos saber si~v es combinaci´on lineal de los dem´as. Esto es equivalentea a resolver el sistema:
a11 . . . a1n
..
. ... am1 amn
λ1 .. . λn = b1 .. . bn
a¡Ojo! ¡Curvas peligrosas! esto quiere decir: “no hay m´as que explicar, pero entender esto requiere mirar a la frase un rato”
Entonces tenemos el siguiente magn´ıfico resultado3:
PROPOSCI ´ON:El sistema [A|b] es compatible (esto es, tiene al menos una soluci´on) si y s´olo si la columna bes una combinaci´on lineal de las columnas deA.
3.3.
Combinaciones lineales y el rango de una matriz
Hasta ahora se ha definido el rango de una matriz como el n´umero de pivotes que tiene si hacemos la eliminaci´on de Gauss. Aunque se masca en el ambiente que hay mas maneras de calcularlo. Todo se basa en el siguiente resultado del que ten´eis que convenceros emborronando alg´un papel:
PROPOSICI ´ON: Si tengo un conjunto de vectores flecha fila, estos son linealmente dependientes si y s´olo al hacer la eliminaci´on de Gauss, obtenemos una o m´as filas de 0’s en la matriz escalonada correspondiente.
Este resultado nos da la siguiente caracterizaci´on SUPERIMPORTANTE:
PROPOSICI ´ON:Si tenemos una matrizMsu rango se puede calcular de las siguientes maneras (obviamente todas nos dan el mismo resultado):
Haciendo eliminaci´on de Gauss como siempre y contando el n´umero de pivotes.
Haciendoeliminaci´on de Gauss por columnas y contando los pivotes (me voy a saltar lo detalles, porque creo que sabr´eis a que me refiero, es equivalente a calcular la transpuesta de la matriz, que tambi´en supongo que sab´eis lo que es, y luego hacer la eliminaci´on de Gauss normal).
Calculando el m´aximo n´umero de flias linealmente independientes
Calculando el m´aximo n´umero de columnas linealmente independientes
Un ´ultimo comentario (seguro que se os habr´ıa ocurrido) pero esto tambi´en nos indica que si tenemos un conjunto de vectores flecha fila y queremos saber cual es el m´aximo n´umero de vectores linealmente independientes, basta con ponerlos en una matriz, hacer eliminaci´on de Gauss y contar el n´umero de filas no nulas.
Ejercicios
1.
Cap´ıtulo 4
El espacio de soluciones de un sistema
En Matem´aticas la palabra “espacio” se puede entender en muchos casos como equivalente a la palabra “conjunto” con la condici´on de que los elementos del conjunto se llamen “puntos”. Se suele hacer as´ı cuando queremos darle un aspecto geom´etrico a lo que estamos haciendo.
En esta lecci´on queremos pensar un poco sobre c´omo es el conjunto de soluciones de un sistema. Y queremos darle ese toque geom´etrico porque pueden ser interpretadas como vectores flecha. Ya sabemos varias cosas. Por ejemplo, si tenemos un sistema (con n´umeros reales o complejos1) que los sistemas pueden (Teorema de Rouch´e-Frobenious):
No tener soluci´on
Tener una soluci´on ´unica
Tener infinitas soluciones
Veremos m´as cosas sobre la estructura del espacio de soluciones, y adem´as esto ser´a la motivaci´on del concepto de espacio vectorial.
4.1.
Espacio de soluciones de un sistema homog´
eneo
Un sistema [A|b] se llama homog´eneosi la columna b es una columna de 0’s (se suele denotar~0). Se tiene lo siguiente:
PROPOSICI ´ON:Sea el sistema homog´eneoA~x=~0:
~x=~0 es una soluci´on del sistema
Si~xes una soluci´on del sistema yλes un n´umero (real, complejo o en el cuerpo que sea), entoncesλ·~x es una soluci´on.
Si~xy~y son soluciones del sistema, entonces~x+~y es una soluci´on del sistema.
Lo que realmente esta pasando es lo siguiente:
TEOREMA:Sea el sistema [A|~0] que tienenvariables. Existenkvectores flecha linealmente independientes, tales que cualqueir soluci´on de [A|~0] es combinaci´on lineal de ellos .
Adem´ask=rg(A)−n
Este resultado es muy sencillo de comprender si uno hace la triangulaci´on de Gauss, y luego escribe el sistema en forma de ecuaciones. Algunas de las variables pasan a a ser par´ametros, y ah´ı aparecen esosk vectores linealmente independientes.
Por ejemplo:
(
x+y+z+t = 0
x+ 2y= 0 →Soluci´on:
x y z t =
−2z−2t z+t
z t −→ x y z t
=z·
−2 1 1 0
+t·
−2 1 0 1 (FORMA VECTORIAL)
1Con otros cuerpos hay que afinar m´as
16 CAP´ITULO 4. EL ESPACIO DE SOLUCIONES DE UN SISTEMA
4.2.
Espacio de soluciones de un sistema no-homog´
eneo
La proposici´on de la secci´on anterior es falsa para sistemas no homog´eneos. ¿Est´a todo perdido? No, gracias a la siguiente observaci´on:
PROPOSICI ´ON:Sea el sistema [A|b] Supongamos que conocemos una soluci´on~x. Cualquier otra soluci´on ~yse puede comprobar que es del tipo:
~y=~x+~yH
donde~yH es una soluci´on del sistema homog´eneo [A|~0] (que se suele llamarsistema homog´eneo asociado
al sistema [A|B]).
Por lo tanto, razonando como antes tenemos lo siguiente:
TEOREMA:Sea el sistema [A|~0] compatible que tienenvariables. Sea~xuna soluci´on del sistema. Existen kvectores flecha linealmente independientes~v1, . . . , ~vk, tales que cualqueir soluci´on de [A|~b] es de la forma:
~ x+~v
donde~ves una combinaci´on lineall de los~v1, . . . , ~vk, que a su vez son soluci´on del sistema homog´eneo asociado.
Adem´ask=rg(A)−n
(
x+y+z+t = 1
x+ 2y = 2 →Soluci´on:
x y z t =
−2z−2t 1 +z+t
z t −→ x y z t = 0 1 0 0 +z· −2 1 1 0 +t· −2 1 0 1 (FORMA VECTORIAL)
N´otese que
0 1 0 0
es una soluci´onparticulardel sistema no homog´eneo (como se explicaba en la primera
proposi-ci´on de esta secci´on) y
−2 1 1 0 , −2 1 0 1
son dos soluciones linealmente independientes del sistema homog´eneo asociado
(lo vimos en la seccion anterior).
4.3.
Regreso al futuro
Lo que hemos estudiado en este cap´ıtulo, es la motivaci´on de varios de los conceptos que aparecer´an en cap´ıtulos siguientes. En particular, cuando hayamos desarrollado el lenguaje adecuado, lo que acabamos de contar puede ser reformulado como:
Sea un sistema [A|b] que tiene ninc´ognitas (las soluciones ser´an por tanto vectores flecha enRn):
El conjunto de soluciones de [A|~0] es un subespacio vectorial deRn
El conjunto de soluciones de [A|b] es un subespacio af´ın deRn
Ejercicios
Cap´ıtulo 5
Factorizaci´
on LU
Desde el punto de vista argumental de la asignatura de ´Algebra Limeal, este tema podr´ıa no ser contado1. Pero para ciertas Ingenier´ıas es importante, as´ı que lo contamos2. Pero, podr´ıas saltarte este tema, seguir con la asignatura, y estudiartelo despu´es.
La factorizaci´on LU es importante por sus aplicaciones pr´acticas a la resoluci´on de sistemas principalmente.
5.1.
¿Qu´
e es la factorizaci´
on LU?
Lafactorizaci´on LUes un m´etodo para descomponer una matrizM en un producto de dos:
M =LU
dondeLes triangular inferior y tiene 1’s en la diagonal y U es triangular superior.
Nosotros s´olo vamos a estudiar el caso en que la matriz M es cuadrada. Por razones que se desprenden de la teor´ıa que veremos m´as adelante:
No toda matriz cuadradaM admite una descomposici´on LU.
SiM admite una descomposici´on LU, esta es ´unica (s´olo existen dos matrices L yU satisfaciendo las condiciones que dijimos arriba).
5.2.
¿C´
omo se calculan
L
y
U
?
Supongamos que tenemos una matrizM. Vamos a suponer que:
M =
2 2 2 1 1 1 0 0 0
para que se entienda mejor con este ejemplo, aunque lo que contemos aqu´ı se puede hacer en general. Hacer una de las operaciones elementales permitidas en la eliminaci´on de Gauss, es equivalente a multiplicar aM por una matriz de las que se explican a continuaci´on, que tambi´en se llaman elementales3
Si quiero multiplicar la filaipor un escalarλ, es equivalente a multiplicar por una matriz diagonal donde todas las entradas de la diagonal son 1’s excepto la entrada (i, i). Por ejemplo si quiero multiplicar la fila 1 deM por
1
2 simplemente:
1
2 0 0
0 1 0 0 0 1
2 2 2 1 1 1 0 0 0
=
1 1 1 1 1 1 0 0 0
1En la asignatura correspondiente del Grado en Matem´aticas en mis tiempos no se hac´ıa, se contaba en otra asignatura 2Y por eso entra en el examen y es igual de importante que los dem´as
3No daremos detalles
18 CAP´ITULO 5. FACTORIZACI ´ON LU
Si quiero intercambiar varias filas de stitio, tengo que multiplicar por una matriz que tiene 0’s y 1’s y que s´olo tiene un 1 por cada fila y cada columna (¡os dejo de encargo averiguar por cual en cada caso!). Por ejemplo, para intercambiar las filas 2 y 3 en la matrizM:
1 0 0 0 0 1 0 1 0
2 2 2 1 1 1 0 0 0
=
2 2 2 0 0 0 1 1 1
Si quiero sustituir la filai por ella misma m´as λ veces la fila j, simplemente tengo que multiplicar por una matriz que es como la matriz identidad salvo en la posici´on (i, j), en la que vale λ. Por ejemplo si quiero sustituir la fila 1 deM por la ella misma menos 2 veces la fila 2:
1 −2 0 0 1 0 0 0 1
2 2 2 1 1 1 0 0 0
=
0 0 0 1 1 1 0 0 0
Conjugando astutamente estos razonamientos, se llega a lo siguiente:
SeaM una matriz cuadrada.
(1) M tiene una factorizaci´on LU si y solo si, al hacer eliminaci´on por Gauss no es necesario intercambiar la posici´on de dos filas en ning´un momento (los pivotes est´an colocados en el sitio adecuado desde el principio).
(2) SiM tiene una factorizaci´on LU, esto es:
M =LU
para dos matricesLyU cumpliendo lo correspondiente, entonces:
U es la matriz que te queda cuando haces eliminaci´on de Gauss aM
Les una matriz con 1’s en la diagonal y donde la entrada (i, j) es el m´ultilo de la filaj que se resta a la filaipara cargarte la posici´on (i, j)
5.3.
¿C´
omo se utiliza la factorizaci´
on LU para resolver sistemas?
El truco es el siguiente:
Supongamos que queremos resolver el sistema:
M x=b
dondeM tiene una descomposici´on LU:
M =LU En realidad queremos resolver:
(LU)x=bo equivalentementL(U x) =b
as´ı que si llamamosy=U x:
(1) Resolvemos el sistemaLy=bporsustituci´on hacia alante (totalmente an´aloga a la sustituci´on hacia atr´as).
(2) Una vez que conocemos el valor dey, resolvemos el sistemaU x=y por sustituci´on hacia atr´as.
5.3. ¿C ´OMO SE UTILIZA LA FACTORIZACI ´ON LU PARA RESOLVER SISTEMAS? 19
Ejercicios
Parte II
Espacios Vectoriales
Cap´ıtulo 6
Espacios vectoriales
Ya hemos presentado el conjunto de los “vectores flecha” 1
Rn que surgen de manera natural de la Geometria
af´ın.
Muchos a˜nos m´as tarde (a principios del siglo XX) se produce, un desarrollo importante del estudio de los espacios de funciones2 (An´alilsis).
En alg´un momento, alguien se da cuenta que ambos objetos tienen una estructura muy parecida. Y entonces la sintetiza, dando lugar al concepto moderno de espacio vectoria (el que presentaremos aqu´ı). Este concepto se establece desde entonces firmemente para los Matem´aticos y su uso se exitende a todas las ramas de las Matem´aticas (y de las Ciencias).
Siendo estudiantes de primero, no conoc´eis mucho sobre espacios de funcionesapero, si sois ingenieros, creedme
os los encontrar´eis.Y muchob.
A lo largo de toda la asignatura, estar´eis tentados de seguir pensando que esencialmente el ´unico espacio vectorial posible, es el de los vectores flechac. Y ya hemos dicho que no, y que ense˜naros los dem´as no es un
capricho de los matem´aticos, es que los vais a necesitar en vuestra vida ingenieril.
De manera que por favor, haced un esfuerzo por pensar con generalidadd, (salvo, por supuesto, que se indique
en alg´un caso que estamos estudiando s´olo vectores flecha). Quiz´a si no hac´eis caso a este recuadro aprob´eis. Pero no habr´eis aprendido lo que se esperar´ıa de vosotros.
aAqu´ı veremos alg´un ejemplo de a qu´e nos referimos
bCada vez que hag´ais desarrollos de Fourier, por ejemplo, cosa imprescindible si uno trabaja con ondas
cEsto es lo que se hace en [4] como os comentaba el otro d´ıa. No es que los vectores flecha no sean interesantes ¡claro que s´ı!
(por eso tienen libros. Es que necesitamos m´as.) .
dEsto quiere decir que intentemos razonar de manera abstracta conjugando las propiedades de la definici´on (de espacio vectorial
en este caso), y no con la intuici´on (en este caso la intuci´on geom´etrica de los vectores flecha)
1Descartes y Fermat y luego Bolzano introducen alguna de las ideas. Como dijimos el concepto de “vector flecha” fue introducido por
Bellavitis y retocado por Argand y Hamilton.
2Lebesgue y un poco m´as tarde Banach y Hilbert
24 CAP´ITULO 6. ESPACIOS VECTORIALES
6.1.
Definici´
on de espacio vectorial
Unespacio vectorialsobre un cuerpoK(generalmenteRoC), es un conjuntoV, cuyos elementos se llaman
vectoresy que tiene dos operaciones:
Una que se suele llamar suma(no tiene por qu´e ser nada parecido a una suma), que permite “sumar vectores entre s´ı” (para obtener otro vector) y tal que V respecto a la operaci´on suma sea un grupo conmutativo.
Otra que se suele llamarproducto por escalares(no tiene por qu´e ser nada que se le parezca), que permite “multiplicar un elemento del cuerpo (unescalarse suele llamar) por un vector” (para obtener otro vector) y que cumple las siguientes propiedades :
• ∀λ1, λ2∈K,∀x∈V, λ1(λ2·x) = (λ1λ2)·x
• ∀λ∈K,∀x, y∈V, λ·(x+y) =λ·x+λ·y
• ∀λ1, λ2∈K,∀x∈V, (λ1+λ2)x=λ1x+λ2x
• ∀x∈V, 1·x=x
Rn (el conjuto de los vectores flecha de longitudn) junto con la suma y el producto por escalares ya conocidos,
son el ejemplo m´as motivador.
Otro ejemplo es el conjunto de todas las funciones de variable real con la suma y multiplicaci´on por escalares habituales.
6.2.
Subespacios vectoriales
Supongamos que tenemos un espacio vectorialV (sobre un cuerpoK) con una operaci´on suma y una operaci´on producto por escalares. Supongamos que tenemos un conjuntoW contenido enV. SiW con las operaciones anteriores forma un espacio vectorial en s´ı mismo, decimos que es unsubespacio vectorial(cuidadito, en particular, la suma de dos vectores deW debe pertenecer tambi´en aW y lo mismo para el producto por escalares).
En realidad, dado un espacioV (sobre un cuerpoK) con una suma y un producto por escalares, si tenemos
un subconjntoW deV, para comprobar si es un subespacio vectorial, basta comprobar:
que la suma de vectores deW es un vector deW
que el producto de un vector deW por cualquier escalar es un vector deW
Ejercicios
Cap´ıtulo 7
Dimensi´
on de un Espacio Vectorial
Los espacios vectoriales, pueden ser muy dif´ıciles de tratar. Los que son m´as sencillos, son los llamadosfinitamente generados. Son esos los que vamos a tratar aqu´ı. Pero recordemos, hay m´as espacios vectoriales que son interesantes, no dejemos que el contenido de esta lecci´on eclipse lo aprendido en la anterior.
7.1.
Combinaciones lineales. Espacio finitamente generado
La siguiente definici´on generaliza lo que estudiamos en la lecci´on 3. Se puede definir dependencia e independencia lineal de vectores en cualquier espacio vectorial (no s´olo para vectores flecha):
Sea V un espacio vectorial sobre un cuerpo K. Sean x1, . . . , xn ∈ V un conjunto de vectores. Otro vector
y∈V decimos que escombinaci´on linealde los anteriores si existen unos (n´umeritos)λ1, . . . , λn∈Ktales
que:
~
y=λ1·~x1+. . .+λn·~xn
Un conjunto de vectoresx1, . . . , xn ∈V eslinealmente independientesi ninguno de ellos es combinaci´on
lineal de los restantes ylinealmente dependiente en caso contrario.
Ya vimos ejemplos en la lecci´on 3 cuandoV es el espacio vectorial de los vectores flecha, y en este caso sabemos encontrar losλi.
Definimos por ´ultimo lo siguiente:
Sea un espacio vectorialV sobre un cuerpo K.
Seanv1, . . . , vn ∈V. Definimos elsubespacio vectorial generado porv1, . . . , vn como el subespacio
vectorial formado por todas las posibles combinaciones lineales de :
hv1, . . . , vni={λ1·v1+. . .+λn·vn:λ1, . . . , λn∈K}
Se puede comprobar (ejercicio) que este subespacio es el subespacio m´as peque˜no deV que contiene a v1, . . . , vn.
Un espacio vectorialV sobre un cuerpoKdecimos que est´afinitamente generadosi existenv1, . . . , vn
que sonun conjunto finito de generadores del espacio, esto es:
hv1, . . . , vni=V
El espacio vectorial de los vectores flechaR3 (lo mismo pasa con
Rn) es finitamente generado. Podemos ver que
los vectores: (1,0,0),(0,1,0),(0,0,1) son un conjunto de generadores del espacio.
26 CAP´ITULO 7. DIMENSI ´ON DE UN ESPACIO VECTORIAL
7.2.
Bases. Teorema de la Dimensi´
on
Se tiene lo siguiente:
SeaV un espacio vectorial sobreK. Sean x1, . . . , xn, y sobreK. Supongamos quey es combinaci´on lineal de
x1, . . . , xn. Entonces:
hx1, . . . , xn, yi=hx1, . . . , xni
y se dice quey es ungenerador redundante (y si sobra ¿para que lo vamos a poner?). SeaV un espacio vectorial cobreK, sean v1, . . . , vn∈V tales que:
Son un conjunto de generadores deV (que por lo tanto es finitamente generado)
Ninguno de ellos es redundante, esto es,v1, . . . , vnes un conjunto de vectores linealmente independiente
Entonces decimos que{v1, . . . , vn}es unabasedeV.
Nuestro inter´es en que no haya “vectores redundantes” no es s´olamente est´etico. Se debe a que estas bases tienen la siguiente maravillosa propiedad:
Sea un espacio vectorialV sobre un cuerpoKy{v1, . . . , vn}una base del mismo. Entonces cualquier vector
x∈V se puede escribir de manera ´unica como:
x=λ1·v1, . . . , λn·vn
En base a esto, podemos comprobar el:
TEOREMA DE LA BASETodas las bases de un espacio vectorial finitamente generado tienen el mismo tama˜no (cardinal). Al n´umero de elementos de cualquiera de estas bases se le llama dimensi´on del espacio vectorial.
Bueno, estas cosas que hemos dicho aqu´ı, posibilitar´an que digamos (m´as adelante lo haremos con m´as detalle) queesencialmente todos los espacios vectoriales de dimensi´onnsobre un cuerpoK(digamosRsi lo prefer´ıs) “son” (la palabra que introduciremos luego es “son isomorfos a”) Kn (´o
Rn en el otro caso concreto). Esto se debe a que
al tener una base{v1, . . . , vn} para un espacioV cualquier elementoxse puede escribir como:
x=λ1·v1+. . .+λn·vn
y por tanto los puntos de V se pueden “identificar” con sus coordenadas respecto a una base fija: λ1·v1+. . .+λn·vn∼[λ1, . . . , λn]
Ya veremos los detalles.
7.3.
Comentario final: espacios de dimensi´
on infinita
Todo lo que se ha dicho aqu´ı, se puede hacer aunqueV no sea un espacio finitamente generado. Se puede hablar del conjunto generado por un conjunto infinito de vectores.
Se puede definir una base como un conjunto de vectores linealmente independientes, y tales que cualquier elemento del espacio se pueda poner como combinaci´on lineal de un conjunto finito de ellos.
En este caso la descomposici´on sigue siendo unica y el teorema de la base sigue siendo cierto, aunque en este caso diremos que la dimensi´on es infinita.
Un ejemplo, es el conjunto de polinomios con coeficientes realesR[x]. Una posible base (con un conjunto numerable de elementos) para este espacio es:
{1, x, x2, . . .}
Ejercicios
Cap´ıtulo 8
Operaciones con Subespacios. F´
ormula
de Grassman
Ahora que sabemos unas cuantas cosas sobre los espacios vectoriales y sus subespacios, vamos a estudiar algunos aspectos de algunos ejemplos importantes de subespacios, y nos vamos a centrar en el caso de espacios finitamente generados.
8.1.
Subespacio intersecci´
on
Sea V un espacio vectorial sobreK. SeanS1 yS2 subespacios deV. La intersecci´on:
S1∩S2
es un espacio vectorial.
Si S1 y S2 est´an finitamente generados por los vectores v1, . . . , vn y u1, . . . , um ¿c´omo podemos calcular un
conjunto de generadores deS1∩S2? Resolviendo el sistema lineal:
↑ ↑
v1 . . . vn
↓ ↓ λ1 .. . λn = ↑ ↑
u1 . . . um
↓ ↓ µ1 .. . µm
e interpretando adecuadamente la soluci´on.
Tambi´en se pueden intersecar familiasfinitas o infinitas (numerables) de subespacios y el resultado es de nuevo un subespacio vectorial.
8.2.
Subespacio Suma
En las mismas hip´otesis que en el recuadro anterior,S1∪S2puede comprobarse f´acilmente que no es un espacio
vectorial. El “an´alogo” a “juntar dos subespacios” es formar el subespacio suma:
Sea V un espacio vectorial sobreK. SeanS1 yS2 subespacios deV. Se define elsubespacio suma:
S1+S2={λ1x1+λ2x2:x1∈S1, x2∈S2, λ1, λ2∈K}
y es un espacio vectorial.
Se puede definir tambi´en la suma de una colecci´on finita o infinita (numerable) de espacios vectoriales. En el caso infinito hay que ser un poco m´as cuidadoso con la definici´on: s´olo se permiten sumas finitas (no entro en detalles).
Puede comprobarse f´acilmente que el subespacio suma S1+S2 es el subespacio m´as peque˜no deV que contiene
aS1 y aS2.
28 CAP´ITULO 8. OPERACIONES CON SUBESPACIOS. F ´ORMULA DE GRASSMAN
8.3.
F´
ormula de Grassman
Se tiene la siguiente f´ormula que es realmente ´util para ahorrar trabajo:
F ´ORMULA DE GRASSMAN:SeaV un espacio vectorial sobreK. SeanS1, S2dos subespacios vectoriales
deV. Supongamos queV es finitamente generado (y por tanto tambi´enS1, S2). Se tiene que:
dim(S1+S2) =dim(S1) +dim(S2)−dim(S1∩S2)
Ejercicios
Parte III
Aplicaciones Lineales
Cap´ıtulo 9
Aplicaciones Lineales. Un ejemplo
importante
Cuando en matem´aticas uno define un tipo de objeto o de estructura (en nuestro caso espacios vectoriales) despues generalmente define las aplicaciones entre ellos (en nuestro caso aplicaciones lineales) que “se comportan bien” respecto a la estructura.
9.1.
Aplicaciones Lineales
Sean dos espacios vectorialesV, W sobre el mismo cuerpoK. Una aplicaci´on:
T :V −→W
decimos que eslinealsi cumple las dos siguientes condiciones:
(1) ∀x, y∈V se tieneT(x+y) =T(x) +T(y)
(2) ∀x∈V,∀λen el cuerpo, se tiene queT(λx) =λT(x)
Como para cualquier aplicaci´on, uno puede definir laim´agen de una aplicaci´on linealT como:
Im(T) ={y∈W : existe x∈V, tal queT(x) =y}
Im(T) es un subespacio vectorial deW, o sea del espacio de llegada (¡comprobadlo!).
Adem´as, todos los espacios vectoriales tienen un punto “especial”, que es el 0, y por eso es muy interesante el siguiente espacio, llamadon´ucleo:
Ker(T) ={x∈V :T(x) = 0}
Ker(T) es un subespacio vectorial deV, o sea del espacio de salida (¡comprobadlo!).
32 CAP´ITULO 9. APLICACIONES LINEALES. UN EJEMPLO IMPORTANTE
9.2.
Un ejemplo importante: aplicaciones lineales asociadas a matrices
En el siguiente cap´ıtulo, veremos que las matrices no s´olo son un ejemplo importante si no que esencialmente cualquier aplicaci´on lineal entre dos espacios vectoriales de dimensi´on finita es una aplicaci´on lineal asociada a una matriz. Pero de momento vamos a coger soltura con ellas:
SeaAuna matriz m×n:
A=
a11 . . . a1n
..
. ... am1 amn
La aplicacion:
TA:Rn−→Rm
que obtenemos multiplicando vectores por esta matriz:
TA x1 .. . xn =
a11 . . . a1n
..
. ... am1 amn
x1 .. . xn
es una aplicaci´on lineal.
Una cosa importante que hay que saber sobre estas aplicaciones, es que hay un truco para calcular su im´agen y su n´ucleo:
La im´agen de la aplicaci´on linealTA es el conjunto de vectores:
y1 .. . xm =
a11 . . . a1n
..
. ... am1 amn
x1 .. . xn
esto es, el conjunto de todas las combinaciones lineales posibles de sus columnas. Por lo tanto, la im´agen deTAes el subespacio vectorial de W generado por las columnas deA:
Im(TA) =h
a11 .. . am1
, . . . ,
a1n
.. . amn i
El nucleo de la aplicaci´on linealTA es el conjunto de vectores [x1, . . . , xn] que satisfacen:
a11 . . . a1n
..
. ... am1 amn
x1 .. . xn = 0 .. . 0
9.3. INYECTIVO, SOBREYECTIVO, BIYECTIVO... 33
9.3.
Inyectivo, sobreyectivo, biyectivo...
Como funciones que son, las aplicaciones lineales pueden ser inyectivas, sobreyectivas o biyectivas. Recordemos que:
Una aplicaci´on (lineal o no) f :V −→W se dice que es:
inyectiva si ∀x1, x2 ∈ V tales que x1 =6 x2 se tiene f(x1) 6= f(x2) (si dos puntos son iguales, sus
im´agenes son iguales). En este caso,W tiene “igual o m´as” elementos queV.
sobreyectivasi∀y∈W, existe alg´unx∈V tal quef(x) =y (todos los puntos deV son la imagen de alguien enX). En este casoV tiene “igual o m´as” elementos queW
biyectivasi es inyectiva y sobreyectiva. En este casoV yW tienen el “mismo n´umero” de elementos.
En el caso de aplicaciones lineales (especialmente si est´an asociadas a una matriz), existen criterios sencillos para determinar si son inyectivas o sobreyectivas:
Una aplicaci´on linealT :V −→W es inyectiva si y solo siker(T) ={0}
Una aplicaci´on lineal T :V −→W es sobreyectiva si y solo siIm(T) =W (eso es exactamente lo que dice la definici´on). SiT es una aplicaci´on lineal dada por una matriz (como en la secci´on anterior), esto es:
T :Rn−→Rm
T
x1
.. . xn
=
a11 . . . a1n
..
. ... am1 amn
x1
.. . xn
para comprobar queIm(T) =W basta comprobar que el espacio generado por las columnas de la matriz, tiene rangom(en este caso).
Ejercicios
Cap´ıtulo 10
Aplicaciones Lineales entre espacios
vectoriales de dimensi´
on finita. Bases
Bien, ya hemos avanzado que si tenemos un espacio vectorial de dimensi´on finita V con una base{v1, . . . , vn}
podemos identificar sus elementos con las coordenadas en esa base. Cualquier elemento de x ∈ V que, como ya sabemos, se puede escribir de manera ´unica como combinaci´on lineal de los elementos de la base (sea la base que sea):
x=λ1v1+. . .+λnvn
lo podemos identificar de manera ´unica con esas coordenadas:
x∼[λ1, . . . , λn]
En vista de esto y de lo que sigue, veremos de que de hecho cualquier espacio vectorial sobre un cuerpo K de dimensi´on finitan, gracias a esta identificaci´on, se comporta esencialmente igual que el espacio vectorialKn.
10.1.
Aplicaciones lineales entre espacios vectoriales de dimensi´
on
fini-ta
Ya sabemos (o deber´ıamos saber) que una aplicaci´on lineal:
T :V −→W
entre dos espacios vectoriales, dondeBV ={v1, . . . , vn}es una base deV queda determinada si conocemosT(v1), . . . , T(vn),
ya que podemos calcularT(x) para cualquierx∈V haciendo lo siguiente:
T(x) =T(λ1v1+. . .+λnvn) =λ1T(v1) +. . .+λnT(vn)
si tambi´en tenemos una base deW,BW ={w1, . . . , wm} y tenemos que:
T(v1) =µ11w1+. . .+µm1
.. .
T(vn) =µ1nw1+. . .+µmn
ocurre la siguiente cosa maravillosa:
En las hip´otesis anteriores, podemos describirT utilizando las bases BV yBW utilizando la matriz:
µ11 . . . µ1n
..
. ... µm1 . . . µmn
de la manera siguiente: si tenemos un vectorx de V cuyas coordenadas en la base Bv son [λ1, . . . , λn] las
coordenadas deT(x) en la baseBW ser´an [α1, . . . , αm] donde:
µ11 . . . µ1n
..
. ... µm1 . . . µmn
36 CAP´ITULO 10. APLICACIONES LINEALES Y BASES
10.2.
El Teorema del Isomorfismo
No recuerdo si el nombre cl´asico es este, pero esa frase tan informal de que “todos los espacios vectoriales sobre
Kde dimensi´on finitanson esencialmenteKn” bien escrito ser´ıa:
SeaV un espacio vectorial sobreKde dimensi´on finitan. Entonces existe un isomorfismo entreV yKn.
De hecho hay muchos, cojamos cualquier base deV,BV ={v1, . . . , vn}. La aplicaci´on:
T :V −→Kn
x=λ1v1+. . .+λnvn7−→λnvn = [λ1, . . . , λn]
es un isomorfismo.
Si dos espacios vectoriales son isomorfos, tienen exactamente la misma estructura. Desde el punto de vista del Algebra Lineal, ambos son indistinguibles1.
10.3.
Cambios de Base
Si un espacio vectorial V tiene dos bases B = {v1, . . . , vn}, B0 ={u1, . . . , un} y tenemos un vector x ∈ V en
coordeandas sobre la baseB, es f´acil calcular sus coordenadas sobre la baseB0:
Si tenemos que:
v1=a11u1+. . .+an1un
.. .
vn =a1nu1+. . .+annun
y tenemos un vectorx∈V cuya expresi´on en la baseB esx=λ1v1+. . .+λnvn, su expresi´on en la baseB0
ser´ax=α1u1+. . .+αnun donde:
a11 . . . a1n
..
. ... an1 . . . ann
λ1 .. . λn = α1 .. . αn
esa matriz es la que llamamosmatriz de cambio de base de B a B0 y se suele denotar porPBB0
Podeis comprobar quePB0 B = (P
B B0)
−1.
Ahora bien, esto nos permite hacer los siguientes juegos:
Supongamos que tenemos una aplicaci´on linealT :V −→W.V tiene una baseBV yW tiene una baseBW.
Ya sabemos que podemos describir T utilizando esas bases con una matriz. Supongamos que esa matriz es M.
Imaginemos que ahora queremos expresar esa aplicaci´on linealT usando otras dos bases diferentesBV0 yBW0 deV y deW respectivamente. a¿Cual ser´a la matriz correspondiente? pues ser´a:
PB 0
W
BW ·M ·P
BV
B0
V
Cuando entend´ais por qu´e esta f´ormula, entender´eis pr´acticamente toda esta parte de la asignatura. Apren-derselaNO VALE DE NADA.
aGRABAD ESTO A FUEGO: esto no se hace para poneros un problema en una clase y obligaros a hacer cuentas
estupidas. A veces, en la vida, uno puede expresar muy f´acilmente una aplicaci´on lineal en una base concreta pero esta no le sirve (porque es complicada o lo que sea). Veremos ejemplos cuando hablemos de diagonalizacion.
1En Matem´aticas, la palabra isomorfismo quiere decir exactamente eso, en una “categoria de objetos” (espacios vectoriales en este
10.3. CAMBIOS DE BASE 37
Ejercicios
Cap´ıtulo 11
Subespacios Invariantes. Diagonalizaci´
on
Sin entrar en detalles: es muy importante por muchos motivos (aplicaciones en geometr´ıa, qu´ımica, estudios poblacionales,...) estudiar, dada una aplicaci´on lineal, cu´ales son subespacios invariantes, esto es:
Sea una aplicaci´on lineal de un espacio vectorial en si mismo:
T :V −→V
Sea S un subespacio vectorial deV.S es unsubespacio invariantesiT(S)⊂S
Para espacios vectoriales de dimensi´on finita, no es muy complicado determinar cuales son los subespacios vecto-riales invariantes mediante una aplicaci´on determinada. En espacios vectoriales de dimensi´on infinita, este problema llega a ser tremendamente complicado (problema del subespacio invariante).
11.1.
Autovectores y Autovalores
Vamos a estudiar ahora el caso m´as f´acil y seguramente m´as intersante por sus consecuencias y aplicaciones: determinar si una aplicaci´on lineal de un espacio vectorial de dimensi´on finita en s´ı mismo tiene subespacios invariantes de dimensi´on uno.
Sea K un cuerpo (digamos R o C). Sea T : Kn −→
Kn. Sea M la matriz de T en la base can´onica. Un
subespacio de dimensi´on 1 de Kn, es el subespacio generado por alg´un vector no nulo (x1, . . . , xn).
Por lo tanto, encontrar los subespacios invariantes de T de dimensi´on 1, es encontrar los vectores no nulos (x1, . . . , xn) que satisfacen:
M x1 .. . xn =λ x1 .. . xn
para alg´unλ∈K
que se llamanautovectoreso lo que es lo mismo:
(M −λ·I)
x1 .. . xn = 0 .. . 0
para alg´unλ∈K (11.1)
No podemos ir probando uno por uno todos losλ∈K. Pero si tenemos esperanza de que el sistema de (11.1)
tenga alguna soluci´on aparte de la trivial, es porque:
rango(M−λ·I)< n (11.2)
En tal caso a eseλse le llamaautovalor.
Vamos a ser ahora un poco malos, porque despues de todo el curso intentando no usar determinantes ahora los vamos a usar un momento. Para encontrar losλque cumplen (11.2) resolvemos la siguiente ecuaci´on polin´omica:
det(M−λI) = 0
40 CAP´ITULO 11. SUBESPACIOS INVARIANTES. DIAGONALIZACI ´ON
11.2.
Diagonalizaci´
on
Una consecuencia algebraica de la existencia de autovectores es la siguiente:
Sea M la matriz en la base can´onica de una aplicaci´on lineal T : Kn −→ Kn. Si M tiene n autovectores
linealmente independientes y los ponemos en una matriz P por columnas (por lo dicho anteriormente ser´a una matriz cuadrada) tenemos que:
M ·P =P·D
dondeD es una matriz diagonal cuyas entradas diagonales son los autovalores. Como las columnas deP son linealmente independientes, tiene inversa y en otras palabras, tenemos que;
M =P·D·P−1
y se dice queM esdiagonalizable.
Hay muchas maneras interesantes de interpretar esto. La principal es que existe una base en la que la matriz de T es diagonal.
Hay algo que hay que saber: si todos los autovalores deM, entonces evidentemente todos los autovectores deM son linealmente independientes entre s´ı, y por lo tantoM es diagonalizable.
Ejercicios
Bibliograf´ıa
[1] F. Chamizo Llorente,¿Y a mi que me importa? Aplicaciones del ´Algebra Lineal, disponible en la web del autor (a fecha de septiembre de 2015).
[2] C. D. Meyer,Matrix analysis and applied linear algebra. Siam, 2000.
[3] M. J. Sterling,Linear Algebra for Dummies, Wiley Publishing (2009)
[4] S. Treil,Linear Algebra Done Wrong, disponible en la web del autor (a fecha de octubre de 2015).