UNIVERSIDAD CARLOS III DE MADRID
Departamento de Matem´
aticas
MATEM ´
ATICAS
CAP´
ITULO 1
CURSO PREPARATORIO
DE LA PRUEBA DE ACCESO A LA UNIVERSIDAD
CURSO 2010–2011
Elaborado por
´
Indice general
1. ´Algebra Lineal 1
1.1. Sistemas lineales y m´etodos de resoluci´on . . . 1
1.2. Vectores y matrices . . . 2
1.3. Teorema de Rouch´e-Frobenius . . . 3
1.4. Determinantes . . . 4
1.5. Operaciones con matrices . . . 5
1.6. Resoluci´on de sistemas lineales . . . 7
Cap´ıtulo 1
´
Algebra Lineal
1.1.
Sistemas lineales y m´
etodos de resoluci´
on
M´etodos de resoluci´on de sistemas lineales:
1. M´etodo de sustituci´on: despejamos una inc´ognita en una ecuaci´on y sustituimos en las dem´as.
2. M´etodo de eliminaci´on de Gauss: eliminamos inc´ognitas de las ecuaciones obteniendo un sistema inmediato de resolver.
3. M´etodo de Cramer: utiliza un cociente de determinantes.
Notaci´on matricial:
Dado el sistema lineal
a11x+a12y+a13z =b1,
a21x+a22y+a23z =b2,
a31x+a32y+a33z =b3,
La MATRIZ DEL SISTEMA (matriz de los coeficientes del sistema), A, y la MATRIZ AMPLIADA,A|B, son respectivamente:
A=
a11 a12 a13
a21 a22 a23
a31 a32 a33
, A|B =
a11 a12 a13
a21 a22 a23
a31 a32 a33
b1
b2
b3
.
M´etodo de eliminaci´on de Gauss:
Consiste en reducir un sistema a otro equivalente mediante operaciones elementales, hacien-do ceros en la matriz ampliada. Las operaciones elementales son multiplicar una ecuaci´on por una constante, cambiar de orden las ecuaciones y sumar un m´ultiplo de una ecuaci´on
2 CAP´ITULO 1. ´ALGEBRA LINEAL
a otra. El paso intermedio es conseguir un sistema con una MATRIZ ESCALONADA, es decir, que tenga ceros debajo de la diagonal.
Un sistema decimos que es COMPATIBLE si tiene soluci´on. Decimos que es INCOMPATI-BLE si no tiene ninguna.
Decimos que un sistema es COMPATIBLE DETERMINADO si tiene soluci´on ´unica y de-cimos que es COMPATIBLE INDETERMINADO si tiene m´as de una.
1.2.
Vectores y matrices
Un VECTOR es una fila ordenada de n´umeros: ~a = (a1, a2, . . . , an) donde ai ∈ R, i =
1,2, . . . , n. Cada n´umero es una COMPONENTE del vector. En una matriz, tanto sus filas como sus columnas son vectores, que llamamos VECTORES FILA y VECTORES COLUMNA respectivamente.
La SUMA de dos vectores se hace componente a componente. S´olo se pueden sumar vectores con el mismo n´umero de componentes, por ejemplo:
(a1, a2) + (b1, b2) = (a1+b1, a2+b2).
El PRODUCTO de un vector por un n´umero se hace multiplicando cada componente por el n´umero, por ejemplo:
λ(a1, a2, a3) = (λa1, λa2, λa3), λ∈R.
PROPIEDADES
Si~a,~b, ~c son vectores y λ, µson n´umeros reales: 1. ~a+~b =~b+~a. (Conmutativa)
2. (~a+~b) +~c=~a+ (~b+~c).(Asociativa) 3. ~0 +~a=~a+~0 =~a. (Existe elemento neutro)
4. ~a+ (−~a) = (−~a) +~a =~0. (Existe elemento opuesto) 5. λ(~a+~b) =λ~a+λ~b.(Distributiva 1)
1.3. TEOREMA DE ROUCH ´E-FROBENIUS 3
Una COMBINACI ´ON LINEAL de un conjunto de vectores {a~1, . . . , ~ak} es una expresi´on:
λ1a~1+· · ·+λka~k,
donde λ1, . . . , λk ∈ R. El resultado es otro vector. Al resolver por el m´etodo de Gauss un
sistema hacemos combinaciones lineales de los vectores fila de la matriz ampliada.
Un conjunto de vectores es LINEALMENTE INDEPENDIENTE si toda combinaci´on li-neal suya igualada a cero tiene necesariamente todos los coeficientes cero. Diremos que es LINEALMENTE DEPENDIENTE si existe alguna combinaci´on lineal igualada a cero que no tiene todos los coeficientes nulos.
Es decir: es linealmente dependiente si alguno de los vectores se puede poner como com-binaci´on lineal de los otros. Es linealmente independiente si ning´un vector es combinaci´on lineal de los dem´as.
El RANGO de un conjunto de vectores es el n´umero m´aximo de vectores linealmente inde-pendientes que tiene. Tambi´en es la dimensi´on del espacio que generan sus combinaciones lineales.
Un conjunto de vectores B es una BASE de un espacio vectorialV si B ⊂V y cumple: 1. B es linealmente independiente.
2. Todos los vectores de V son combinaci´on lineal de los vectores deB.
La BASE CAN ´ONICA es la formada por los vectores con todas sus componentes cero salvo una, que es un 1. EnR3 es {(1,0,0),(0,1,0),(0,0,1)}.
El RANGO DE UNA MATRIZ es el rango del conjunto de sus vectores fila o sus vectores columna, que es el mismo.
La TRASPUESTA de una matrizA es la matriz que tiene por filas los vectores columna de
A. Se denota AT. Una matriz y su traspuesta tienen, por tanto, el mismo rango.
1.3.
Teorema de Rouch´
e-Frobenius
TEOREMA DE ROUCH´E-FROBENIUS
4 CAP´ITULO 1. ´ALGEBRA LINEAL
Observaciones:
1. Si no tienen el mismo rango, el sistema es incompatible.
2. Si los rangos son iguales y coinciden con el n´umero de inc´ognitas, el sistema es com-patible determinado.
3. Si los rangos son iguales pero inferiores al n´umero de inc´ognitas, el sistema es com-patible indeterminado.
Los sistemas con t´ermino independiente exactamente igual a cero se llaman HOMOG ´ENEOS:
a11x+a12y+a13z = 0,
a21x+a22y+a23z = 0,
a31x+a32y+a33z = 0.
Estos sistemas son siempre compatibles, porque una soluci´on trivial es la id´enticamente cero.
1.4.
Determinantes
El DETERMINANTE de una matriz cuadrada 2x2, A, se denota por|A| y se calcula:
|A|=
a1 b1
a2 b2
=a1b2 −a2b1.
El DETERMINANTE de una matriz cuadrada 3x3, |A|, se calcula:
|A|=
a11 a12 a13
a21 a22 a23
a31 a32 a33
=a11
a22 a23
a32 a33
−a12
a21 a23
a31 a33
+a13
a21 a22
a31 a32
,
donde los determinantes 2x2 que aparecen se llaman COFACTORES de a11, a12 y a13
res-pectivamente y se obtienen eliminando de la matriz A la fila y la columna en que est´a el coeficiente al que corresponden. Se denotan por:
A11 =
a22 a23
a32 a33
, A12=
a21 a23
a31 a33
, A13=
a21 a22
a31 a32
.
Este determinante lo hemos desarrollado por la primera fila. Podemos desarrollarlo por cualquier fila o columna, teniendo en cuenta que los signos que hay que asignar a cada coeficiente son alternados, con el esquema siguiente:
1.5. OPERACIONES CON MATRICES 5
Regla de Sarrus:
Un determinante 3x3 se calcula siguiendo el esquema de hacer los productos de coeficientes siguiendo las diagonales y con los signos asignados seg´un las direcciones: Sur-Este positivo, Sur-Oeste negativo, es decir:
a11 a12 a13
a21 a22 a23
a31 a32 a33
=a11a22a33+a21a32a13+a31a12a23−a13a22a31−a23a32a11−a33a21a12.
PROPIEDADES DEL DETERMINANTE
1. |A|=|AT|.
2. Es lineal:
a1 tb1 +c1 d1
a2 tb2 +c2 d2
a3 tb3 +c3 d3 =t
a1 b1 d1
a2 b2 d2
a3 b3 d3 +
a1 c1 d1
a2 c2 d2
a3 c3 d3 .
3. Si dos columnas son iguales, |A|= 0.
4. No cambia si a una columna le sumamos un m´ultiplo de otra.
5. Si se intercambian dos columnas, cambia de signo.
6. Los vectores columna son linealmente independientes si y s´olo si el determinante es distinto de cero.
Entonces, podemos utilizar determinantes para estudiar la independencia lineal de vectores y calcular el rango de matrices.
1.5.
Operaciones con matrices
Decimos que una matriz tiene DIMENSIONESmxnsi tienemfilas yncolumnas. La SUMA de dos matrices de las mismas dimensiones se hace sumando coeficiente a coeficiente, por ejemplo:
1 0 2 2 −2 1
+
0 1 1
−1 −1 2
=
1 1 3 1 −3 3
6 CAP´ITULO 1. ´ALGEBRA LINEAL
La MULTIPLICACI ´ON de una matriz por un n´umero se hace multiplicando cada coeficiente por el n´umero, por ejemplo:
2
1 0 2 2 −2 1
=
2 0 4 4 −4 2
.
El PRODUCTO de dos matrices,A·B, s´olo se puede realizar cuando el n´umero de columnas de A es igual al n´umero de filas de B. Si A es mxn y B es nxk, entonces el producto es una matriz C de dimensiones mxk. En C, el coeficiente ci,j es la suma del producto de los
coeficientes de la fila i de A por los coeficientes de la columna j de B, cada uno por su correspondiente. Por ejemplo:
1 0 2 2 −2 1
1 0 −1 =
1·1−1·2 1·2−1·1
= −1 1 .
Un sistema de ecuaciones lineales se escribe como producto de matrices de la forma:
a11 a12 a13
a21 a22 a23
a31 a32 a33 x y z = b1 b2 b3 .
Llamamos MATRIZ IDENTIDAD, I, a la matriz cuadrada que tiene unos en la diagonal principal y ceros en el resto de los coeficientes. En dimensi´on 3x3 es:
I =
1 0 0 0 1 0 0 0 1
.
Sus vectores columna (y sus vectores fila) forman la base can´onica del espacio de tres dimensiones.
Para una matriz cuadrada, A, la matriz que al multiplicarla por ella nos da la identidad se llama MATRIZ INVERSA de A, y se denota porA−1. Entonces:
A·A−1 =A−1 ·A =I.
TEOREMA
Una matriz tiene inversa si y s´olo si su determinante es distinto de cero.
M´etodo de Gauss:
1.6. RESOLUCI ´ON DE SISTEMAS LINEALES 7
M´etodo de los cofactores:
La inversa de una matriz A es:
A−1 = 1
|A|
A11 −A12 A13
−A21 A22 −A23
A31 −A32 A33
T
,
donde los Aij son los cofactores de los coeficientes aij, es decir los determinantes obtenidos
al eliminar la fila y la columna donde est´a el aij. El esquema de signos es el mismo que en
los determinantes.
1.6.
Resoluci´
on de sistemas lineales
TEOREMA: REGLA DE CRAMER
SiA es una matriz invertible, entonces el sistema de ecuaciones:
a11 a12 a13
a21 a22 a23
a31 a32 a33 x y z = b1 b2 b3
es compatible determinado y sus soluciones se calculan por las f´ormulas:
x= 1
|A|
b1 a12 a13
b2 a22 a23
b3 a32 a33
; y = 1
|A|
a11 b1 a13
a21 b2 a23
a31 b3 a33
; z = 1
|A|
a11 a12 b1
a21 a22 b2
a31 a32 b3 .