• No se han encontrado resultados

UNIVERSIDAD DE CHILE FACULTAD DE ECONOMÍA Y NEGOCIOS DEPARTAMENTO DE ECONOMÍA ÁLGEBRA LINEAL. Apunte del Curso

N/A
N/A
Protected

Academic year: 2021

Share "UNIVERSIDAD DE CHILE FACULTAD DE ECONOMÍA Y NEGOCIOS DEPARTAMENTO DE ECONOMÍA ÁLGEBRA LINEAL. Apunte del Curso"

Copied!
109
0
0

Texto completo

(1)

FACULTAD DE ECONOM´IA Y NEGOCIOS DEPARTAMENTO DE ECONOM´IA

´

ALGEBRA LINEAL

Apunte del Curso

Mauricio Vargas S.

mauvarga@fen.uchile.cl

(2)
(3)

Apunte del Curso ´

Algebra Lineal

Mauricio Vargas S.

Universidad de Chile

9 de agosto de 2009

1Este apunte se encuentra en estado de correcci´on y evoluci´on. Los contenidos se basan en

las clases del profesor M´aximo Lira y de ninguna forma este apunte reemplaza las clases. La finalidad es reforzar las ideas principales y entregar demostraciones que no se tratan en clase. Puede contener y seguramente contiene errores, favor de comunicarlos a mauvarga@fen.uchile.cl. Derechos reservados bajo licencia CreativeCommons (CC-BY-NC-ND)

(4)
(5)

Indice general

Contenidos I

1. Definiciones Previas 1

1.1. Ley de Composici´on Interna . . . 1

1.2. Ley de Composici´on Externa . . . 1

1.3. Estructuras Algebraicas . . . 2

1.3.1. Grupo . . . 2

1.3.2. Grupo Abeliano o Conmutativo . . . 3

1.3.3. Anillo . . . 3

1.3.4. Cuerpo . . . 3

1.4. Propiedades de los N´umeros Reales . . . 5

1.4.1. Axiomas en R . . . 5

2. Matrices 11 2.1. Matrices . . . 11

2.1.1. Igualdad de Matrices . . . 12

2.2. Operaciones con Matrices . . . 12

2.2.1. Suma de Matrices . . . 12

2.2.2. Propiedades de la Suma de Matrices . . . 12

2.2.3. Ponderaci´on de Matriz por Escalar . . . 13

(6)

2.2.5. Producto de Matrices . . . 14

2.2.6. Propiedades del Producto de Matrices . . . 14

2.2.7. Transposici´on de matrices . . . 17

2.2.8. Propiedades de la Transposici´on de Matrices . . . 17

2.2.9. Operaciones Elementales de Fila . . . 20

2.2.10. Determinante de una Matriz . . . 21

2.2.11. Operaciones Inversas . . . 22 2.3. Tipos de Matrices . . . 22 2.3.1. Matriz Fila . . . 22 2.3.2. Matriz Cuadrada . . . 22 2.3.3. Matriz Triangular . . . 23 2.3.4. Matriz Diagonal . . . 23 2.3.5. Matriz Escalar . . . 24 2.3.6. Matriz Identidad . . . 24 2.3.7. Matriz Sim´etrica . . . 25 2.3.8. Matriz Antisim´etrica . . . 25 2.3.9. Matriz Nula . . . 25 2.3.10. Matriz Inversa . . . 26 2.3.11. Propiedades de la Inversa . . . 28 2.4. Polinomios de Matrices . . . 30 2.5. Polinomio Caracter´ıstico . . . 30

2.6. M´etodos Para Invertir Matrices . . . 31

2.6.1. Matriz Ampliada . . . 31

2.6.2. Matriz Adjunta . . . 33

2.6.3. Teorema de Cayley-Hamilton . . . 35

2.7. Equivalencia por Filas de una Matriz . . . 37

2.8. Valores y Vectores Propios . . . 38

(7)

3.1. Notaci´on Matricial de un Sistema de Ecuaciones . . . 41

3.1.1. Rango por Filas . . . 42

3.2. Algoritmo tipo soluci´on . . . 44

3.3. Soluciones de un S.E.L . . . 44

3.3.1. Soluci´on general de un S.E.L . . . 44

3.3.2. Soluci´on Particular de un S.E.L . . . 46

3.4. Sistemas Homog´eneos . . . 46

3.5. Formas de Resoluci´on . . . 47

3.5.1. M´etodo de Gauss . . . 47

3.5.2. Regla de Cramer . . . 48

4. Escalares, Vectores y Espacios Vectoriales 53 4.1. Escalar . . . 53

4.2. Vector . . . 53

4.3. Espacio Vectorial . . . 56

4.4. Espacios Vectoriales Usuales . . . 56

4.4.1. Espacio Vectorial R2/R . . . 56

4.4.2. Rn/R . . . 58

4.4.3. Rn[x]/R (Polinomios reales de grado n sobre R) . . . 59

4.4.4. C[a, b] (Funciones reales continuas sobre [a, b]) . . . 59

4.5. Base de V/K . . . 59 4.5.1. Bases Can´onicas . . . 60 4.6. Dimensi´on de V/K . . . 61 4.7. Vector de Coordenadas de ⃗x . . . 61 4.8. Subespacio Vectorial . . . 62 4.8.1. Combinaci´on Lineal . . . 63

4.8.2. Independencia Lineal de un Conjunto . . . 63

4.9. Operatoria Vectorial . . . 64

(8)

4.9.2. Ponderaci´on por Escalar . . . 66

4.9.3. Producto Cartesiano . . . 67

4.9.4. Norma de un Vector . . . 68

4.9.5. Normas en Rn/R . . . 68

4.9.6. ´Angulo Entre Vectores . . . 69

4.9.7. Producto Punto (´o Producto Interno) . . . 70

4.9.8. Propiedades del Producto Punto . . . 70

4.9.9. Productos Punto Usuales . . . 74

4.9.10. Producto Cruz (´o Producto Vectorial) . . . 75

4.9.11. Propiedades del Producto Cruz . . . 75

5. Transformaciones Lineales 77 5.1. Transformaci´on Lineal . . . 77

5.1.1. N´ucleo de una Trasformaci´on Lineal . . . 79

5.1.2. Imagen de una Transformaci´on Lineal . . . 79

5.1.3. Teorema de las Dimensiones (N´ucleo - Imagen) . . . 80

5.1.4. Tranformaciones Lineales e Independencia Lineal . . . 81

5.1.5. Transformaci´on Lineal Inyectiva . . . 83

5.1.6. Transformaci´on Lineal Biyectiva . . . 83

5.1.7. Matriz Reprensentante de una Transformaci´on Lineal . . . 84

5.1.8. Propiedades de Transformaciones Lineales . . . 86

5.1.9. ¿C´omo se Aplica la Matriz Representante? . . . 87

5.1.10. Matriz de Pasaje . . . 90

5.1.11. ¿C´omo se Relacionan las Matrices Representantes? . . . 91

5.1.12. Matrices Similares . . . 92

5.2. Cambio de Base y Similaridad . . . 93

6. Formas Bilineales 95 6.1. Formas Bilineales . . . 95

(9)

6.2. Cambio de Base . . . 97 6.3. Simetr´ıa y Antisimetr´ıa . . . 97 6.4. Formas Cuadr´aticas . . . 97

(10)
(11)

Definiciones Previas

1.1.

Ley de Composici´

on Interna

Sean A, B conjuntos no vac´ıos. Una LCI sobre A es cualquier aplicaci´on o funci´on de la forma:

f ∶ A × A → A

(a, b) → f(a, b) ∈ A ∀ a ∈ A, b ∈ B

Tambi´en se usa la denominaci´on “operaci´on” para una LCI . En ese caso, en lugar de la notaci´on funcional f(a, b) se usa la notaci´on operacional (Ejemplo: a∗b ). As´ı la operaci´on se denota:

∗ ∶ A × A → A

(a, b) → a ∗ b ∈ A ∀a ∈ A, b ∈ B

1.2.

Ley de Composici´

on Externa

Sean A, B conjuntos no vac´ıos. Una LCI sobre A es cualquier aplicaci´on de la forma: g∶ A × A → B

(a, b) → g(a, b) ∈ B ∀ a ∈ A, b ∈ B En este caso la LCE tiene dominio de operadores en A

(12)

1. La LCE opera sobre otro conjunto

2. En este dominio de operadores no llega la funci´on Tambi´en se usa la notaci´on operacional para una LCI :

∆∶ A × A → B

(a, b) → a∆b ∈ B ∀a ∈ A, b ∈ B Ejemplos :

1. R× p(x) → p(x)

3(1 + 3x − x2) → 3 + 9x − 3x2

Los operadores son reales y polinomios El dominio es de polinomios

2. (a + bx + cx2, d) → ad + (a + b + c)

(1 + 3x − 5x2,2) → 2 + (−1) = 1

1.3.

Estructuras Algebraicas

Una estructura algebraica es un ente matem´atico construido por: 1. Un conjunto y una o m´as LCI

2. Dos o m´as conjuntos, una o m´as LCI y una o m´as LCE

1.3.1.

Grupo

Sea (A, ∗) una estructura algebraica. Se cumple que es grupo si y s´olo si: 1. ∗ posee neutro, es decir: ∃e ∈ A/a ∗ e = e ∗ a = a ∀a ∈ A

2. ∗ es asociativa, es decir: a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ A

3. ∗ es simetizable , es decir cada elemento de A posee un inverso a−1 y se cumple:

(13)

1.3.2.

Grupo Abeliano o Conmutativo

Sea (A, ∗) una estructura algebraica que tiene estructura de grupo y ademas es conmu-tativa. Se cumple que es grupo abeliano si y s´olo si:

1. ∗ posee neutro, es decir: ∃e ∈ A/a ∗ e = e ∗ a = a ∀a ∈ A 2. ∗ es asociativa, es decir: a ∗ (b ∗ c) = (a ∗ b) ∗ c ∀a, b, c ∈ A

3. ∗ es simetizable , es decir cada elemento de A posee un inverso a−1 y se cumple:

a∗ a−1 = a−1∗ a = e

4. ∗ es conmutativa , es decir para todos los elementos de A, a ∗ b ∗ c ∗ ... ∗ n genera un mismo resultado independientemente de como se altere el orden en que operan los elementos. Tomando (a, b) ∈ A se cumple que a ∗ b = b ∗ a

1.3.3.

Anillo

Sea (A, ∗, ∆) una estructura algebraica con 2 LCI . Se cumple que esta es estructura de anillo si y s´olo si:

1. (A, ∗) es grupo abeliano 2. ∆ es asociativa.

3. ∆ distribuye con respecto a ∗

1.3.4.

Cuerpo

Sea (A, ∗, ∆) una estructura algebraica con 2 LCI y que ambas tienen estructura de grupo abeliano. Se cumple que esta es estructura de cuerpo 1 si y s´olo si:

1. ∗ posee un neutro, todos sus elementos tienen un inverso contenido en A y esta operaci´on es conmutativa

1Para la conmutatividad y clausura estas necesariamente se extienden para el caso en que se aplica ∗

´o ∆ a (a, b, c, ..., n). Es decir a+b+c+...+n ∈ A a⋅b⋅c...⋅n ∈ A como tambi´en a+b+c...+n = n+...+c+b+a a ⋅ b ⋅ c... ⋅ n = n ⋅ ... ⋅ c ⋅ b ⋅ a y todas las combinaciones posibles para la suma y el producto. En el caso de la distributividad es an´alogo, la propiedad se cumple para a ∗ (b∆c∆...∆n), (a∆b) ∗ c ∗ ... ∗ n y todas las combinaciones posibles.

(14)

2. ∆ posee un neutro, todos sus elementos tienen un inverso contenido en A y esta operaci´on es conmutativa

3. A,∗, ∆ es distributiva de la forma a∆(b ∗ c) = (a∆b) ∗ (a∆c)

4. Tanto ∗ como ∆ cumplen con la propiedad de clausura, es decir al efectuar una operaci´on entre dos o m´as elementos de A el resultado debe pertenecer a A

Ejemplos : 1. (R, +, ⋅) a) Neutro: a+ 0 = 0 + a = a a⋅ 1 = 1 ⋅ a = a b) Inverso: a+ (−a) = (−a) + a = 0 a⋅ a−1 = a−1⋅ a = 1 c) Conmutatividad: a+ b = b + a a⋅ b = b ⋅ a d) Distributividad: a(b + c) = (a ⋅ b) + (a ⋅ c) e) Clausura: (a + b) ∈ R ∧ (a ⋅ b) ∈ R 2. (C, +, ⋅) a) Neutro:

(a + bi) + (0 + 0i) = (0 + 0i) + (a + bi) = a + bi (a + bi) ⋅ (1 + 0i) = (1 + 0i) ⋅ (a + bi) = a + bi b) Inverso:

(a + bi) + [−(a + bi)] = [−(a + bi)] + (a + bi) = 0 + 0i (a + bi) ⋅ (a + bi)−1 = (a + bi)−1⋅ (a + bi) = 1 + 0i

c) Conmutatividad:

(a + bi) + (c + di) = (c + di) + (a + bi) (a + bi) ⋅ (c + di) = (c + di) ⋅ (a + bi) d) Distributividad:

(15)

e) Clausura:

[(a + bi) + (c + di)] ∈ C ∧ [(a + bi) ⋅ (c + di)] ∈ C Observaci´on :

El neutro y el inverso deben estar contenidos en el conjunto. De esta forma los n´umeros reales tienen estructura de cuerpo (R, +, ⋅) y el neutro de la suma se asocia con 0, el neutro de la multiplicaci´on se asocia con 1 como tambi´en el inverso de la suma se asocia con −a, −b, −c, etc y el inverso del producto (siempre que a ≠ 0) estar´a contenido en R.

1.4.

Propiedades de los N´

umeros Reales

Con lo expuesto anteriormente se sabe que los n´umeros reales forman un conjunto con estructura de grupo y por lo tanto est´an sujetos a las propiedades de esta estructura. Sin embargo, estas propiedades pueden o no cumplirse dado un grupo cualquiera pero para el caso de los n´umeros reales se garantiza que estas propiedades se cumplen definiendo axiomas (propiedades tautol´ogicas que no se demuestran) pero que si permiten demostrar propiedades del conjunto R.

1.4.1.

Axiomas en R

1. Conmutatividad

a) Dados dos n´umeros reales x, y cualquiera, su suma tiene como resultado un n´umero real, es decir:

(∀x, y ∈ R) x + y = y + x b) Para el producto se cumple la misma propiedad, es decir:

(∀x, y ∈ R) x ⋅ y = y ⋅ x 2. Asociatividad

a) Dados tres n´umeros reales x, y, z cualquiera, su suma tiene como resultado un n´umero real, es decir:

(16)

b) Para el producto se cumple la misma propiedad, es decir: (∀x, y.z ∈ R) x ⋅ (y ⋅ z) = (x ⋅ y) ⋅ z Demostraci´on :

x+ (y + z) = (x + z) + y

El axioma de asociatividad no dice que x+ (y + z) = (x + z) + y pero usando los axiomas ya dados se tiene que:

x+ (y + z) = x + (z + y) /conmutatividad x+ (y + z) = (x + z) + y /asociatividad

En relaci´on con lo anterior se concluye que la suma con n terminos es conmutativa sin alterar el resultado y es an´alogo para la multiplicaci´on.

3. Distributividad

a) (∀x, y, z ∈ R) x(y + z) = xy + xz b) (∀x, y, z ∈ R) (x + y)z = xz + yz 4. Existencia de elementos neutros

a) Elementos neutros para la suma

Con las propiedades de grupo se sabe que en R se cumple que (∀x ∈ R) x + e = x

Esta propiedad garantiza a lo menos la existencia de un elemento neutro (puede haber m´as de uno) pero para el caso de la suma en R se sabe que el neutro es 0 y por lo tanto es ´unico.

Demostraci´on : El neutro para la suma es ´unico

En base al axioma anterior sabemos que existe al menos un neutro e1 que

corresponde al cero. Supongamos que por otro camino hemos encontrado otro neutro e2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x + e1= x ∧ x + e2 = x

Si el neutro es ´unico entonces necesariamente e1 = e2, formando un sistema con

(17)

x + e1 = x

x + e2 = x

Reemplazando x= e2 en (1) y x= e1 en (2) nos queda:

e2 + e1 = e2

e1 + e2 = e1

De lo anterior se tiene que:

e1= e1+ e2= e2+ e1= e2

b) Elementos neutros para el producto

Es an´alogo al caso de la suma. Con las propiedades de grupo se sabe que en R se cumple que

(∀x ∈ R) x ⋅ e = x Demostraci´on : El neutro para el producto es ´unico

En base al axioma anterior sabemos que existe al menos un neutro e1 que

corresponde al uno. Supongamos que por otro camino hemos encontrado otro neutro e2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x ⋅ e1= x ∧ x ⋅ e2 = x

Si el neutro es ´unico entonces necesariamente e1= e2, formando un sistema con

las ecuaciones enteriores se obtiene:

x ⋅ e1 = x

x ⋅ e2 = x

Reemplazando x= e2 en (1) y x= e1 en (2) nos queda:

e2 ⋅ e1 = e2

e1 ⋅ e2 = e1

De lo anterior se tiene que:

e1 = e1⋅ e2= e2⋅ e1 = e2

5. Existencia de elementos inversos a) Elementos inversos para la suma

Con las propiedades de grupo se sabe que en R se cumple que (∀x ∈ R) x + opuesto(x) = 0

(18)

Esta propiedad se˜nala que existen elementos neutros asociados a x pero para el caso de la suma en R se sabe que el opuesto es −x y por lo tanto es ´unico. Demostraci´on : El inverso para la suma es ´unico

En base al axioma anterior sabemos que existe al menos un inverso c1 que

corresponde al cero. Supongamos que por otro camino hemos encontrado otro neutro c2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x + c1 = 0 ∧ x + c2= 0

Si el neutro es ´unico entonces necesariamente c1= c2, formando un sistema con

las ecuaciones enteriores se obtiene:

x + c1 = 0

x + c2 = 0

Lo que se debe demostrar es que c1= c2

PD c1= c2

En efecto, usando los axiomas anteriores: c1 = c1 + 0 c1 = c1+ (x + c2) c1 = (c1+ x) + c2 c1 = (x + c1) + c2 c1 = 0 + c2 c1 = c2

b) Elementos inversos para el producto

Es an´alogo al caso de la suma. Con las propiedades de grupo se sabe que en R se cumple que

(∀x ∈ R) x ⋅ reciproco(x) = 1 Demostraci´on : El inverso para el producto es ´unico

En base al axioma anterior sabemos que existe al menos un neutro c1 que

corresponde al uno. Supongamos que por otro camino hemos encontrado otro neutro c2 para la suma, de forma tal que se cumple:

(∀x ∈ R) x ⋅ c1 = 1 ∧ x ⋅ c2 = 1

Si el inverso es ´unico entonces necesariamente c1= c2, formando un sistema con

(19)

x ⋅ c1 = 1

x ⋅ c2 = 1

PD c1 = c2

En efecto, usando los axiomas anteriores: c1= c1⋅ 1

c1= c1⋅ (x ⋅ c2)

c1= (c1⋅ x) ⋅ c2

c1= (x ⋅ c1) ⋅ c2

c1= 1 ⋅ c2

(20)
(21)

Matrices

2.1.

Matrices

Una matriz es una tabla de doble entrada de m filas y n columnas con coeficientes en el cuerpo K (que puede ser R ´o C).

Considerando los subconjuntos de N: { I = {1, 2, 3, . . . , m} J= {1, 2, 3, . . . , n} Toda matriz es, adem´as, una funci´on del tipo:

M ∶ I × J → K (i, j) → Mij ∈ K

Sea la matriz Amn, se denota genericamente:

A = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ⋮ ⋱ ⋮ am1 am2 am3 . . . amn ⎞ ⎟⎟ ⎟ ⎠ aij ∈ K, ∀i = {1, 2, 3, . . . , m}, j = {1, 2, 3, . . . , n}

Mmn(K) corresponde a todas las matrices de m filas, n columnas y coeficientes en el

(22)

2.1.1.

Igualdad de Matrices

Dadas dos matrices Amn∈ Mmn(K), Bm′n′ ∈ Mmn′(K), diremos que son iguales si y s´olo si:

(m = m′) ∧ (n = n′) ∧ (∀ i = {1, 2, 3, . . . , m} , j = {1, 2, 3, . . . , n} , a

ij = bij)

2.2.

Operaciones con Matrices

2.2.1.

Suma de Matrices

Definiendo una aplicaci´on (o funci´on) sobreMmn(K) a partir de las operaciones definidas

en el cuerpo K de la forma:

Mmn× Mmn→ Mmn

(Amn,Bmn) → (A + B)mn

Se define la suma de matrices como: ∀ A, B ∈ Mmn(K), A + B = aij + bij

Observaci´on : La suma de matrices (Mmn,+) tiene estructura de grupo abeliano.

Demostraci´on : Es directa (lo cual no quiere decir que es trivial o evidente) con las propiedades del cuerpo K se cumple que la suma es asociativa y conmutativa.

2.2.2.

Propiedades de la Suma de Matrices

1. Admite un neutro aditivo tal que Amn+ 0mn= Amn

El neutro aditivo corresponde a M es decir:

0=⎛⎜ ⎝ 0 . . . 0 ⋮ ⋱ ⋮ 0 . . . 0 ⎞ ⎟ ⎠∈ Mmn(K)

Es sumamente importante se˜nalar que el neutro aditivo para las matrices no es ´

(23)

otra matriz si y s´olo si sumamos matrices de igual orden ya que de otra manera la operaci´on no est´a definida.

El neutro aditivo para las matrices de 2× 3 es 0M = 02×3, para las de de 5× 2 es

0M= 05×2, etc.

Generalizando para las matrices de m× n es 0M= 0m×n con cualquier m, n∈ N. Por

lo tanto, a diferencia de las propiedades de R en que el neutro aditivo es ´unico para MmnK existen tantos neutros como ´ordenes de matrices posibles.

2. Admite un inverso aditivo tal que Amn+ (−Amn) = 0mn

El inverso aditivo de Mmn= mmn es −Mmn= −mmn

Por ejemplo en M23(C)

( 1+ i 0 2 + 3ii 1 0 ) + ( −1−i− i 0 −2 − 3i−1 0 ) = ( 0 0 00 0 0 ) =0M

Por lo tanto,

− ( 1+ i 0 2 + 3ii 1 0 ) = ( −1−i− i 0 −2 − 3i−1 0 )

3. La suma de matrices es asociativa tal que: Amn+ (Bmn+ Cmn) = (Amn+ Bmn) + Cmn

2.2.3.

Ponderaci´

on de Matriz por Escalar

Definiendo una aplicaci´on (o funci´on) sobreMmn(K) a partir de las operaciones definidas

en el cuerpo K de la forma:

K× Mmn→ Mmn

(α, Amn) → αAmn

Sea la matriz Pmn= αAmn esta se define por: Pij = αAij

2.2.4.

Propiedades de la Ponderaci´

on de Matriz por Escalar

Las siguientes propiedades se cumplen ∀ A, B ∈ Mmn , α, β∈ K :

(24)

2. (α + β)Amn= αAmn+ βAmn

3. α(βAmn) = (αβ)Amn

4. 1Amn= Amn

Estas propiedades son las mismas de las de un espacio vectorial y su demostraci´on par-ticular puede hacerse en forma an´aloga al caso de un espacio vectorial R2/R tomando dos

matrices cualquiera con n vectores de 2 componentes.

El conjunto de las matrices Mmn sobre el cuerpo K con la LCI suma de matrices y la

LCE ponderaci´on por escalar constituye un espacio vectorial Mmn/K

2.2.5.

Producto de Matrices

Dadas las matrices:

A = aij ∈ Mmr(K), B = bij ∈ Mrn

Se define la aplicaci´on

Mmr× Mrn→ Mmn

(Amn,Bmn) → (A + B)mn

y el producto C = AB como la matriz C ∈ Mmn(K) tal que:

Cmn= r

k=1

aikbkj, i= {1, 2, 3, . . . , m} j = {1, 2, 3, . . . , n}

2.2.6.

Propiedades del Producto de Matrices

1. Asociatividad

Dadas las matrices A ∈ Mpq, B ∈ Mqr, C ∈ Mrs, entonces:

A(BC) = (AB)C ∈ Mps

Demostraci´on :

(25)

Para la matriz B en (j, k) se tiene bjk = ∑nk=1bjk

Para la matriz C en (k, l) se tiene ckl= ∑nk=1ckl

En efecto,

Para la matriz AB en (i, k) se tiene

AB =∑n k=1 aijbjk Luego, (AB)C = ∑n k=1 (aijbjk)ckl

De manera an´aloga, para la matriz BC en (j, l) se tiene BC =∑n k=1 bjkckl Luego, A(BC) = ∑n k=1 aijbjkckl Finalmente, (AB)C = ∑n k=1(aijbjk)ckl A(BC) = ∑n k=1aij(bjkckl) ⎫⎪⎪⎪ ⎬⎪⎪⎪ ⎭ A(BC) = ∑n k=1(aijbjk)ckl= (AB)C

2. Distributividad con Respecto a la Suma

Dadas las matrices A ∈ Mpq, B, C ∈ Mqs, se cumple que:

A(B + C) = (AB) + (AC) ∈ Mps

Demostraci´on :

Definiendo Dpr = Apq(Bqr+ Cqr) se tiene que:

eij = n

k=1

(26)

En efecto, dij = n ∑ k=1 aik(bkj+ ckj) dij = n ∑ k=1 aikbkj+ aikckj dij = n ∑ k=1 aikbkj+ n ∑ k=1 aikckj

Con la definici´on de producto de matrices se puede formar una expresi´on equivalente a la anterior:

Dpr= (AB)ps+ (AC)ps

Observaci´on : La multiplicaci´on de matrices no es conmutativa, n´otese que como se define la aplicaci´on y la distributividad el producto entre matrices con distinto n´umero de columnas no est´a definido.

En el caso de matrices con igual n´umero de columnas o de matrices cuadradas de igual orden el producto tampoco es una conmutativo. Se puede observar claramente con el siguiente ejemplo:

( 1 00 0 ) ⋅ ( 0 02 0 ) = ( 0 00 0 ) ( 0 02 0 ) ⋅ ( 1 00 0 ) = ( 0 02 0 )

Como se se˜nalo existe el caso particular de la matriz cuadrada y la matriz identidad, para este caso la matriz identidad es un neutro en la estructura algebraica(Mnn(K), ⋅)

En efecto, dada A ∈ Mnn(K) se tiene que Ann⋅ Inn = Ann

Demostraci´on :

n

k=1

aikikj = aij ⋅ ijj = aij = Ann

Se concluye que para el caso de las matrices cuadradas la suma y el producto constituyen una estructura algebraica (Mnn(K), +, ⋅) que es un anillo con unidad (existe un neutro

(27)

2.2.7.

Transposici´

on de matrices

Dada una matriz A = aij ∈ Mmn se define la aplicaci´on:

Mmn→ Mnm

A → T(A) = AT

Es decir, la matriz transpuesta de A, AT, corresponde a una matriz de orden n× m a

partir de una matriz de orden m× n de igual cantidad de elementos. En esta aplicaci´on la transpuesta deAP ×Q= ∑nk=1aij se define:

AT =n k=1 aji⇔ A = n ∑ k=1 aij Ejemplos : 1. ( 1 2 5 8 3 4 1 2 ) T = ⎛ ⎜⎜ ⎜ ⎝ 1 3 2 4 5 1 8 2 ⎞ ⎟⎟ ⎟ ⎠ 2. ⎛ ⎜⎜ ⎜ ⎝ 1 5 3 2 5 2 0 1 3 0 3 6 2 1 6 4 ⎞ ⎟⎟ ⎟ ⎠

Para este caso la matriz es sim´etrica 3. ⃗x = (2, 4, 1) ⇒ A = ( 2 4 1 ) AT =⎛⎜ ⎝ 2 4 1 ⎞ ⎟ ⎠

2.2.8.

Propiedades de la Transposici´

on de Matrices

1. (AT)T = A

(28)

((A)T ij)T = (A)Tji= Aij 2. (A + B)T = AT + BT Demostraci´on : Sean A, B ∈ Mmn⇒ A + B ∈ Mmn y definiendo C = A + B En efecto,

Para la matriz C en (i, j) se tiene cij = ∑nk=1aij + bij = ∑nk=1aij + ∑nk=1bij

Para la matriz CT en(i, j) se tiene c

ji= ∑nk=1aji+ bij = ∑nk=1aji+ ∑nk=1bji

Luego, para A, B en (i, j) (A)T ij = Aji = ∑ n k=1aji (B)T ij = Bji= ∑nk=1bji ⎫⎪⎪⎪ ⎬⎪⎪⎪ ⎭ AT + BT = ∑n k=1aji+ ∑nk=1bji= CT 3. (αA)T = aAT Demostraci´on : Sea Amn= A = ⎛ ⎜ ⎝ a11 . . . a1n ⋮ ⋱ ⋮ am1 . . . amn ⎞ ⎟ ⎠ Entonces, α⋅ Amn= A = ⎛ ⎜ ⎝ αa11 . . . αa1n ⋮ ⋱ ⋮ αam1 . . . αamn ⎞ ⎟ ⎠= α ⋅ ⎛ ⎜ ⎝ a11 . . . a1n ⋮ ⋱ ⋮ am1 . . . amn ⎞ ⎟ ⎠ (A)T mn= Anm= ⎛ ⎜ ⎝ a11 . . . am1 ⋮ ⋱ ⋮ a1n . . . anm ⎞ ⎟ ⎠ αAnm= ⎛ ⎜ ⎝ αa11 . . . αam1 ⋮ ⋱ ⋮ αa1n . . . αanm ⎞ ⎟ ⎠= α ⋅ ⎛ ⎜ ⎝ a11 . . . am1 ⋮ ⋱ ⋮ a1n . . . anm ⎞ ⎟ ⎠= αA T

(29)

4. (AB)T = BTAT

Demostraci´on :

Sean las matrices A ∈ Mpq y B ∈ Mqr tal que C = AB

En efecto,

Para (i, j) de la matriz C se tiene que cij =

n

k=1

aikbkj

mientras que para (i, j) de la matriz CT se tiene que

cji = n ∑ k=1 akibjk debido a la transposici´on. Luego, cji= ∑nk=1akibjk = ∑nk=1bjkaki Sea la matriz D = BTAT

Para (i, j) se cumple que dij = ∑nk=1(B)Tqr(A)Tpq

dij = ∑k = 1n(B)Tik(A)kjT ⇔ dij = ∑k = 1nbkiajk

dij = ∑k = 1nbkiajk= ∑k = 1najkbki= (AB)ji = (CT)ij

Finalmente,

(30)

2.2.9.

Operaciones Elementales de Fila

Se definen como aplicaciones del tipo:

Mmn→ Mmn

AP ×Q→ e(AP ×Q)

Existen 3 clases de operaciones inversas: 1. Operaci´on eij

Consiste en intercambiar de posici´on las filas (i, j). Ejemplo : AP ×Q= ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ e13 ↝ BP ×Q= ⎛ ⎜⎜ ⎜ ⎝ a31 a32 a33 a34 a21 a22 a23 a24 a11 a12 a13 a14 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ Observaci´on :AP ×Q ≠ BP ×Q= BP ×Q 2. Operaci´on ej(λ)

Consiste en ponderar la fila j por el escalar λ≠ 0 Ejemplo : AP ×Q= ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ e2(−5) ↝ BP ×Q= ⎛ ⎜⎜ ⎜ ⎝ a31 a32 a33 a34

−5a21 −5a22 −5a23 −5a24

a11 a12 a13 a14 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ 3. Operaci´on eij(λ)

Consiste en sumar a la fila i, la fila j ponderada por el escalar λ≠ 0. El resultado queda en la fila i

Ejemplo : AP ×Q

e31(−5)

(31)

⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ e31(−5) ↝ ⎛ ⎜⎜ ⎜ ⎝ a31 a32 a33 a34 a21 a22 a23 a24 a11− 5a31 a12− 5a32 a13− 5a33 a14− 5a34 a41 a42 a43 a44 ⎞ ⎟⎟ ⎟ ⎠ Tambi´en se definen operaciones inversas . Cada operaci´on elemental de fila posee una inversa que es tambi´en una operaci´on de fila.

En efecto,

1. (eij)−1= eij

2. [ej(λ)]−1 = ej(λ)

3. [eij(λ)]−1= eij(λ)

2.2.10.

Determinante de una Matriz

Esta aplicaci´on de define:

Mmn/K → K

AP ×Q → det(AP ×Q) ∈ K

El determinante ses la suma de todos los productos posibles entre elementos deAP × Q, a los que se atribuye un signo, con la condici´on de no repetir filas ni columnas en cada producto.

El signo atribuido a cada producto es del de (−1)n en el que n es el n´umero de cmabios

al orden de columnas. Ejemplos :

1. AP ×P = (

a11 a12

a21 a22 )

Los productos posibles son: b11⋅ b22, (n = 0) ⇒ signo+ b12⋅ b21, (n = 1) ⇒ signo−

(32)

2. BP ×P = ( 1 5

2 4 )

det(AP ×P) = 1 ⋅ 4 − 5 ⋅ 2 = −6

2.2.11.

Operaciones Inversas

Cada operaci´on elemental de fila posee una inversa que tambi´en es una operaci´on ele-mental de fila.

Ya definidas las operaciones elementales de fila, se tiene que: 1. (eij)−1 = eij

2. [ej(λ)]−1= ej(λ−1)

3. [eij(λ)]−1= eij(−λ)

2.3.

Tipos de Matrices

2.3.1.

Matriz Fila

El caso especial de las matrices de 1×n es una notaci´on alternativa para un vector ⃗k ∈ Kn

es decir, la matrizM1×ncontiene las componentes (k1, k2, k3, . . . , kn) del vector ⃗k. De esto

fluye que una matriz de orden m× n contiene las componentes de m vectores Kn.

Ejemplo :

⃗k ∈ K3= (x, y, z) ⇒ M

1×3 = ( a11 a21 a31 ) = ( x y z )

2.3.2.

Matriz Cuadrada

Son aquellas matrices Mmn tal que m= n es decir, el n´umero de filas es igual al n´umero

de columnas.

En las matrices cuadradas se denomina diagonal principal al subconjunto de elementos (entradas) de la matriz amn que cumplen que i= j.

(33)

A =⎛⎜ ⎝ 1 3 2 6 5 4 7 2 4 ⎞ ⎟ ⎠ Diagonal principal:{a11, a22, a33} = {1, 5, 4}

2.3.3.

Matriz Triangular

Matriz Triangular Superior

Sea Bmn una matriz cuadrada, esta es adem´as triangular superior si:

{ bij = 0 si i > j m= n Ejemplo : B =⎛⎜ ⎝ 1 4 2 0 6 8 0 0 7 ⎞ ⎟ ⎠

Matriz Triangular inferior

Sea Bmn una matriz cuadrada, esta es adem´as triangular inferior si:

{ bij = 0 si i < j m= n Ejemplo : B =⎛⎜ ⎝ 1 4 2 0 6 8 0 0 7 ⎞ ⎟ ⎠

2.3.4.

Matriz Diagonal

SeaCmn una matriz cuadrada, esta es adem´as diagonal si es superior e inferior a la vez si:

{ cij = 0 si i ≠ j

(34)

Ejemplo : C =⎛⎜ ⎝ 1 0 0 0 3 0 0 0 2 ⎞ ⎟ ⎠

2.3.5.

Matriz Escalar

Sea Dmn una matriz cuadrada y diagonal, esta es adem´as escalar si:

⎧⎪⎪⎪ ⎨⎪⎪⎪ ⎩ dij = 0 si i ≠ j dij = k si i = j m= n Ejemplo : C =⎛⎜ ⎝ 7 0 0 0 7 0 0 0 7 ⎞ ⎟ ⎠= 7 ⋅ ⎛ ⎜ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎟ ⎠

2.3.6.

Matriz Identidad

Sea Imn una matriz escalar, esta es adem´as identidad si y s´olo si:

⎧⎪⎪⎪ ⎨⎪⎪⎪ ⎩ dij = 0 si i ≠ j dij = 1 si i = j m= n Ejemplo : C =⎛⎜ ⎝ 1 0 0 0 1 0 0 0 1 ⎞ ⎟ ⎠

Que corresponde a una matriz identidad de 3× 3.

Observaci´on: La matriz identidad se denota Imn y se cumple que siempre es una matriz

cuadrada. La matriz identidad no es ´unica, existen matrices identidad de orden m×n que puede ser 1× 1, 2 × 2, etc.

(35)

2.3.7.

Matriz Sim´

etrica

La matriz Smn es sim´etrica si y s´olo si:

{ Es una matriz cuadradas (m = n)

ij = sji ∀i, j Ejemplo : C = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ 1 5 3 2 0 5 2 0 1 8 3 0 3 6 7 2 1 6 4 0 0 8 7 0 5 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

Que corresponde a una matriz sim´etrica de 5× 5.

2.3.8.

Matriz Antisim´

etrica

La matriz S′

mn es antisim´etrica si y s´olo si:

⎧⎪⎪⎪ ⎨⎪⎪⎪ ⎩

Es una matriz cuadrada (m = n) sij = −sji si i≠ j sij = 0 si i = j Ejemplo : C = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ 0 −5 −3 −2 0 5 0 0 1 8 3 0 0 6 7 2 −1 −6 0 0 0 −8 −7 0 0 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

Se verifica que a31= 3 ∧ a13= −3, a24= 1 ∧ a42= −1, etc.

2.3.9.

Matriz Nula

La matrizNmn correponde al neutro aditivo para las matrices, es decir correponde al 0M

y se cumple que: nij = 0 ∀i, j

(36)

C =⎛⎜ ⎝ 0 0 0 0 0 0 ⎞ ⎟ ⎠

Que corresponde a una matriz de 3× 2

Observaci´on : La matriz nula no es ´unica, existen matrices nulas de orden m× n pero a diferencia de la matriz identidad esta no necesariamente es cuadrada.

2.3.10.

Matriz Inversa

Para algunas matrices cuadradas existe la matriz inversa y esta cuando existe al multi-plicarse con su inversa (la matriz original) genera una matriz identidad. Tal condici´on se expresa:

Sea Ann esta matriz es invertible si y s´olo si∃ A−1nn tal que:

Ann⋅ A−1nn = A−1nn⋅ Ann= Inn

Observaci´on : Este es un caso particular en que se cumple la conmutatividad en el producto de matrices.

Ejemplos :

1. Sea A = ( 1 5 1 6 )

De manera temporal supondremos que existe A−1

Sea A−1 = ( x1 y1 x2 y2 ) Entonces, A ⋅ A−1= ( 1 5 2 6 ) ⋅ ( x1 y1 x2 y2 ) = ( 1 0 0 1 ) ⇒ ( x1+ 5x2 y1+ 5y1 x2+ 6x2 y2+ 6y2 ) = ( 1 0 0 1 )

(37)

⇒ x1+ 5x2 = 1 x2+ 6x2 = 0 y1+ 5y1 = 0 y2+ 6y2 = 1 ⇒ x1+ 5x2 = 1 x2+ 6x2 = 0 ⇒ x1= 6, x2= −1 ⇒ y1+ 5y1 = 0 y2+ 6y2 = 1 ⇒ y1 = −5, y2 = 1 Por lo tanto, A−1= ( 6 −5 −1 1 ) A es invertible. 2. Sea B = ( 1 2 2 4 )

De manera temporal supondremos que existe A−1

Sea A−1= ( x1 y1 x2 y2 ) Entonces, A ⋅ A−1= ( 1 2 2 4 ) ⋅ ( x1 y1 x2 y2 ) = ( 1 0 0 1 ) ⇒ ( x1+ 2x2 y1+ 2y1 2x2+ 4x2 2y2+ 4y2 ) = ( 1 0 0 1 ) ⇒ x1+ 2x2 = 1 2x2+ 4x2 = 0 y1+ 2y1 = 0 2y2+ 4y2 = 1 ⇒ x1+ 2x2 = 1 2x2+ 4x2 = 0 ⇒ 2x1+ 4x2 = 1 2x2+ 4x2 = 0 ⇒Contradiccci´on Por lo tanto,

(38)

A no es invertible ya que el sistema no tiene soluci´on.

2.3.11.

Propiedades de la Inversa

1. Si A es invertible, entonces A−1 es ´unica

Demostraci´on :

Sea A ∈ Mnn(K) es invertible si y s´olo si existe A−1∈ Mnn(K) tal que:

AA−1= A−1A = I nn

Supongamos que existen dos inversas para A tal que: AB = AC = Inn BA = CA = Inn Luego, B = B(AC) B = (BA)C B = InnC B = C 2. (A−1)−1 = A Demostraci´on :

Sea A ∈ Mnn(K) tal que det(A) ≠ 0 entonces A−1 est´a definida.

Entonces, (A−1)−1⋅ A−1= A ⋅ A−1 (A−1)−1⋅ A−1= I nn [(A−1)−1⋅ A−1]A = I nn⋅ A (A−1)−1[A−1⋅ A] = A (A−1)−1[A ⋅ A−1] = A (A−1)−1⋅ I nn= A

(39)

(A−1)−1= A

3. (AB)−1 = B−1⋅ A−1

Demostraci´on :

Sea Ann y Bnn entonces AB est´a definida y AB ∈ Mnn(K)

Luego, si A y B admiten inversa ya que ambas ∈ Mnn(K) con n cualquier entero

finito. AB(B−1A−1) A(BB−1)A−1 A(Inn)A−1 AA−1 Inn

Tambi´en se debe demostrar para B−1A−1(AB)

[B−1A−1(AB)]T (AB)T(B−1A−1)T (BTAT)[(AT)−1(BT)−1] BT[AT(AT)−1](BT)−1 BTI nn(BT)−1 BT(BT)−1 Inn 4. (AT)−1 = (A−1)T Demostraci´on :

SeaA ∈ Mnn(K) y det(A) ≠ 0 entonces, A es invertible. Para AT ∈ Mnn si det(AT) ≠

0 entonces AT es invertible.

AT ⋅ (AT)−1= AT ⋅ (A−1)T

(40)

(AT)−1⋅ I nn= AT ⋅ (A−1)T (AT)−1= (AT)−1[AT ⋅ (A−1)T] (AT)−1= [(AT)−1⋅ AT](A−1)T (AT)−1= [AT ⋅ (AT)−1](A−1)T (AT)−1= I nn⋅ (A−1)T (AT)−1= A−1)T

5. (A + B)−1 ≠ A−1+ B−1 salvo en casos particulares

Observaci´on: S´olo algunas matrices son invertibles, como ya se vio existen casos en que una matriz no admite inversa y que algunas matrices cuadradas son invertibles. Se puede comprobar que existe la inversa verificando que el determinante sea distinto a cero para una matriz dada.

2.4.

Polinomios de Matrices

Tomando la forma gen´erica de un polinomio p(x) = anxn+an−1xn−1+. . .+a1x+a0 se define,

a partir de esto, el polinomio de matrices de la forma: p∶ Mnn(K) → Mnn(K)

Ann → p(A)

De esta forma se tiene que p(A) = bnAn+ bn−1An−1+ . . . + b1A + b0

(bn corresponde a un coeficiente cualquiera como puede ser an, cn, etc. Se denota b para

evitar confusiones con alg´un aij ∈ Ann.)

2.5.

Polinomio Caracter´ıstico

Sea la matriz A ∈ Mnn(K). El polinomio caracter´ıstico de A se define:

(41)

El polinomio caracter´ıstico cumple las siguientes propiedades:

1. Es de grado n 2. Es m´onico

3. ∣det(A)∣ = ∣a0∣ tal que si λ = 0 entonces, det(−A) = a0

4. Como consecuencia del item anterior, (−1)ndet˙ (A) = a 0

Sustituyendo λ por la matrizA se tiene que: p(A) = An+ a

n−1An−1+ . . . + a1A + a0

A partir de esta sustituci´on se tiene la ecuaci´on caracter´ıstica de una matriz que consiste en igualar el polinomio caracter´ıstico de esta a cero.

2.6.

etodos Para Invertir Matrices

2.6.1.

Matriz Ampliada

Para una matrizA ∈ Mnn(K) se puede escribir la matriz identidad correspondiente anexa

a la matrizA, es decir: A = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ a11 a12 a13 . . . a1n 1 0 0 ⋯ 0 0 1 0 ⋯ 0 a21 a22 a23 . . . a2n 0 0 1 ⋯ 0 ⋮ ⋱ ⋮ an1 an2 an3 . . . ann 0 0 0 ⋯ 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

Luego se aplican operaciones elementales hasta obtener una matriz identidad al lado izquierdo (la matriz original) y el resultado que se obtiene a partir de la matriz identidad anexa corresponde a la inversa de A.

(42)

Invertir, si es posible, la matriz A =⎛⎜ ⎝ 2 1 −1 5 2 −3 0 2 1 ⎞ ⎟ ⎠ ⎛ ⎜ ⎝ 2 1 −1 1 0 0 5 2 −3 0 1 0 0 2 1 0 0 1 ⎞ ⎟ ⎠ e1(1/2) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ 1 1 2 −1 2 1 2 0 0 5 2 −3 0 1 0 0 2 1 0 0 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ e21(−5) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 2 −1 2 1 2 0 0 0 −1 2 −1 2 −5 2 1 0 0 2 1 0 0 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e2(−2) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 2 −1 2 1 2 0 0 0 1 1 5 −2 0 0 2 1 0 0 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e32(−2) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 2 −1 2 1 2 0 0 0 1 1 5 −2 0 0 0 −1 −10 4 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e23(1) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 2 −1 2 1 2 0 0 0 1 0 −5 2 1 0 0 −1 −10 4 1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e3(−1) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 1 2 −1 2 1 2 0 0 0 1 0 −5 2 1 0 0 1 10 −4 −1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e12(−1/2) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ 1 0 −1 2 3 −1 − 1 2 0 1 0 −5 2 1 0 0 1 10 −4 −1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ e13(1/2) ↝ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ 1 0 0 8 −3 −1 0 1 0 −5 2 1 0 0 1 10 −4 −1 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ A−1 =⎛⎜ ⎝ 8 −3 −1 −5 2 1 10 −4 −1 ⎞ ⎟ ⎠

(43)

2.6.2.

Matriz Adjunta

Sea la matriz A ∈ Mnn(K) se define la adjunta como la transpuesta de la matriz de

cofactores. Cada cofactor Aij corresponde al determinante de la matrizAT ∈ Mnn(K) sin

considerar la columna i y la columna j cuyo resultado se multiplica por(−1)i+j:

A = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ⋮ ⋱ ⋮ an1 an2 an3 . . . ann ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ ⇒ AT = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ a11 a21 a31 . . . an1 a12 a22 a32 . . . an2 ⋮ ⋱ ⋮ a1n a2n a3n . . . ann ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

A modo de simplificar se pueden renombrar los elementos de la matrizAT tal que:

AT = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ b11 b12 a13 . . . b1n b21 b22 b23 . . . b2n ⋮ ⋱ ⋮ bn1 bn2 bn3 . . . bnn ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ adj(A) = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ A11 A12 A13 . . . A1n A21 a22 A23 . . . A2n ⋮ ⋱ ⋮ An1 An2 An3 . . . Ann ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ T ⇒ adj(A) = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ A11 A21 A31 . . . An1 A12 A22 A32 . . . An2 ⋮ ⋱ ⋮ A1n A2n A3n . . . Ann ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

(44)

adj(A) = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ (−1)i+j⋅ det⎛⎜ ⎝ b22 . . . b2n ⋮ ⋱ ⋮ bn2 . . . bnn ⎞ ⎟ ⎠ . . . (−1) i+j⋅ det⎛⎜ ⎝ b21 . . . b2i ⋮ ⋱ ⋮ bn1 . . . bnj ⎞ ⎟ ⎠ ⋮ ⋱ ⋮ (−1)i+j⋅ det⎛⎜ ⎝ b12 . . . b1n ⋮ ⋱ ⋮ bi2 . . . bin ⎞ ⎟ ⎠ . . . (−1) i+j⋅ det⎛⎜ ⎝ b11 . . . b1j ⋮ ⋱ ⋮ bij . . . bij ⎞ ⎟ ⎠ ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ Considerando el producto P = A ⋅ adj(A) = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ⋮ ⋱ ⋮ an1 an2 an3 . . . ann ⎞ ⎟⎟ ⎟ ⎠ ⋅ ⎛ ⎜⎜ ⎜ ⎝ A11 A21 A31 . . . An1 A12 A22 A32 . . . An2 ⋮ ⋱ ⋮ A1n A2n A3n . . . Ann ⎞ ⎟⎟ ⎟ ⎠ Si i= j entonces, pjj = aj1⋅ Aj1+ aj2⋅ Aj2+ . . . + ajn⋅ Ajn= n ∑ 1 ajkAjk = det(A) Si i≠ j entonces, pij = ai1⋅ Aj1+ ai2⋅ Aj2+ . . . + ain⋅ Ajn

Para este caso pij = 0 ya que corresponde al determinante de una matriz con filas repetidas

(filas L.D ). A ⋅ adj(A) = ⎛ ⎜⎜ ⎜ ⎝ det(A) 0 0 . . . 0 0 det(A) 0 . . . 0 ⋮ ⋱ ⋮ 0 0 0 . . . det(A) ⎞ ⎟⎟ ⎟ ⎠ = det(A) ⎛ ⎜⎜ ⎜ ⎝ 1 0 0 . . . 0 0 1 0 . . . 0 ⋮ ⋱ ⋮ 0 0 0 . . . 1 ⎞ ⎟⎟ ⎟ ⎠ Por lo tanto, A ⋅ adj(A) es una matriz diagonal y se tiene que:

A ⋅ adj(A) = det(A) ⋅ Inn

(45)

A−1= adj(A)

det(A)

Teorema 2.6.1 Una matrizA ∈ Mnn(K) es invertible si y s´olo si det(A) ≠ 0

Ejemplo :

Invertir (si es posible) la matrizA =⎛⎜ ⎝ 1 3 5 2 1 8 3 1 4 ⎞ ⎟ ⎠ det(A) = 39 adj(A) = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ ⎝ det( 1 8 1 4 ) −det ( 2 8 3 4 ) det( 2 1 3 1 ) −det ( 3 51 4 ) det( 1 5 3 4 ) −det ( 1 3 3 1 ) det( 3 5 1 8 ) −det ( 1 5 2 8 ) det( 1 3 2 1 ) ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟ ⎠ T =⎛⎜ ⎝ −30 −16 −1 −7 −11 8 19 2 −5 ⎞ ⎟ ⎠ T adj(A) =⎛⎜ ⎝ −30 −7 19 −16 −11 2 −1 8 −5 ⎞ ⎟ ⎠ A−1= adj(A) det(A) = ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ −30 39 −7 39 19 39 −16 39 −11 39 2 39 −1 39 8 39 −5 39 ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠

2.6.3.

Teorema de Cayley-Hamilton

A partir de la definici´on de polinomio caracter´ıstico de una matriz, se puede enunciar el teorema de Cayley-Hamilton :

(46)

Teorema 2.6.2 Toda matriz cuadrada es ra´ız de su polinomio caracter´ıstico que se define pA(λ) = det(A − λI)

Es decir,A + an−1An−1+ . . . + a1A + a0I = 0

Sea la matriz A ∈ Mnn(K). Entonces por definici´on de polinomio caracter´ıstico se tiene:

p(λ) = det(A − λInn) = λn+ an−1λn−1+ . . . + a1λ+ a0

Sustituyendo λ por la matrizA e igualando a cero se tiene que: p(A) = An+ an−1An−1+ . . . + a1A + a0) = 0(x)

Ejemplo : A3×2= (

1 2 3 4 )

p(λ) = det(A − λI) = det ( 1− λ 2

3 4− λ ) = (1− λ)(4 − λ) − 6 = λ2− 5λ − 2 Luego, λ2− 5λ − 2 = 0

Reemplazando λ por la matriz A e igualando a cero A2− 5A − 2I = 0

( 15 22 ) − (7 10 15 20 ) − (5 10 2 00 2 ) = ( 0 00 0 ) Se comprueba que:

( 715− 5 − 2− 15 22 − 20 − 2 ) = (10− 10 0 00 0 )

Aplicando el teorema de Cayley-Hamilton para invertir la matriz del ejemplo anterior se tiene que para el polinomio caracter´ıstico 1

p(λ) = λ2− 5λ − 2 si λ = 0 entonces, ∣det(A)∣ = ∣ − 2∣

1El polinomio caracter´ıstico de una matriz corresponde a p(λ) = λn+a

n−1λn−1+. . . + a1λ + a0mientras

que la ecuaci´on caracter´ıstica corresponde al polinomio λn

(47)

Luego, a partir deA2− 5A − 2I = 0 se puede formar la expresi´on A − 5I − 2A−1 = 0 En consecuencia, A−1= A −5I 2 A−1= ( 1 23 4 ) − ( 5 00 5 ) 2 A−1= ( −34 −1 )2 2 A−1= ⎛ ⎜⎜ ⎝ −2 1 3 2 −1 2 ⎞ ⎟⎟ ⎠ Comprobando, ( 1 23 4 ) ⋅⎛⎜⎜ ⎝ −2 1 3 2 −1 2 ⎞ ⎟⎟ ⎠= ( 1 0 0 1 )

2.7.

Equivalencia por Filas de una Matriz

SeaAP ×Q definimos el espacio fila de A como el subespacio KQ/K generado por sus filas

le´ıdas como n-tuplas . Ejemplo : A3×2 = ⎛ ⎜ ⎝ 1 2 3 5 1 8 ⎞ ⎟ ⎠

El espacio fila deA equivale a lin(A) = {(1, 2), (3, 5), (1, 8)} ∈ R2/R y es L.D.

(48)

2.8.

Valores y Vectores Propios

Para una matriz de n× n. A partir del polinomio caracter´ıstico se obtiene un valor λ que corresponde a las soluciones del polinomio caracter´ıstico tal.

A partir de los valores propios se obtiene un vector propio asociado de la forma ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ λ± a λ± b λ± c . . . λ± z ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ Ejemplo : Sea A = ( 4 −5 2 −3 )

El polinomio caracter´ıstico corresponde a P(λ) = A = ( 4− λ −5

2 −3 − λ ) = (4− λ)(−3 − λ) + 10 = −(4 − λ)(3 + λ) + 10 = 0 P(λ) = −(12 + λ − λ2) + 10 = λ2− λ − 2 = (λ − 2)(λ + 1)

Los valores propios son:

λ1 = 2 con multiplicidad algebraica igual a 1

λ2 = −1 con multiplicidad algebraica igual a 1

El vector propio se obtiene a partir de (A − λI) ⋅ ( xy ) = ( 00 )

Para λ1 se obtiene el vector propio

(A − λI) ⋅ ( xy ) = ( 22 −1 ) ⋅ (5 xy ) ( 00 ) ⇒ 2x2x + 5y =− y = 00

(49)

⇒ y = 0 ∧ x = 0 ⇒ ⃗vλ1 = ( 0 0 ) Propuesto: Resolver para λ2

(50)
(51)

Sistemas de Ecuaciones Lineales

3.1.

Notaci´

on Matricial de un Sistema de Ecuaciones

Un sistema de ecuaciones tiene una notaci´on de la forma: a11x1 + a12y1 + . . . + a1nz1 = b1

a21x2 + a22y2 + . . . + a2nz2 = b2

⋮ ⋱ ⋮

am1xm + am2ym + . . . + amnzm = bm

La notaci´on matricial de esta forma es: ⎛ ⎜⎜ ⎜ ⎝ a11 a12 ⋯ a1n a21 a22 ⋯ a2n ⋮ ⋮ ⋱ ⋮ am1 am2 ⋯ amn ⎞ ⎟⎟ ⎟ ⎠ ⋅ ⎛ ⎜⎜ ⎜ ⎝ x y ⋮ z ⎞ ⎟⎟ ⎟ ⎠ = ⎛ ⎜⎜ ⎜ ⎝ b1 b2 ⋮ bm ⎞ ⎟⎟ ⎟ ⎠ Esto ´ultimo se puede expresar comoA ⋅ ⃗x = ⃗b.

De esta forma, aplicando operaciones elementales se puede resolver un sistema de ecua-ciones ya que mediante esta operaci´on se puede despejar una componente (o inc´ognita) y tambi´en se pueden encontrar incompatibilidades determinando los tipos de soluci´on encontrando filas L.D .

(52)

Ejemplo :

x + y = 3

2x + 2y = 6

La notaci´on matricial es: ( 1 12 2 ) ⋅ ( xy ) = ( 36 ) Para la matriz A se obtiene: ( 1 12 2 ) e21(−2)

↝ ( 1 10 0 ) Con esto se obtiene: ( 1 10 0 ) ⋅ ( xy ) = ( 36 ) ⇒ x + y = 3, 0 = 6

Por lo tanto el sistema es incompatible y no hay soluci´on.

Otra forma de saber las soluciones o si existe soluci´on es usando el determinante de la matriz

det( 1 1

2 2 ) =1⋅ 2 − 2 ⋅ 1 = 0

Si el determinante es cero entonces hay filas L.D y no se puede determinar la soluci´on.

3.1.1.

Rango por Filas

Definiendo r= rango y n = n´umero de inc´ognitas. El rango por filas de una matriz corre-sponde al n´umero de filas L.I que contiene. Se determina escalonando la matriz y seg´un el n´umero de filas L.I que se encuentren se dan los siguientes casos:

(53)

1. Soluci´on ´unica: Si y s´olo si existe un vector ⃗c que es soluci´on del sistema. Ejemplo :

3x + y = 5

5x + 2y = 8

Como se se˜nal´o, si la soluci´on es ´unica se debe buscar un vector soluci´on ⃗c. Para esto se puede obtener [I ∣ ⃗c]. Es decir, se obtiene x = c1, y= c2, . . . , z= cn

( 3 1 55 2 8 )e1(1 3) ↝ ( 1 13 5 3 5 2 8 ) e2(−5) ↝ ( 1 13 5 3 0 1 3 −1 3 )e12(−1) ↝ ( 1 00 1 2 3 −1 3 )e2(3) ↝ ( 1 00 1 −1 )2 ( xy ) = ( −1 )2

2. Infinitas soluciones: Si se da el caso de que se pueda formar uno o m´as pivotes irreparables, vale decir, una fila que inevitablemente contendr´a al ⃗0 entonces el rango de la matriz ser´a menor a la cantidad de filas y para esta situaci´on se tiene que r< n

Ejemplo :

x + 2y − 3z = 6

2x − y + 4z = 2

4x + 3y − 2z = 14

Para desarrollar esto se escalona el sistema A ⋅ ⃗x = ⃗b y se obtiene [A ∣ ⃗b] ⎛ ⎜ ⎝ 1 2 −3 6 2 −1 4 2 4 3 −2 14 ⎞ ⎟ ⎠ e21(−2) ↝ ⎛⎜ ⎝ 1 2 −3 6 0 −5 10 −10 4 3 −2 14 ⎞ ⎟ ⎠ e31(−4) ↝ ⎛ ⎜ ⎝ 1 2 −3 6 0 −5 10 −10 0 −5 10 −10 ⎞ ⎟ ⎠ e32(−1) ↝ ⎛⎜ ⎝ 1 2 −3 6 0 −5 10 −10 0 0 0 0 ⎞ ⎟ ⎠

(54)

3. No hay soluci´on: Si el sistema es incompatible y esto se puede verificar luego de escalonar o directamente. Ejemplo : x + 2y = 6 2x + 4y = 2 ( 1 2 62 4 2 )e21(−1) ↝ ( 1 21 2 −4 )6 ⇒ ( 1 21 2 ) ⋅ ( xy ) = ( −4 ) ⇒6 x+ 2y = 6 ∧ x + 2y = −4 ⇒ C

3.2.

Algoritmo tipo soluci´

on

Para el sistem A ⋅ ⃗x = ⃗b si r = n entonces hay soluci´on ´unica y si r < n ∃ ∞ soluciones. Para determinar las soluciones de un sistema de puede realizar lo siguiente:

1. Definir la matriz ampliada [A∣I] 2. Escalonar y obtener el rango.

3. Si se obtiene [0M∣c] ∀ c ≠ 0 entonces el sistema es incompatible.

4. En caso de que no ocurra lo se˜nalado en el punto (3) entonces se tienen dos casos posibles: r= n ∨ r < n

Para r= n existen soluciones particulares y una soluci´on general.

3.3.

Soluciones de un S.E.L

3.3.1.

Soluci´

on general de un S.E.L

El conjunto de todas las soluciones particulares del S.E.L A ⋅ ⃗x = ⃗b corresponde a la soluci´on general del sistema.

(55)

1. x + y + z = 0 2x + 3y − z = 4 De la ecuaci´on (1) se obtiene z = −x − y Reemplazando en (2) se obtiene 3x+ 4y = 4 ⇒ y = 4− 3x 4 = 1 − 3x 4

La soluci´on general ser´a ⎛⎜ ⎝ x y z ⎞ ⎟ ⎠= ⎛ ⎜⎜ ⎜ ⎝ x 1−3x 4 −1 −x 4 ⎞ ⎟⎟ ⎟ ⎠ 2. x + 2y − 3z = 6 2x − y + 4z = 2 4x + 3y − 2z = 14

La matriz aumentada queda: ⎛ ⎜ ⎝ 1 2 −3 6 2 −1 4 2 4 3 −2 14 ⎞ ⎟ ⎠ e21(−2) ↝ ⎛⎜ ⎝ 1 2 −3 6 0 −5 10 −10 4 3 −2 14 ⎞ ⎟ ⎠ e31(−4) ↝ ⎛⎜ ⎝ 1 2 −3 6 0 −5 10 −10 0 −5 10 −10 ⎞ ⎟ ⎠ e32(−1) ↝ ⎛ ⎜ ⎝ 1 2 −3 6 0 −5 10 −10 0 0 0 0 ⎞ ⎟ ⎠

La variable libre es z por lo que despejando se obtiene: x= 6 − 2y + 3z

y= −10−10z

−5 = 2 + 2z

x= 2 − z

La soluci´on general del sistema es: S =⎧⎪⎪⎪⎨⎪⎪⎪ ⎩ ⎛ ⎜ ⎝ x y z ⎞ ⎟ ⎠∈ R 3 / ⎛⎜ ⎝ x y z ⎞ ⎟ ⎠= ⎛ ⎜ ⎝ 2− z 2+ 2z z ⎞ ⎟ ⎠= ⎛ ⎜ ⎝ 2 2 0 ⎞ ⎟ ⎠+ z ⋅ ⎛ ⎜ ⎝ −1 2 1 ⎞ ⎟ ⎠ ⎫⎪⎪⎪ ⎬⎪⎪⎪ ⎭

(56)

3.3.2.

Soluci´

on Particular de un S.E.L

Las soluciones particulares son todos los valores que se admiten en la soluci´on general. Para el caso anterior una soluci´on particular est´a dada por un valor de x que este definido en las componentes (x, y, z).

El ejemplo anterior admite, entre otros valores, x= 0 tal que ⃗x1=

⎛ ⎜ ⎝ 0 1 −1 ⎞ ⎟ ⎠ y x= 1 tal que ⃗x1= ⎛ ⎜⎜ ⎜ ⎝ 1 1 4 −5 4 ⎞ ⎟⎟ ⎟ ⎠

Estos valores corresponden a soluciones particulares del sistema y existen tantas soluciones como valores que no indefinan las ecuaciones dadas.

3.4.

Sistemas Homog´

eneos

Para un sistema de la forma A ⋅ ⃗x = ⃗b si se cumple que ⃗b = ⃗0 se tiene A ⋅ ⃗x = ⃗0 y entonces el sistema ser´a homogeneo. Entonces, todo sistema homog´eneo tiene como soluci´on x1 =

0, x2 = 0, x3= 0, . . . , xn= 0.

Si las filas de A son L.I , es decir det(A) ≠ 0, entonces el sistema admite otras soluciones.

Teorema 3.4.1 La soluci´on de un sistemas homog´eneo es s.e.v en Kn. Si llamamos S al conjunto soluci´on de A ⋅ ⃗x = ⃗b entonces:

1. ⃗0∈ S

2. ⃗a,⃗b ∈ S ⇒ (⃗a ⊕ ⃗b) ∈ S 3. ⃗c ∈ S ⇒ α⃗c ∈ S

(57)

3.5.

Formas de Resoluci´

on

3.5.1.

etodo de Gauss

Si el sistemaA ⋅ ⃗x = ⃗b es un S.E.L compatible y tiene tantas ecuaciones como inc´ognitas, es decir que tiene soluci´on ´unica se tienen la siguiente implicancia: Las filas de la matriz A son L.I ⇒ det(A) ≠ 0

Dadas estas condiciones se puede invertir la matrizA y se obtiene: A ⋅ ⃗x = ⃗b

A−1A ⋅ ⃗x = A−1⃗b

⃗x = A−1⃗b

Otra forma de obtener la soluci´on es de la siguiente forma: 1. Se escribe la matriz aumentada [A∣⃗b]

2. Se aplican operaciones elementales hasta obtener [I∣⃗c] 3. ⃗x = ⃗c es la soluci´on del sistema.

Ejemplo :

Obtener las soluciones para el sistema: 1 x + 1 y + 1 z = 10 2 x − 3 y − 4 z = −22 3 x + 2 y − 1 z = −12

Primero, se puede aplicar un cambio de variable para simplificar la resoluci´on: Sea 1 x = x ′ , 1 y = y ′ , 1 z = z ′

(58)

x′ + y′ + z′ = 10

2x′ − 3y′ − 4z′ = −22

3x′ + 2y′ − z′ = −12

Luego, la notaci´on matricial corresponde a: ⎛ ⎜ ⎝ 1 1 1 10 2 −3 −4 −22 3 2 −1 −12 ⎞ ⎟ ⎠ e21(−2) ↝ ⎛⎜ ⎝ 1 1 1 10 0 −5 −6 −42 3 2 −1 −12 ⎞ ⎟ ⎠ e31(−3) ↝ ⎛ ⎜ ⎝ 1 1 1 10 0 −5 −6 −42 0 −1 −4 −42 ⎞ ⎟ ⎠ e21(−5) ↝ ⎛⎜ ⎝ 1 1 1 10 0 0 14 168 0 −1 −4 −42 ⎞ ⎟ ⎠ e2(1 14) ↝ ⎛ ⎜ ⎝ 1 1 1 10 0 0 1 12 0 −1 −4 −42 ⎞ ⎟ ⎠ e32(4) ↝ ⎛⎜ ⎝ 1 1 1 10 0 0 1 12 0 −1 0 6 ⎞ ⎟ ⎠ e3(−1) ↝ ⎛ ⎜ ⎝ 1 1 1 10 0 0 1 12 0 1 0 −6 ⎞ ⎟ ⎠ e3(−1) ↝ ⎛⎜ ⎝ 1 1 0 −2 0 0 1 12 0 1 0 −6 ⎞ ⎟ ⎠ e13(−1) ↝ ⎛ ⎜ ⎝ 1 0 0 4 0 0 1 12 0 1 0 −6 ⎞ ⎟ ⎠ e23 ↝ ⎛⎜ ⎝ 1 0 0 4 0 1 0 −6 0 0 1 12 ⎞ ⎟ ⎠ Entonces, x′= 4, y′= −6, z′= 12 ⇒ x = 1 4, y= − 1 6 , z= 1 12

3.5.2.

Regla de Cramer

Tal como en el caso anterior se tiene que si el sistema A ⋅ ⃗x = ⃗b es un S.E.L compatible y tiene tantas ecuaciones como inc´ognitas, es decir que tiene soluci´on ´unica se tienen la siguiente implicancia: Las filas de la matriz A son L.I ⇒ det(A) ≠ 0

Dadas estas condiciones se puede invertir la matriz A y se obtiene: A ⋅ ⃗x = ⃗b

(59)

⃗x = A−1⃗b

Bajo estas condiciones la soluci´on⃗x = A−1⃗b se determina a partir de la matriz A−1 tal que:

A−1= adj(A) det(A) Sea la matriz A = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ⋮ ⋱ ⋮ am1 am2 am3 . . . amn ⎞ ⎟⎟ ⎟ ⎠ A−1= adj(A) det(A) = ⎛ ⎜⎜ ⎜ ⎝ A11 A12 A13 . . . A1n A21 A22 A23 . . . A2n ⋮ ⋱ ⋮ Am1 am2 Am3 . . . Amn ⎞ ⎟⎟ ⎟ ⎠ T det(A)

Se tiene que Aij = (−1)i+j⋅ det(A′) siendo A′ la matriz resultante de aplicar el desarrollo

de Laplace a la columna j. Es decir, Al.c j→ aij⋅ A′

En la matriz adjunta no se consideran los factores que ponderan a la matriz A′.

Considerando la componente j-´esima de la ecuaci´on anterior se obtiene:

⃗xj= ( Aj1 Aj2 Aj3 . . . Ajn ) ⋅ ⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎝ b1 b2 b3 ⋮ bn ⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎠ det(A) = Aj1b1+ Aj2b2+ Aj3b3+ . . . + Ajnbn det(A) ⃗xj = n ∑ 1 Ajnbn⋅ 1 det(A) Entonces, ⃗xj = ∆j ∆ con ∆j= det(A

′′) siendo A′′ la matriz que se obtiene reemplazando la

(60)

A = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n ⋮ ⋱ ⋮ am1 am2 am3 . . . amn ⎞ ⎟⎟ ⎟ ⎠ ⇒ A′′ ⃗ b = ⎛ ⎜⎜ ⎜ ⎝ a11 a12 a13 . . . b1 a21 a22 a23 . . . b2 ⋮ ⋱ ⋮ am1 am2 am3 . . . bn ⎞ ⎟⎟ ⎟ ⎠ Ejemplo :

Resolver el sistema usando la Regla de Cramer 1 x + 1 y + 1 z = 5 2 x − 3 y − 4 z = −11 3 x + 2 y − 1 z = −6

Como en el caso anterior se puede aplicar un cambio de variable para simplificar la res-oluci´on: Sea 1 x = x ′ , 1 y = y ′ , 1 z = z ′ x′ + y′ + z′ = 5 2x′ − 3y′ − 4z′ = −11 3x′ + 2y′ − z′ = −6 x′= ∆x ∆ = det⎛⎜ ⎝ 5 1 1 −11 −3 −4 −6 2 −1 ⎞ ⎟ ⎠ det⎛⎜ ⎝ 1 1 1 2 −3 −4 3 2 −1 ⎞ ⎟ ⎠ = 15+ 24 + (−22) − 18 − (−40) − 11 3+ (−12) + 4 − (−9) − (−2) − (−8) = 28 14 = 2 ⇒ x = 1 x′ = 1 2

(61)

y′=∆y ∆ = det⎛⎜ ⎝ 1 5 1 2 −11 −4 3 −6 −1 ⎞ ⎟ ⎠ det⎛⎜ ⎝ 1 1 1 2 −3 −4 3 2 −1 ⎞ ⎟ ⎠ = 15+ 24 + (−22) − 18 − (−40) − 11 14 = − 42 14 = −3 ⇒ y = 1 y′ = − 1 3 z′= ∆y ∆ = det⎛⎜ ⎝ 1 1 5 2 −3 −11 3 2 −6 ⎞ ⎟ ⎠ det⎛⎜ ⎝ 1 1 1 2 −3 −4 3 2 −1 ⎞ ⎟ ⎠ = 18+ (−33) + 20 − (−45) − (−22) − (−12) 14 = 84 14= 6 ⇒ z = 1 z′ = 1 6

(62)
(63)

Escalares, Vectores y Espacios

Vectoriales

4.1.

Escalar

Se define escalar como toda maginitud que queda expresada cuando se conoce su mag-nitud y la unidad de medici´on.

Ejemplos : 1. Masa: 50kg, 16oz 2. Temperatura: -6°C, 32°F, 273K 3. Tiempo: 5 segundos 4. Rapidez: 10 km/h, 36 m/s 5. Volumen: 4 m3

4.2.

Vector

Se define vector como una magnitud que se define con tres propiedades que le son carac-ter´ısticas:

(64)

a

1. M´odulo: La longitud del vector (un vector contiene un segmento). En este caso es el segmento OA y corresponde a √32+ 42.

2. Direcci´on: Recta que contiene al vector. En este caso el vector est´a contenido en la recta de forma can´onica y= 4

3x

3. Sentido: La orientaci´on que toma el vector. En este caso es desde el punto (0,0) hasta el punto (3,4) y se ubica en el cuadrante I). Por convenio se divide el plano cartesiano en cuatro cuadrantes de la forma siguiente:

I) II)

(65)

Si no se especifican las 3 propiedades anteriores, el vector no est´a definido. Los vectores se denotan ⃗a,⃗b, ⃗c, ..., ⃗n y su expresi´on en el plano es de la forma ⃗a = {ax, ay, az, ..., an}.

Ejemplos :

1. Velocidad: Un m´ovil se mueve en uno o m´as ejes respecto de un centro de referencia. La velocidad es la variaci´on de distancia respecto del tiempo y puede tomar valores negativos, no as´ı la rapidez que correponde al m´odulo de la velocidad.

2. Desplazamiento: Un m´ovil puede ir de A a B que no es lo mismo que de B a A. Entonces, es importante especificar el sentido de la “flecha” que describe el vector desplazamiento.

3. Aceleraci´on: Dependiendo del sentido una fuerza puede acelerar o desacelerar un m´ovil por lo que el m´odulo por si s´olo no define la aceleraci´on.

Los vectores de la figura son todos de igual m´odulo pero su direcci´on y sentido no son iguales. Por esto que es importante definir que un vector se define mediante estas tres propiedades.

(66)

Los vectores son n-dimensionales , es decir, est´an contenidos en planos en Kn(K puede ser

R ´o C) pero por razones geom´etricas (no es posible graficar en m´as de tres dimensiones) todo vector en el espacio est´a contenido en planos en R2 ´o R3.

Todo vector en Kn se denota ⃗a = (a

1, a2, . . . , an) y tambi´en se puede denotar en forma de

matriz . Un vector de n-componentes , en este caso 3, se denota mediante una matriz fila como se vi´o en el cap´ıtulo 2 tal que:

⃗a ∈ R3 = ( a

x ay az )

Para esclarecer a´un m´as sirve como ejemplo el caso de un alumna que llamaremos Trixi . El desplazamiento de su casa, que queda en Diagonal Paraguay, desde un punto A a la facultad ubicada en un punto B es el vectorÐ→ABque no es lo mismo que el desplazamiento opuestoÐ→BA. Ambas distancias tienen igual m´odulo, misma direcci´on pero sentido inverso. Mediante graficos esto queda expresado claramente en los ejes (x, y) y (x, y, z). Existen muchos m´as ejemplos como el de la velocidad de una piedra que cae con m´oudulo igual a su rapidez, direcci´on vertical y sentido hacia el centro de la tierra.

4.3.

Espacio Vectorial

Sea V un conjunto de vectores {⃗a,⃗b, ⃗c, ..., ⃗n} dotado de una LCI ⊕ denominada suma y que adem´as este conjunto tiene estructura de grupo abeliano.

Sea adem´as, K un conjunto de escalares {α, β, γ, ..., λ} dotado de dos LCI (+, ⋅) tal que (K, +, ⋅) tiene estructura de cuerpo. Entonces, V/K es un ejjespacio vectorial.

4.4.

Espacios Vectoriales Usuales

4.4.1.

Espacio Vectorial R

2

/R

Consideremos V = R2 = R × R = {(x, y)/x ∈ R ∧ y ∈ R} que corresponde a vectores pares

ordenados de n´umeros reales. La suma en este caso se define:

⃗a = (x, y)

(67)

Con esta definici´on el neutro de la suma de vectores en R2 es:

⃗0 = (0,0) En efecto, ⃗a + ⃗0 = (x,y) + (0,0) = (x + 0,y + 0) = (x,y)

Para el caso de un vector polinomio cabe se˜nalar que el neutro no correponde al 0 sino al 0(x), es decir: p(x) = a + bx + cx

2+ . . . + nxn

0(x) = 0 + 0x + 0x2+ . . . + 0xn }

Para el cuerpo K tomamos el cuerpo(R, +, ⋅) y finalmente consideramos la LCE entre R y R2 que se define:

R× R2 → R2

(α, ⃗a) = (α(x, y)) → α⃗a = α(x, y) = (αx, αy) Demostraci´on : R2/R es un espacio vectorial

Se pueden verificar las propiedades ya se˜naladas de la LCE K× V: 1. α(⃗a ⊕ ⃗b) = α⃗a ⊕ α⃗b En efecto, α(⃗a ⊕ ⃗b) = α[(x, y) ⊕ (p, q)] α(⃗a ⊕ ⃗b) = α(x + p, y + q) α(⃗a ⊕ ⃗b) = (α(x + p), α(y + q)) α(⃗a ⊕ ⃗b) = (αx + αp), αy + αq) α(⃗a ⊕ ⃗b) = (αx, αy) ⊕ (αp, αq) α(⃗a ⊕ ⃗b) = α(x, y) ⊕ α(p, q) α(⃗a ⊕ ⃗b) = α⃗a ⊕ α⃗b

2. (α + β)⃗a = α⃗a ⊕ β⃗a En efecto,

(α + β)⃗a = (α + β)(x, y)

(α + β)⃗a = ((α + β)x , (α + β)y) (α + β)⃗a = (αx + βx , αy + βy) (α + β)⃗a = (αx, αy) + (βx + βy) (α + β)⃗a = α⃗a + β⃗a

(68)

3. α(β⃗a) = (αβ)⃗a En efecto, α(β⃗a) = α(β(x, y)) α(β⃗a) = α[(βx, βy)] α(β⃗a) = (αβx, αβy) α(β⃗a) = αβ(x, y) 4. 1⃗a = ⃗a En efecto, 1⃗a = 1(x, y) 1⃗a = (1x, 1y) 1⃗a = (x, y) 1⃗a = ⃗a

Las propiedades se han verificado con pares ordenados de n´umeros reales por lo que se demuestra que R2/R es un espacio vectorial.

Observaci´on: Aqu´ı solo se ha demostrado un caso particular. La demostraci´on es v´alida para R2/R y no para cualquier espacio vectorial que puede ser R3/R, Rn/R, etc.

4.4.2.

R

n

/R

Corresponde a: Rn/R =

n−veces

³¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹·¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹µ (R × R × R × . . . × R) Todo vector en Rn/R se denota ⃗x = {(x

1, x2, x3, . . . , xn)/xj ∈ R ∀j = {1, 2, 3, . . . , n}}

La suma en este espacio es an´aloga al caso de pares ordenados, es decir:

⃗x ⊕ ⃗y = (x1, x2, x3, . . . , xn) ⊕ (y1, y2, y3, . . . , yn) = (x1+ y1, x2+ y2, x3+ y3, . . . , xn+ yn)

La ponderaci´on por escalar tambi´en es an´aloga al caso de pares ordenados, se cumple: α⃗x = α(x1, x2, x3, . . . , xn) = (αx1, αx2, αx3, . . . , αxn)

(69)

4.4.3.

R

n

[x]/R (Polinomios reales de grado n sobre R)

Corresponde a : Rn[x] ² pol /R = {⃗p(x) = a0+ a1x+ a2x2+ . . . + anxn/aj ∈ R ∀j = {(1, 2, 3, . . . , n}}

La suma en este espacio es an´aloga al caso de pares ordenados, es decir: (⃗p⊕ ⃗q)(x) = (a0+ a1x+ a2x2+ . . . + anxn) ⊕ (b0+ b1x+ b2x2+ . . . + bnxn)

(⃗p⊕ ⃗q)(x) = (a0+ b0) + (a1x+ b1x) + (a2x2+ b2x2) + . . . + (anxn+ bnxn)

La ponderaci´on por escalar en este espacio es an´aloga al caso de pares ordenados, es decir: α⃗p(x) = α ⋅ ⃗p(x) = α(a0+ a1x+ a2x2+ . . . + anxn)

α⃗p(x) = αa0+ αa1x+ αa2x2+ . . . + αanxn

El neutro para este espacio corresponde a 0(x), es decir: 0 + 0x + 0x2+ . . . + 0xn

Observaciones:

1. 0(x) num´ericamente es cero pero conceptualmente es un polinomio.

2. n indica el grado mayor de un polinomio, de esta forma un espacio de orden n contiene todos los polimios de grado ≤ n.

3. Un polinomio se puede expresar como n-tupla, ejemplo: 2+ 3x + 4x2 → (2, 3, 4)

4.4.4.

C

[a, b] (Funciones reales continuas sobre [a, b])

Suma de vectores:ÐÐ→f+ g(x) = Ð→f(x) + Ð→g(x) Ponderaci´on por escalar:(Ð→αf)(x) = α ⋅ Ð→f(x) Elemento neutro: Ð→0(x) = 0 ∀x ∈ [a, b]

4.5.

Base de V

/K

Sea V/K un espacio vectorial, entonces el conjunto A = {⃗a1,⃗a2,⃗a3, . . . ,⃗an} es una base de

(70)

1. A es linealmente independiente 2. lin(A) = V/K

Cuando se cumplen ambas condiciones A es un conjunto libre (linealmente independiente) y generador , es decir que con combinaciones lineales de A se puede formar cualquier vector de V/K. Ejemplo : E= {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base de R3/R 1. E es linealmente independiente. En efecto, α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (0, 0, 0) ⇒ (α, 0, 0) + (0, β, 0) + (0, 0, γ) = (0, 0, 0) ⇒ α = β = γ = 0 2. E es generador de R3/R

En efecto, sea(x, y, z) cualquier vector de R3/R se cumple que:

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z) (x, y, z) = (x, y, z)

⇒ (x, y, z) ∈ lin(E) ∀(x, y, z) ∈ R3

4.5.1.

Bases Can´

onicas

Se define base can´onica como toda base formada ´unicamente por vectores unitarios tal que solo una de las componentes de cada vector es no nula e igual a 1. Para toda base can´onica se cumple lo siguiente:

Sea ⃗ci el i-´esimo vector can´onico, necesariamente ⃗ci{

0 si i≠ j

1 si i= j Siendo j la componente j-´esima del vector i-´esimo . Es decir, cuando la componente tiene la misma cardinalidad que el vector entonces la componente toma el valor 1.

(71)

4.6.

Dimensi´

on de V/K

Sea V/K un espacio vectorial, entonces todas las bases de V/K tienen la misma cardinal-idad.

Se define dimensi´on del espacio V/K a la cardinalidad de sus bases. De este concepto surge el de vector de coordenadas de ⃗x que se define:

4.7.

Vector de Coordenadas de

⃗x

Sea A= {⃗a1,⃗a2,⃗a3, . . . ,⃗an} y ⃗x ∈ V cualquier vector. Entonces se puede expresar ⃗x de la

forma:

⃗x = α1⃗a1+ α2⃗a2+ α3⃗a3+ . . . + αn⃗an= n

k=1

αk⃗xk

Es decir, ⃗x se puede formar a partir de una combinaci´on lineal de vectores del conjunto al que pertenece.

El vector de coordenadas de ⃗x con respecto a la base A corresponde a la n-tupla:

[⃗x]A= ⎡⎢ ⎢⎢ ⎢⎢ ⎢⎢ ⎢⎢ ⎣ α1 α2 α3 ⋮ αn ⎤⎥ ⎥⎥ ⎥⎥ ⎥⎥ ⎥⎥ ⎦ Ejemplo :

1. En R3/R sea la base D = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} y el vector ⃗x = (2, 8, 5)

Se tiene que ⃗x = −6(1, 0, 0) + 3(1, 1, 0) + 5(1, 1, 1)

Por lo tanto el vector de coordenadas corresponde a: [⃗x]D=

⎡⎢ ⎢⎢ ⎢⎢ ⎣ −6 3 5 ⎤⎥ ⎥⎥ ⎥⎥ ⎦ 2. Determine base y dimension para W1∩ W2 si

W1 = {(x, y, z, w) ∈ R4/x + y − w = 0}

W2 = {(x, y, z, w) ∈ R4/x − w = 0}

(72)

a + b −d = 0

a −d 0

⇒ a + b − d = 0 ∧ b = 0 ⇒ a = d

⃗u = (a, b, c, d) = (a, 0, c, a) = a(1, 0, 0, 1) + c(0, 0, 1, 0)

⃗u es generado por {(1, 0, 0, 1), (0, 0, 1, 0)} que es linealmente independiente ∴ {(1, 0, 0, 1), (0, 0, 1, 0)} es base de dimensi´on (cardinalidad) 2 de W1∩ W2

4.8.

Subespacio Vectorial

Sea V/K un espacio vectorial y W ⊆ V tal que W ≠ φ. Entonces W/K es un s.e.v. de V/K si y s´olo si cumple con el teorema de caracterizaci´on:

Teorema 4.8.1 W⊆ V es s.e.v. de V/K si y s´olo si: 1. Ð→0 ∈ W lo cual comprueba que W ≠ φ

2. (Ð→a ,Ð→b) ∈ W ⇒ (Ð→a ⊕ Ð→b) ∈ W ∀(Ð→a ,Ð→b) ∈ W, α ∈ K 3. Ð→a ∈ W ⇒ αÐ→a ∈ W ∀(Ð→a ,Ð→b) ∈ W, α ∈ K

Ejemplo :

En R2/R sea W ⊆ R

2[x]/W = {p(x) = a + bx + cx2, p(1) = 0}

Probar que W/R es un s.e.v. de R2[x]/R

1. Sea Ð→0(x) = 0 + 0x + 0x2 tenemos que Ð→0(x)∣

x=1= 0 + 0 ⋅ 1 + 0 ⋅ 12 = 0 ⇒ Ð→0(x) ∈ W ⇒ W ≠ φ 2. Sean Ð→Ð→p(x) = a + bx + cx2 q(x) = d + ex + fx2 } ∈ W ⇒ Ð→p(1) + Ð→q(1) = 0 Entonces, ÐÐÐ→(p + q)(x) = Ð→p(x) + Ð→q(x) Por lo tanto ÐÐÐ→(p + q)(1) = Ð→p(1) + Ð→q(1) = 0 + 0 = 0 ⇒ÐÐÐ→(p + q)(x) ∈ W

(73)

3. Sea Ð→p x= a + bx + cx2∈ W ⇒ p(1) = 0 y adem´as α ∈ R Entonces, (αÐ→p)(x) = α ⋅ Ð→p(x) (αÐ→p)(1) = α ⋅ Ð→p(1) = α ⋅ 0 = 0 ⇒ (α ⋅ Ð→p ∈ W) ∴W es un s.e.v

4.8.1.

Combinaci´

on Lineal

Sea A= {x1, x2, x3, . . . , xn} ⊆ V/K que puede ser un conjunto de caracter finito o infinito.

Una combinaci´on lineal de A es todo vector de la forma: ⃗a =∑n

k=1

αj⃗xj⃗a = lin(A)

El concepto de combinaci´on lineal lleva al concepto de independencia lineal que se define como sigue:

4.8.2.

Independencia Lineal de un Conjunto

Sea A= {x1, x2, x3, . . . , xn} ⊆ V/K, se cumple que A es linealmente independiente si y s´olo

si:

⃗a =∑n

k=1

αk⃗xk= ⃗0 ⇒ (α1 = α2= α3 = . . . = αn= 0)

Es decir, A es un conjunto linealmente independiente cuando la ´unica forma de obtener una combinaci´on lineal nula es que todos los escalares de la combinaci´on sean 0. Si esto no se cumple, entonces el conjunto necesariamente es linealmente dependiente.

Ejemplos : 1. Verificar que (3,5 2) es combinaci´on lineal de A = {(1, 0), (0, 2)} En efecto, α(1, 0) + β(0, 2) = (3,5 2) (α, 2β) = (3,5 2)

Referencias

Documento similar

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

No había pasado un día desde mi solemne entrada cuando, para que el recuerdo me sirviera de advertencia, alguien se encargó de decirme que sobre aquellas losas habían rodado

Abstract: This paper reviews the dialogue and controversies between the paratexts of a corpus of collections of short novels –and romances– publi- shed from 1624 to 1637:

In medicinal products containing more than one manufactured item (e.g., contraceptive having different strengths and fixed dose combination as part of the same medicinal

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

Package Item (Container) Type : Vial (100000073563) Quantity Operator: equal to (100000000049) Package Item (Container) Quantity : 1 Material : Glass type I (200000003204)