2. ÁLGEBRA LINEAL
2.1 Definiciones
Una matriz ΑΑΑΑ = (
aij
), de ordenn
xm
, es un conjunto de números dispuestos enn
filas ym
columnas.
=
nm n n n m m ma
....
a
a
a
...
a
....
a
a
a
a
....
a
a
a
a
....
a
a
a
3 2 1 3 33 32 31 2 23 22 21 1 13 12 11A
Un elemento,
aij
, se identifica por dos sub – índices, el primero de los cuales denota la fila y el segundo la columna. Sim
= 1 se tiene unamatriz columna
o "vector" de dimensiónn
:
=
3 2 1b
b
b
M
b
Si en cambio
n
= 1, se tiene unamatriz fila
:c
=
[
c
1c
2K
c
m]
. Sin
=m
se dice que la matriz es cuadrada (de ordenn
). Por ejemplo:
=
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
A
=
4 3 2 10
0
0
0
0
0
0
0
0
0
0
0
d
d
d
d
D
=
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
nI
A
,D
eI
n son matrices cuadradas. La matrizD
=
diag
[
d
1d
2K
d
n]
es unamatriz
diagonal
, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el de=
diag
[
1
1
K
1
]
=
( )
δ
ijn
I
, que es unamatriz unidad
(o identidad) de ordenn
. Lamatriz identidad tiene en el álgebra matricial un papel similar al uno en álgebra común. Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada), cuyos elementos son todos ceros.
Las matrices cuadradas cuyos elementos tienen simetría conjugada:
a
ij=
a
ji∗ (donde * indica conjugada compleja) se denominanHermitianas
. Por ejemplo:
+
−
−
+
+
+
−
−
−
+
=
4
3
2
1
0
3
2
3
1
2
3
1
1
5
2
0
2
3
2
1
i
i
i
i
i
i
i
i
i
i
H
i
=
−
1
es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales, es decir
a
ij=
a
ji, se tiene una matriz simétrica.Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los elementos con valor significativo están agrupados alrededor de la diagonal principal se denomina
matriz banda
. Por ejemplo:
−
−
−
−
−
−
−
−
=
1
1
1
2
1
1
2
1
1
2
1
1
1
B
Las líneas paralelas a la diagonal principal se llaman
codiagonales
. El número total de diagonal y codiagonales con elementos significativos en elancho de banda
(3 en este ejemplo). Para matrices simétricas puede también hablarse de unancho de semi –
banda
; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz banda tiene bajadensidad
. Por densidad se entiende la razón entre el número de elementos con valor significativo y el número total de elementos.Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal principal son cero se dice que ésta es una
matriz triangular
inferior (superior):
=
nm n n nl
l
L
l
l
K
L
l
l
l
L
l
l
L
l
3 2 1 33 32 31 22 21 110
0
0
0
0
0
L
=
nm n n nu
u
u
u
u
u
u
u
u
u
L
K
L
L
L
0
0
0
0
0
0
3 33 2 23 22 1 13 12 11U
En lo que sigue se usan letras negritas para denotar matrices. Para las matrices columna y para las matrices filas se usan minúsculas, mientras que para las matrices rectangulares (incluyendo las matrices cuadradas) se usan mayúsculas. En todos los casos, los elementos de una matriz se indican en minúsculas.
2.2 Operaciones Básicas con Matrices
Subdivisión o partición. El conjunto de elementos de una matriz
A
puede ser dividido en otros más pequeños mediante líneas horizontales y/o verticales. Las distintas partes,A
11,A
12, etc. sonsubmatrices
de la matrizA
. Las submatrices pueden tratarse comoelementos comunes de una matriz, excepto que deben operarse según las reglas del álgebra matricial.
Igualdad. Dos matrices,
A
,B
, del mismo orden, son iguales si cada elemento de una es igual al correspondiente elemento de la otra.A
=B
implicaa
ij=
b
ij para todoi
,j
.Suma (resta). La suma (o diferencia) de dos matrices
A
,B
del mismo orden es una tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando) algebraicamente los correspondientes elementos de las dos matrices originales:C
B
A
±
=
a
ij±
b
ij=
c
ijLa suma (resta) de matrices es asociativa y conmutativa:
Derivada e integral. Análogamente, puede definirse la derivada de una matriz:
a
ij=
b
ij∂
∂
⇒
=
∂
∂
α
α
B
A
y la integral de una matriz en forma similar.Multiplicación por un escalar. El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el escalar: ij ij
b
a
=
⇒
=
α
α
A
B
Multiplicación de dos matrices. Dos matrices,
A
(m
xp
) yB
(p
xn
) pueden ser multiplicadas en el ordenA
B
sólo si sonconformables
para el producto, es decir, si el número de columnas deA
es igual al número de filas deB
. El productoC
(m
xn
) es una matriz cuyos elementos se obtienen de:n
j
m
i
b
a
c
p k kj ik ij1
,
1
,
1=
=
⋅
=
∑
=Por ejemplo, si:
=
4
3
10
2
6
4
1
3
5
A
=
2
3
4
2
5
1
B
C
=
A
⋅
B
70
2
4
4
3
5
10
22
3
2
2
6
1
4
14
3
1
2
3
1
5
32 21 11=
⋅
+
⋅
+
⋅
=
=
⋅
+
⋅
+
⋅
=
=
⋅
+
⋅
+
⋅
=
c
c
c
K
=
⇒
70
28
48
22
39
14
C
La multiplicación de matrices es asociativa y distributiva, pero en general no es conmutativa:
C
B
A
C
B
A
(
⋅
)
=
(
⋅
)
A
(
B
+
C
)
=
AB
+
AC
AB
≠
BA
Siendo el orden de multiplicación importante, es frecuente enfatizarlo, diciendo por ejemplo que en el producto
AB
la matrizA
premultiplica aB
, o bien queB
postmultiplica aA
. En algunos casosAB
=
BA
; se dice entonces queA
yB
son conmutables.Es fácil verificar que el producto de dos matrices triangulares inferiores (superiores) es otra matriz triangular inferior (superior).
Transposición. La transpuesta
A
Tde una matriz
A
es aquella cuyas filas son las columnas deA
(y viceversa). SiA
T=
B
=
(
b
ij)
, entoncesb
ij=
a
ji:
=
6
3
5
2
4
1
A
=
6
5
4
3
2
1
TA
La transpuesta de una matriz simétrica es obviamente la matriz original. Productos del tipo
A
TA
resultan siempre en matrices simétricas. Lo mismo puede decirse de productosA
TSA
siS
es simétrica.(
)
T T T TA
B
C
C
AB
K
=
K
Determinante de una matriz cuadrada. Es un número que resulta de:
∑
±
=
=
! 3 2 1det
n nr k j ia
a
a
a
K
A
A
Donde cada término de la suma incluye un solo elemento de cada fila y de cada columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..
n
, los índices de las columnas en cada término de la suma pueden ser obtenidos comopermutación del orden normal. Según el número de cambios requeridos para esta permutación sea par o impar se asigna al producto correspondiente el signo + o
-
. La suma incluye lasn
! permutaciones posibles.Las siguientes propiedades facilitan el cómputo de la determinante de una matriz cuadrada A cualquiera:
• Si se intercambian dos filas (columnas) la determinante cambia de signo.
• La determinante de una matriz,
A
, es igual a la determinante de su transpuesta.• El valor de la determinante de una matriz
A
no se altera si una columna (fila) multiplicada por un escalar se suma algebraicamente a otra columna (fila):bc
ad
a
bc
d
b
a
d
c
b
a
−
=
−
=
0
det
det
• En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o proporcionales) es cero. Más aún,si dos o más columnas (filas) de una matriz
A
son linealmente dependientes, es decir α1a
1+ α2a
2+ α3a
3+...+ αn-1a
n-1+ αna
n = 0 para unconjunto de coeficientes αi de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz
A
es singular. Considérese por ejemplo el caso:
=
1
1
0
1
2
1
0
1
1
A
A
es singular puesto que:( )
( )
( )
=
+
−
+
0
0
0
1
1
0
1
1
2
1
1
0
1
1
1
• La determinante de una matriz triangular es igual al producto de los elementos de su diagonal principal.
• Para un producto matricial se cumple que:
(
)
det(
)
det(
)
det(
)
det
A
⋅
B
K
C
=
A
⋅
B
K
C
Así, por ejemplo, si:
=
=
24
0
0
0
24
6
0
0
12
6
2
0
4
3
2
1
1
6
7
1
0
1
3
1
0
0
1
1
0
0
0
1
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
A
entonces:det(
A
)
=
( ) (
1
⋅
1
⋅
2
⋅
6
⋅
24
)
=
288
Inversa de una matriz. Si una matriz
A
es no singular, es posible obtener su “inversa”,A
-1, que satisface: nI
AA
A
A
−1=
−1=
( )
A
−1 −1=
A
Obviamente
I
n−1=
I
n. La inversa de una matriz diagonal es otra matriz diagonal, cuyos elementos son inversas de los elementos de la matriz original. La inversa de una matriz triangular (inferior o superior) es otra matriz triangular del mismo tipo.La inversión de matrices permite efectuar la operación equivalente a la división del álgebra común.
C
A
B
C
AB
=
⇒
=
−1 (véanse los comentarios del ítem 2.5.5)Para la inversa de un producto matricial se cumple:
(
)
−1=
−1 −1 −1A
B
C
C
AB
K
K
Una matriz
Q
se denomina ortogonal si:Q
Q
T=
I
n. Particularmente, siQ
es una matriz cuadrada se tiene entonces queQ
−1=
Q
T. Por ejemplo:
−
=
θ
θ
θ
θ
cos
sen
sen
cos
R
es ortogonal, puesto que:
T
R
R
=
−
=
−θ
θ
θ
θ
cos
sen
sen
cos
1 .Refiriéndose a una matriz con coeficientes complejos,
U
, se dice que ésta es unitaria siI
U
U
*=
2.3 Espacios y Subespacios Vectoriales
Una matriz columna de orden
n
es un conjunto números que pueden ser interpretados como componentes de un vector en un espacio de dimensiónn
.Se dice que un conjunto de vectores
v
1v
2v
3 ....v
5 son linealmente dependientes siexisten números α1 α2 α3 .... α5, no todos cero, tales que:
0
5 5 3 3 2 2 1 1v
+
α
v
+
α
v
+
+
α
v
=
α
K
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno cualquiera de ellos puede expresarse como combinación lineal de los otros:
∑
≠=
r i i i rc
v
v
(y linealmente independientes si esto no es posible).p
vectores linealmente independientes de ordenn
(n
≥
p
) conforman una base de un espacio vectorial de dimensiónp
. Por otro lado,q
vectores, de los quep
(p
≤
q
) son linealmente independientes, están contenidos en un espacio de dimensiónp
.Si los vectores linealmente independientes
x
1x
2 ....x
p constituyen una base de unespacio vectorial de dimensión
p
, un sub – conjunto de estos puede considerarse como base de un sub – espacio contenido en el espacio vectorial original.Las columnas (o filas) de una matriz rectangular
A
pueden tratarse como vectores. El número de vectores linealmente independientes define el “rango” de la matriz. Una matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si todas las columnas son linealmente independientes. Lo contrario implica que una o más columnas (filas) pueden obtenerse como combinación lineal de las otras y la determinante es cero.2.4 Sistemas de Ecuaciones Lineales
Se ha estimado que un 75% de los problemas de ingeniería se presenta, en alguna etapa del trabajo, la solución de un sistema de ecuaciones lineales:
n n nn n n n n n n n n n
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
=
+
+
+
+
⋅⋅
⋅
=
+
+
+
+
=
+
+
+
+
=
+
+
+
+
K
K
K
K
3 3 2 2 1 1 3 3 3 33 2 32 1 31 2 2 3 23 2 22 1 21 1 1 3 13 2 12 1 11 (2.1a) o bien:Ax
=
b
=
n n nn n n n n n nb
b
b
b
x
x
x
x
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
M
M
K
L
K
K
K
3 2 1 3 2 1 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11 (2.1b)En las secciones siguientes se supone que el sistema de ecuaciones tiene solución única, es decir, que
det(
A
)
≠
0
.La solución de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las matemáticas “clásicas” y los métodos numéricos modernos. Así, la Regla de Cramer:
=
nn nj n n n j n j n j nn n n n n n n ja
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
b
a
a
a
b
a
a
a
b
a
a
a
b
a
a
x
K
K
L
K
K
K
K
K
K
K
K
L
K
K
K
K
K
K
2 1 3 3 32 31 2 2 22 21 1 1 12 11 2 1 3 3 32 31 2 2 22 21 1 1 12 11det
det
(2.2)si bien proporciona fórmulas explícitas es tremendamente ineficiente cuando se trata de resolver sistemas con más de 3 incógnitas (excepto para casos muy especiales de la matriz de coeficientes).
Muchos métodos frecuentemente utilizados en ingeniería, como por ejemplo los métodos de elementos finitos para la solución de ecuaciones en derivadas parciales, resultan en
el planteamiento de grandes sistemas de ecuaciones lineales. El costo de análisis y en muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo utilizado en su solución.
2.5 Métodos Directos para la Solución
de Sistemas de Ecuaciones Lineales
Este acápite considera métodos que, de no haber errores de redondeo, producen la solución exacta en un número finito de pasos. Para sistemas
Ax
=b
, en los queA
es de alta densidad, los métodos directos son en general los más eficientes (para las computadoras actualmente utilizadas). Sin embargo, cuando un gran número de elementos deA
son cero, y en especial cuandoA
es definida positiva (x
TAx
>
0
para cualquierx
≠
0
), puede ser más conveniente utilizar un método iterativo en que se obtiene una secuencia de soluciones aproximadas que convergen a la solución exacta.2.5.1. Sistemas Triangulares
La solución de sistemas de ecuaciones lineales es particularmente simple cuando la matriz de coeficientes es triangular. Por ejemplo, considérese un sistema
Ux
=b
en el queU
es triangular superior:n n nn n n nn n n n n n n n n n
b
x
u
b
x
u
x
u
b
x
u
x
u
b
x
u
x
u
x
u
b
x
u
x
u
x
u
x
u
=
=
+
=
+
+
=
+
+
+
=
+
+
+
+
− − −1, 1 1 3 3 3 33 2 2 3 23 2 22 1 1 3 13 2 12 1 11K
K
K
K
K
(2.3)Si
U
es no singular (u
ii≠
0
para todoi
), las incógnitas pueden evaluarse en el orden:n
,n
-1,n
-2,n
-3, ... 2, 1: nn n nu
b
x
=
(2.4a)
−
=
∑
+ = n i k k ik i ii ib
u
x
u
x
11
(2.4b)Este proceso se denomina “sustitución inversa”. Análogamente, para un sistema
Lx
=
b
, en el queL
es una matriz triangular inferior no singular (l
ii≠
0
para todoi
), puede utilizarse una sustitución directa o “reducción”:11 1 1
l
b
x
=
(2.5a)
−
=
∑
− = 1 11
i k k ik i ii ib
l
x
l
x
(2.5b)En ambos casos, la solución del sistema requiere
n
divisiones y 21n
(
n
−
1
)
operaciones de multiplicación y suma (casi lo mismo que para multiplicar una matriz triangular por un vector).2.5.2 Método de Gauss
Éste es el más importante de los métodos directos para la solución de sistemas de ecuaciones lineales. La idea básica está en combinar las distintas ecuaciones para ir eliminando incógnitas en forma sistemática y obtener finalmente un sistema triangular, fácil de resolver. Considérese el sistema de orden
n
:) 1 ( ) 1 ( 3 ) 1 ( 3 2 ) 1 ( 2 1 ) 1 ( 1 ) 1 ( 3 ) 1 ( 3 3 ) 1 ( 33 2 ) 1 ( 32 1 ) 1 ( 31 ) 1 ( 2 ) 1 ( 2 3 ) 1 ( 23 2 ) 1 ( 22 1 ) 1 ( 21 ) 1 ( 1 ) 1 ( 1 3 ) 1 ( 13 2 ) 1 ( 12 1 ) 1 ( 11 n n nn n n n n n n n n n
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
=
+
+
+
+
=
+
+
+
+
=
+
+
+
+
=
+
+
+
+
K
K
K
K
K
K
(2.6)o en forma compacta:
Ax
=
b
. En lo que sigue se supone queA
es no singular. Supóngase también quea
11≠
0
. Puede entonces eliminarsex1
de la ecuacióni
si de ésta se resta la ecuación 1 multiplicada por:) 1 ( 11 ) 1 ( 1 1
a
a
l
i=
i (2.7a)Con ello se obtiene:
) 2 ( ) 2 ( 3 ) 2 ( 3 2 ) 2 ( 2 ) 2 ( 3 ) 2 ( 3 3 ) 2 ( 33 2 ) 2 ( 32 ) 2 ( 2 ) 2 ( 2 3 ) 2 ( 23 2 ) 2 ( 22 ) 1 ( 1 ) 1 ( 1 3 ) 1 ( 13 2 ) 1 ( 12 1 ) 1 ( 11 n n nn n n n n n n n n
b
x
a
x
a
x
a
b
x
a
x
a
x
a
b
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
=
+
+
+
=
+
+
+
=
+
+
+
=
+
+
+
+
K
K
K
K
K
K
(2.7b) donde ) 1 ( 1 1 ) 1 ( ) 2 ( ) 1 ( 1 1 ) 1 ( ) 2 (b
l
b
b
a
l
a
a
i i i j i ij ij−
=
−
=
(2.7c)En forma similar, puede eliminarse
x2
de las ecuacionesi
= 3,4,..n
restando de la ecuacióni
la ecuación 2 multiplicada por:) 2 ( 22 ) 2 ( 2 2
a
a
l
i=
iy así sucesivamente hasta obtener el sistema triangular:
) ( ) ( ) 3 ( 3 ) 3 ( 3 3 ) 3 ( 33 ) 2 ( 2 ) 2 ( 2 3 ) 2 ( 23 2 ) 2 ( 22 ) 1 ( 1 ) 1 ( 1 3 ) 1 ( 13 2 ) 1 ( 12 1 ) 1 ( 11 n n n n nn n n n n n n
b
x
a
b
x
a
x
a
b
x
a
x
a
x
a
b
x
a
x
a
x
a
x
a
=
=
+
+
=
+
+
+
=
+
+
+
+
K
K
K
K
K
(2.8) o en notación matricial:Ux
=b
.Los elementos
a
11(1),
a
22(2),
a
33(3)K
a
n(n−1−,1n)−1 que se usan como divisores en esta reducción se llaman “pivotes”. El proceso – tal como ha sido planteado hasta el momento – falla si alguno de estos es cero. Esto en general no ocurre si la matrizA
tiene diagonaldominante (es decir, si
∑
≠>
i j ij iia
a
) o siA
es simétrica (A
T =A
) y definida positiva (v
TAv
> 0 parav
arbitrario).El siguiente ejemplo ilustra el proceso:
=
190
44
10
2
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
)
1
(
)
1
(
)
1
(
4 3 2 1x
x
x
x
Los números indicados a la izquierda (entre paréntesis) son los factores
l
i1 por los que es necesario multiplicar la ecuación 1 antes de restarla de la ecuacióni
, para lograr el objetivo de eliminarx
1 de la segunda y las siguientes ecuaciones.
=
188
42
8
2
252
78
14
0
60
24
6
0
12
6
2
0
4
3
2
1
)
7
(
)
3
(
4 3 2 1x
x
x
x
Análogamente:
=
132
18
8
2
168
36
0
0
24
6
0
0
12
6
2
0
4
3
2
1
)
6
(
4 3 2 1x
x
x
x
=
24
18
8
2
24
0
0
0
24
6
0
0
12
6
2
0
4
3
2
1
4 3 2 1x
x
x
x
finalmente:2
4
3
2
8
12
6
2
18
24
6
24
24
4 3 2 1 4 3 2 4 3 4=
+
+
+
=
+
+
=
+
=
x
x
x
x
x
x
x
x
x
x
1
1
1
1
1 2 3 4−
=
=
−
=
=
x
x
x
x
Para estimar el esfuerzo de cómputo es habitual referirse al número de "operaciones" requeridas. La costumbre es contar como una operación a la combinación de una suma (o resta, o simplemente una copia) con una multiplicación (o división). Esta práctica proviene de las épocas en que el tiempo requerido para efectuar una multiplicación o una división era un orden de magnitud mayor que el necesario para una suma o una resta, pudiendo despreciarse estas últimas. La reducción de la matriz de coeficientes requiere de un número de operaciones de orden 13
n
3. La reducción del segundo miembro y lasustitución inversa requieren aproximadamente
n
2 operaciones. Si se tuvieran varios sistemas de ecuaciones con la misma matriz de coeficientes:Ax
=b
1,Ay
=b
2, ... sólo se requeriría efectuar la reducción deA
una vez, por lo que el número de operacionessería siempre aproximadamente 13
n
3. Más precisamente, se hacenn
n
n
3 2 2 3 3 1
+
2
+
operaciones para resolver un sistema de
n
ecuaciones lineales, pero sin
es grande sólo el primer término es importante.El proceso antes descrito falla cuando se presenta un pivote,
a
ii(i), igual a cero. Un ejemplo simple de tal situación es el siguiente:
=
1
2
1
2
2
1
2
1
1
1
1
1
3 2 1x
x
x
La matriz de coeficientes no es singular y el sistema tiene una solución única
(
)
T1
1
1
−
=
x
. Sin embargo, después del primer paso (efectuado en el orden indicadoanteriormente), se obtiene:
=
0
1
1
1
1
0
1
0
0
1
1
1
3 2 1x
x
x
y siendo
a
22(2)=
0
, no es posible proseguir como habitualmente. La solución es en este caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, sia
ii(i)=
0
, algún otro elemento de la misma columna,a
(iji), debe ser distinto de cero (lo contrario implicaría una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad deA
). Intercambiando las filasj
ei
puede entonces continuarse la reducción. Dados los elementosa
(iji) de la columnai
, es conveniente escoger como pivote aquel de máximo valor absoluto, puesto que el uso de pivotes pequeños introduce fuertes errores en la solución. El ejemplo siguiente es ilustrativo:
=
×
−9
7
1
1
1
10
3
2 1 11x
x
Trabajando con 10 cifras significativas se obtiene:
(
)
×
−
=
×
−
×
− 10 2 1 10 1110
333
333
333
.
3
7
7
10
333
333
333
.
3
0
1
10
000
000
000
.
3
x
x
de donde:x
2=
7
0
1=
x
La solución correcta es, sin embargo,
x
1=
2
. Es fácil comprobar que no se presenta este problema si se evita el pivote pequeño intercambiando previamente las ecuaciones:
=
×
−7
9
1
10
3
1
1
2 1 11x
x
El intercambio de filas al que se ha hecho referencia se denomina “intercambio parcial”. Alternativamente, puede pensarse en un “intercambio completo”, en que se selecciona el siguiente pivote como el elemento de máximo valor absoluto entre todos los elementos de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas (incógnitas) para continuar el proceso como se ha descrito.
El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la estabilidad numérica, y requiere bastante menos trabajo que el proceso con intercambio total.
2.5.3 Descomposición A = LU
Supóngase que
A
es tal que el proceso de reducción del método de Gauss puede efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la descomposiciónA
=LU
dondeL
es una matriz triangular inferior conl
ii=
1
yU
es una matriz triangular superior, es única. Esto puede probarse fácilmente por inducción. Para el caso del primer ejemplo:
=
24
0
0
0
24
6
0
0
12
6
2
0
4
3
2
1
1
6
7
1
0
1
3
1
0
0
1
1
0
0
0
1
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
Los elementos de
L
son justamente los coeficientesl
ij usados durante la reducción;U
es en cambio ¡la matriz
A
reducida!Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma matriz de coeficientes pueden ser resueltos simultáneamente. Sin embargo, no siempre se conocen desde un principio todos los vectores de coeficientes del segundo miembro. Por ejemplo, puede querer resolverse
Ax
1 =b
yAx
2 =x
1. Aún en este caso, al resolverel segundo sistema no es necesario volver a reducir la matriz
A
como al inicio. El sistemaAx
=b
es equivalente aLUx
=b
, o bien a los dos sistemas triangulares:Ly
=b
,
Ux
=y
. SiendoL
yU
conocidos, estos dos sistemas pueden resolverse en O(n
2)operaciones.
L
yU
pueden almacenarse en las mismas posiciones de memoria que enla matriz
A
: Comol
ki=
a
ki(i)a
ii(i) se determina con el objeto de hacera
ki(i+1)=
0
, kil
puede almacenarse en las posición dea
ki. Por otro lado, no es necesario almacenar los elementos de la diagonal deL
(que son todos iguales a 1). Dado que los elementos deU
son aquellos de la matriz reducida, el efecto de la reducción o descomposición en la distribución de memoria es de la forma:
⇒
nn n n n n n n nn n n n n n nu
l
l
l
u
u
l
l
u
u
u
l
u
u
u
u
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
K
L
K
K
K
K
L
K
K
K
3 2 1 3 33 32 31 2 23 22 21 1 13 12 11 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11Para el ejemplo precedente:
⇒
24
6
7
1
24
6
3
1
12
6
2
1
4
3
2
1
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
En los casos en los que se efectúan intercambios de filas y/o columnas es siempre posible (si
A
no es singular) obtener factores triangularesL
yU
tales queLU
=A
’,donde
A
’ es la matriz que resulta de efectuar los intercambios mencionados en la matriz originalA
.2.5.4 Otros Métodos Directos
Todos los métodos tratados en esta sección pueden considerarse como variantes del método de Gauss.
Una posible alternativa es la de calcular los elementos de
L
yU
mediante las fórmulas:n
k
k
j
u
l
a
u
k p j p p k j k j k=
−
∑
=
+
⋅
⋅⋅
− =,
1
,
1 1 (2.9a)n
k
i
u
l
a
u
l
k p k p p i k i kk k i
=
+
⋅
⋅⋅
−
=
∑
− =,
1
1
1 1 (2.9b)en lugar de efectuar “reducciones” como anteriormente. Esta modificación (Doolitle) es conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se hacen con una precisión mayor que aquella con la que se almacenan los resultados. El método de Crout efectúa la factorización
A
=LDR
, dondeL
es la misma matriz triangular inferior obtenida durante el proceso de Gauss,D
es una matriz diagonal yR
es una matriz triangular superior con coeficientes 1 en su diagonal principal.D
yR
están relacionados con laU
de Gauss.i
j
d
u
r
u
d
ii ij ij ii ii>
=
=
(2.10)En particular, para
A
simétrica:R
=L
T. Este método no posee ventajas ni desventajascon relación al de Gauss, bien sea en cuanto a estabilidad numérica y precisión, como en el número de operaciones necesarias.
Si durante el proceso de reducción se usa la ecuación
i
para eliminarx
i, no sólo de las ecuaciones que siguen a lai
sino también de la ecuaciones precedentes, se tiene el método de Gauss – Jordan. Para el ejemplo antes considerado:
=
190
44
10
2
256
81
16
1
64
27
8
1
16
9
4
1
4
3
2
1
4 3 2 1x
x
x
x
=
188
42
8
2
252
78
14
0
60
24
6
0
12
6
2
0
4
3
2
1
4 3 2 1x
x
x
x
−
=
−
−
132
18
8
6
168
36
0
0
24
6
0
0
12
6
2
0
8
3
0
1
4 3 2 1x
x
x
x
Nótese que se utilizó la segunda ecuación para reducir no solamente las ecuaciones 3 y 4, sino también la ecuación 1. Análogamente:
−
=
−
24
18
10
3
24
0
0
0
24
6
0
0
12
0
2
0
4
0
0
1
4 3 2 1x
x
x
x
−
−
=
24
6
2
1
24
0
0
0
0
6
0
0
0
0
2
0
0
0
0
1
4 3 2 1x
x
x
x
de donde se obtiene fácilmente la solución.
El método de Gauss- Jordan es más simple de programar, pero requiere casi 1.5 veces el número de operaciones del método de Gauss tradicional.
Finalmente, para concluir esta sección, debe mencionarse que el método de Gauss es aplicable también a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:
−
+
−
=
−
+
+
−
i
i
i
x
x
x
i
i
i
i
2
11
4
8
2
4
3
1
0
1
2
1
0
1
2
3 2 1
−
+
−
=
−
+
−
i
i
i
x
x
x
i
i
i
2
11
3
5
2
4
3
1
0
1
1
0
0
1
2
3 2 1
+
−
=
+
−
3
3
5
2
4
1
0
0
1
1
0
0
1
2
3 2 1i
i
x
x
x
i
i
de donde:[
(
4
2
)
2
(
1
)
]
1
2
)
1
(
3
)
3
5
(
3
2 1 1 2 3=
−
−
−
=
=
+
−
+
=
=
i
i
x
i
i
x
x
2.5.5 Inversión de MatricesSi la inversa,
A
-1, de una matrizA
se conoce, la solución de un sistemaAx
=b
puede escribirsex
=A
-1b
. Podría entonces parecer conveniente determinarA
-1, en especial si se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin embargo, la solución puede ser obtenida con mucho menos operaciones – y en general con mucha más precisión – utilizando la descomposiciónA
=LU
. La solución de los dos sistemas triangularesLy
=b
yUx
=y
requiere sólo O(n
2) operaciones (por cada columna deb
óx
). Por otro lado, la multiplicaciónA
-1b
también demanda O(n
2)operaciones. Sin embargo, la determinación de
A
-1 requiere aproximadamente el triple de trabajo que para obtenerL
yU
. El número de operaciones necesarias para obtener la inversa de una matriz cuadrada (no simétrica) de ordenn
esn
3+
2
n
2−
n
+
1
.No obstante esto, en algunos casos se necesita la inversa en forma explícita. La inversa puede obtenerse de un modo eficiente resolviendo
n
sistemas de ecuaciones lineales:AX
=I
n, dondeX
=A
-1. El siguiente ejemplo utiliza una variante del método de Gauss con este objeto:
=
4
1
3
3
1
2
1
1
1
A
En la columna de la izquierda se tienen la matriz
A
y sus sucesivas modificaciones. A la derecha se presentan la matrizI
y las modificaciones obtenidas efectuando sobre las filas las mismas operaciones que enA
:
4
1
3
3
1
2
1
1
1
1
0
0
0
1
0
0
0
1
−
−
1
2
0
1
1
0
1
1
1
−
−
1
0
3
0
1
2
0
0
1
−
−
1
0
0
1
1
0
2
0
1
−
−
−
1
2
1
0
1
2
0
1
1
1
0
0
0
1
0
0
0
1
11
2
1
1
1
1
2
3
1
−=
−
−
−
−
A
Alternativamente, si la descomposición
A
=LU
de una matrizA
se conoce, la inversa puede obtenerse deA
-1 =U
-1L
-1, también en O(n
2) operaciones. Si en los cómputos paraL
yU
se hacen intercambios de filas, el productoU
-1L
-1 resulta la inversa de una cierta matrizA
’. La matrizA
-1 puede obtenerse a partir de (A
’)-1 intercambiando columnas en secuencia inversa a los cambios de fila durante el proceso.Para la matriz antes considerada:
LU
A
=
−
−
=
1
0
0
1
1
0
1
1
1
1
2
3
0
1
2
0
0
1
4
1
3
3
1
2
1
1
1
La inversa de una matriz triangular es otra matriz del mismo tipo, fácil de determinar. Para una matriz triangular inferior,
L
, cada columna de la matriz inversaL
-1puede ser obtenida por sustitución directa o “reducción”: