Ortogonalizaci´ on de Gram–Schmidt
Objetivos. Estudiar el proceso de ortogonalizaci´on de Gram–Schmidt que permite cons- truir de una lista arbitraria de vectores a1, . . . , amuna lista ortogonal b1, . . . , bmque genere al mismo subespacio.
Requisitos. Listas ortogonales de vectores, listas ortonormales de vectores, proyecci´on ortogonal de un vector sobre el subespacio generado por vectores ortogonales, matriz de Gram.
En esta secci´on suponemos que V es un espacio vectorial complejo o real con un producto interno. El el caso complejo suponemos que el producto interno es lineal con respecto al segundo argumento.
1. Proyecci´on ortogonal de un vector sobre el subespacio generado por una lista ortogonal (repaso). Sean V un espacio vectorial real o complejo con producto interno, b1, . . . , bj algunos vectores ortogonales no nulos y v ∈ V . Definimos los vectores u, w ∈ V de la siguiente manera:
u =
m
X
k=1
hbk, vi
hbk, bkibk, w = v − u. (1)
Entonces w ⊥ `(b1, . . . , bj).
2. Proceso de ortogonalizaci´on de Gram–Schmidt. Sea V un espacio vectorial real o complejo con producto interno y sean a1, . . . , am ∈ V . Queremos construir vectores ortogonales b1, . . . , bm ∈ V de tal manera que para todo j ∈ {1, . . . , m}
`(b1, . . . , bj) = `(a1, . . . , aj).
Idea del proceso de ortogonalizaci´on de Gram–Schmidt: en el j-´esimo paso definir el vector bj como aj menos la proyecci´on ortogonal del vector aj al subespacio generado por los vectores b1, . . . , bj−1.
En el j-´esimo paso suponemos que los vectores b1, . . . , bj−1 ya est´an construidos y son ortogonales entre si. Buscamos bj de la forma
bj = aj −
j−1
X
k=1
λj,kbk. (2)
Para memorizar los ´ındices del coeficiente λj,k puede notar que este coeficiente sirve para
“corregir” el vector aj usando el vector bk.
Para calcular el coeficiente λj,q multipliquemos la igualdad (2) por bq en el sentido del producto interno:
hbq, bji =
*
bq, aj −
j−1
X
k=1
λj,kbk +
= hbq, aji −
j−1
X
k=1
δq,kλj,kkbkk2 = hbq, aji − λj,qkbqk2.
Queremos que hbq, bji sea igual a 0. Si bq 6= 0, entonces λj,q debe ser igual a λj,q = hbq, aji
kbqk2 = hbq, aji hbq, bqi.
Si bq= 0, entonces el sumando λj,qbi no depende de λj,q, y λj,q se puede elegir de manera arbitraria. En este caso por simplicidad ponemos λj,q = 0.
As´ı obtenemos las f´ormulas principales:
bj := aj−
j−1
X
k=1
λj,kbk, donde λj,k :=
hbk, aji
kbkk2 , bk 6= 0;
0, bk = 0.
(3)
3. Observaci´on. Es importante que el vector bj se construye como una combinaci´on lineal de los vectores b1, . . . , bj−1, aj, con el uso de los vectores nuevos b1, . . . , bj−1. Los vectores b1, . . . , bj−1 ya son ortogonales entre si, por eso las f´ormulas para los coeficientes λj,k son tan simples. Ser´ıa muy inc´omodo construir bj como una combinaci´on lineal de los vectores originales a1, . . . , aj−1, aj.
4. Ejemplo. Aplicar la ortogonalizaci´on de Gram–Schmidt a la lista de vectores a1, a2, a3:
a1 =
4
−2
−1 2
, a2 =
−6 3 4
−8
, a3 =
5
−5
−3
−4
.
Usando la matriz de Gram compruebe que la lista de vectores b1, b2, b3 que se obtiene al final es ortogonal.
Soluci´on. 1. Ponemos b1 = a1. Calculamos la norma de b1:
kb1k2 = 16 + 4 + 1 + 4 = 25, kb1k = 5.
2. Construimos el vector b2.
λ2,1 = hb1, a2i
kb1k2 = −24 − 6 − 4 − 16
25 = −2.
De aqu´ı
b2 = a2− λ2,1b1 = a2+ 2b1 =
−6 3 4
−8
+
8
−4
−2 4
=
2
−1 2
−4
.
Calculamos la norma de b2:
kb2k2 = 4 + 1 + 4 + 16 = 25, kb2k = 5.
3. Construimos el vector b3. λ3,1 = hb1, a3i
kb1k2 = 20 + 10 + 3 − 8
25 = 1, λ3,2 = hb2, a3i
kb2k2 = 10 + 5 − 6 + 16
25 = 1.
De aqu´ı
b3 = a3− λ3,1b1− λ3,2b2 = a3− b1 − b2 =
5
−5
−3
−4
+
−4 2 1
−2
+
−2 1
−2 4
=
−1
−2
−4
−2
.
Calculamos la norma de b3:
kb3k2 = 1 + 4 + 16 + 4 = 25, kb3k = 5.
Para comprobar que los vectores b1, b2, b3 son ortogonales calculamos su matriz de Gram:
G(b1, b2, b3) =
4 −2 −1 2
2 −1 2 −4
−1 −2 −4 −2
4 2 −1
−2 −1 −2
−1 2 −4
2 −4 −2
=
25 0 0
0 25 0 0 0 25
.
Podemos normalizar los vectores b1, b2, b3 (dividirlos entre sus normas) y obtener una lista ortonormal:
c1 =
4/5
−2/5
−1/5 2/5
, c2 =
2/5
−1/5 2/5
−4/5
, c3 =
−1/5
−2/5
−4/5
−2/5
.
5. Ejemplo. Ortogonalizar la siguiente lista de vectores en R4:
a1 =
5 1 1
−3
, a2 =
9 3 3
−7
, a3 =
7
−1
−1
−1
, a4 =
−5 5
−1 5
.
6. Criterio de la contenci´on de subespacios en t´erminos de sus generadores, repaso. Sean a1, . . . , aj ∈ V algunos vectores y sea S un subespacios de V . Entonces:
a1, . . . , aj ∈ S ⇐⇒ `(a1, . . . , aj) ⊆ S.
7. Teorema (conservaci´on de los subespacios en el proceso de ortogonalizaci´on de Gram–Schmidt). Sea V un espacio vectorial real o complejo con producto interno y sean a1, . . . , am ∈ V . Denotemos por b1, . . . , bm a los vectores obtenidos de a1, . . . , am al aplicar el m´etodo de ortogonalizaci´on de Gram-Schmidt:
bj = aj −
j−1
X
k=1
λj,kbk, (4)
λj,k =
hbk, aji
kbkk2 , bk 6= 0;
0, bk = 0.
(5)
Entonces para todo j ∈ {1, . . . , m} los vectores a1, . . . , aj generan al mismo subespacio que los vectores b1, . . . , bj:
`(a1, . . . , aj) = `(b1, . . . , bj).
Demostraci´on. 1. De la f´ormula (4) podemos expresar aj como una combinaci´on lineal de b1, . . . , bj:
aj =
j−1
X
k=1
λj,kbk+ bj. Esto implica que a1, . . . , aj ∈ `(b1, . . . , bj).
2. Demostremos por inducci´on sobre j la siguiente afirmaci´on P (j):
b1, . . . , bj ∈ `(a1, . . . , aj).
El caso j = 1 es trivial: b1 = a1 ∈ `(a1). Supongamos que la afirmaci´on P (j − 1) es v´alida, esto es, b1, . . . , bj−1 ∈ `(a1, . . . , aj−1). Entonces cada sumando escrito en el lado derecho de la f´ormula (4) pertenece al subespacio `(a1, . . . , aj) y, por lo tanto, bj ∈ `(a1, . . . , aj).
Acabamos de demostrar que P (j − 1) implica P (j).
3. Del resultado de la parte 1 de la demostraci´on se sigue que `(a1, . . . , aj) ⊆ `(b1, . . . , bj), y del resultado de la parte 2 se sigue que `(b1, . . . , bj) ⊆ `(a1, . . . , aj).
8. Corolario (ortogonalizaci´on de Gram–Schmidt y dependencias lineales). Sean a1, . . . , am una lista de vectores en V y b1, . . . , bm la lista obtenida de a1, . . . , am al aplicar la ortogonalizaci´on de Gram-Schmidt. Entonces para todo j ∈ {1, . . . , m} las siguientes condiciones son equivalentes:
a) aj ∈ `(a1, . . . , aj−1).
b) bj = 0.
Demostraci´on. (a)⇒(b). Supongamos que aj ∈ `(a1, . . . , aj−1). Entonces bj ∈ `(b1, . . . , bj) = `(a1, . . . , aj) = `(a1, . . . , aj−1) = `(b1, . . . , bj−1),
lo que significa que bj es una combinaci´on lineal de b1, . . . , bj−1. Como bj ⊥ {b1, . . . , bj−1}, los coeficientes de esta combinaci´on lineal son nulos y bj = 0.
(b)⇒(a). Supongamos que bj = 0. Entonces
aj ∈ `(a1, . . . , aj) = `(b1, . . . , bj) = `(b1, . . . , bj−1, 0)
= `(b1, . . . , bj−1) = `(a1, . . . , aj−1).
9. Corolario. En las notaciones del teorema, las siguientes dos condiciones son equiva- lentes:
(a) a1, . . . , am son linealmente independientes.
(b) todos los vectores b1, . . . , bm son no nulos.
10. Observaci´on. En muchos libros el proceso de ortogonalizaci´on de Gram–Schmidt se estudia solamente en el caso si los vectores originales a1, . . . , am son linealmente indepen- dientes. En este caso los vectores b1, . . . , bm son no nulos, y la f´ormula para los coeficientes λj,k se simplifica (se quita el caso bk = 0). El autor de estos apuntes (Egor Maximenko) agradece al profesor Vladimir Bor´ısovich Dybin por la explicaci´on del caso general.
11. Ejercicio. Ortogonalizar la siguiente lista de vectores en R4:
a1 =
2
−4 5 2
, a2 =
−6 5
−1
−6
, a3 =
−10 13
−4
−3
.
12. Ejercicio. Usando el proceso de Gram–Schmidt ortogonalice la siguiente lista de vectores en R4:
a1 =
4
−2
−1 2
, a2 =
−6 3 4
−8
, a3 =
5
−5
−3
−4
.
13. Ejercicio. Aplique la ortogonalizaci´on de Gram–Schmidt a la siguiente lista de vec- tores en R4:
a1 =
1 1 1
−1
, a2 =
5 3
−3
−3
, a3 =
1
−1
−7 1
, a4 =
−2 0 12 6
.
14. Tarea adicional. Consideramos el espacio de los polinomios P(R) con el producto interno
hf, gi :=
1
Z
−1
f (x) g(x) dx.
Aplique el proceso de Gram–Schmidt a los monomios e0(x) = 1, e1(x) = x, e2(x) = x2, e3(x) = x3.