• No se han encontrado resultados

Capitulo 9 Interpretaciones Geometricas

N/A
N/A
Protected

Academic year: 2021

Share "Capitulo 9 Interpretaciones Geometricas"

Copied!
20
0
0

Texto completo

(1)

Capítulo

9

INTERPRETACIONES

GEOMÉTRICAS

9.1. INTRODUCCIÓN.

En este capítulo se presenta el tema del Álgebra Lineal que mayor contribución tiene en el Análisis de Datos Multivariante como lo son las Interpretaciones Geométricas. Se exponen sus principales tópicos asociados como lo son la Representación Gráfica de los Vectores Filas y Columnas de una Matriz de Datos, Ángulo entre 2 vectores y Rectas y Planos en ℜn, y los Subespacios de Mejor Ajuste Mínimo Cuadrático, herramienta que justamente es la que permite la reducción de datos.

9.2. REPRESENTACIÓN GRÁFICA DE LOS VECTORES FILAS Y VECTORES COLUMNAS DE UNA MATRIZ DE DATOS.

Sea X∈Mnxp(ℜ) una matriz de datos. Dicha matriz tiene n vectores filas que puede representarse gráficamente como puntos en ℜp; estos puntos representan a los elementos. Igualmente tiene p vectores columnas que pueden representarse gráficamente como puntos en ℜn

; estos puntos representan a las variables. Si p = 1, 2, 3 es posible representar gráficamente a los elementos pero si p ≥ 4 esto resulta imposible. De la misma forma, si n = 1, 2, 3 es posible representar gráficamente a las variables pero si n ≥ 4 esto resulta imposible. De allí que es más factible representar gráficamente a los elementos de una matriz de datos que a las variables siempre y cuando se midan a lo sumo 3 variables.

Ejemplo Aplicado 9.1.

Consideremos la matriz de datos cuyas columnas son las 2 primeras columnas de la matriz de datos del ejemplo aplicado 1.3.:

⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = 09 13 10 12 13 15 19 17 14 08 12 10 11 12 X

En este caso se pueden representar gráficamente los 7 vectores filas (elementos) sobre ℜ2 (Figura 9.1.).

Figura 9.1.

El gráfico obtenido es un gráfico de dispersión. A primera vista se observan 3 grupos de elementos: {C, B}, {A, F, G} y {E, D}. Sin embargo, no se dispone de mayor información para caracterizar esos grupos. Para ello, consideremos la matriz de datos centrada:

⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − − − − − = 57 , 3 57 , 0 57 , 2 43 , 0 43 , 0 57 , 2 43 , 6 57 , 4 43 , 1 43 , 4 57 , 0 43 , 2 57 , 1 43 , 0 Xˆ

La representación gráfica de los 7 vectores filas (elementos) sobre ℜ2 se puede apreciar en la figura 9.2.:

Figura 9.2.

En este caso el punto (0,0) representa el punto de medias de las 2 columnas de

Xˆ , de manera que los 4 cuadrantes del gráfico anterior tienen características particulares:

(2)

316 Primer Cuadrante:

Son los alumnos cuyas notas en el 1er y 2do parcial están por encima de la media. En este caso, están los alumnos E y D.

Segundo Cuadrante:

Son los alumnos cuya nota en el primer parcial está por debajo de la media pero cuya nota en el segundo parcial está por encima de la media. En este caso, está solamente el alumno C.

Tercer Cuadrante:

Son los alumnos cuyas notas en el 1er y 2do parcial están por debajo de la media. En este caso, están los alumnos B, A y F.

Cuarto Cuadrante:

Son los alumnos cuya nota en el primer parcial está por encima de la media pero cuya nota en el segundo parcial está por debajo de la media. En este caso, está solamente el alumno G.

De esta manera se aprecian 4 grupos de elementos plenamente caracterizados. Otra forma de hacer este análisis es considerando la distancia euclídea entre elementos, digamos los elementos i-ésimo y s-ésimo:

d((Xi)t, (Xs)t) = ||(Xi)t – (Xs)t||

De hecho, es la forma más útil cuando se trata de matrices con 3 o más columnas. Por ejemplo, la distancia entre los elementos B y D es:

90 , 9 ) 19 12 ( ) 17 10 ( ) ) X ( , ) X (( d t 2 2 4 t 2 = − + − =

Se puede determinar la matriz simétrica de distancias entre elementos cuyo elemento genérico es:

Dij = d((Xi)t, (Xj)t) En este caso: ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = 00 , 0 41 , 1 47 , 4 77 , 10 07 , 7 24 , 4 24 , 2 41 , 1 00 , 0 24 , 4 30 , 10 66 , 5 83 , 2 00 , 1 47 , 4 24 , 4 00 , 0 32 , 6 07 , 7 10 , 5 61 , 3 77 , 10 30 , 10 32 , 6 00 , 0 30 , 10 90 , 9 43 , 9 07 , 7 66 , 5 07 , 7 30 , 10 00 , 0 83 , 2 00 , 5 24 , 4 83 , 2 10 , 5 90 , 9 83 , 2 00 , 0 24 , 2 24 , 2 00 , 1 61 , 3 43 , 9 00 , 5 24 , 2 00 , 0 D

Se puede observar claramente que los elementos más cercanos a A son F y B, los más cercanos a B son A y F, los más cercanos a C son B y A, los más

317

cercanos a D son E y A (aunque lejos), los más cercanos a E son A y F, los más cercanos a F son A y B y los más cercanos a G son F y A. Esto también permite construir grupos internamente homogéneos y externamente heterogéneos.

Sin embargo, en la práctica no es común encontrar matrices de datos con sólo 2 columnas. Si tuviesen 3 columnas aún es posible representar gráficamente los elementos pero todavía se torna complicado analizar los grupos de elementos que se originan. Si tuviesen 4 o más columnas entonces es imposible representar gráficamente los elementos. El objetivo fundamental de este capítulo es justamente resolver este problema a través del Álgebra Lineal. 9.3. ÁNGULO ENTRE 2 VECTORES, RECTAS Y PLANOS EN n. Teorema 9.1.

Sean X, Y∈ℜn. Entonces el ángulo φ entre los vectores X e Y es tal que:

Y X Y X ) ( Cos t = φ Demostración

Por el teorema 5.2., d2(X,Y)= X2+ Y2−2<X,Y>. Si X, Y∈ℜn entonces: Y X 2 Y X ) Y , X ( d2 = 2+ 2− t (1)

Gráficamente se puede apreciar en la figura 9.3.:

Figura 9.3. Por la ley del coseno se tiene que:

) ( Cos Y X 2 Y X ) Y , X ( d2 = 2+ 2 φ (2)

||X||

||Y||

d(X, Y)

φ

(3)

Igualando (1) y (2) se tiene que: ) ( Cos Y X 2 Y X Y X 2 Y X2+ 2 t = 2+ 2 φ 2X YCos(φ)=2XtY ⇒ X YCos(φ)=XtY ⇒ Y X Y X ) ( Cos t = φ Teorema 9.2.

Sea X∈Mnxp(ℜ) una matriz de datos. Entonces el coseno del ángulo φ entre los

vectores Xˆ y h Xˆ es: j hj r ) ( Cosφ =

Siendo rhj el coeficiente de correlación lineal de Pearson entre las variables

h-ésima y j-ésima. Demostración 1.

= = = − − = = n 1 i n 1 i hj j ij h ih ij ih j t h nS ) X X )( X X ( Xˆ Xˆ Xˆ ) Xˆ ( 2. h 2 h n 1 i 2 h ih n 1 i 2 ih h t h h S n nS ) X X ( ) Xˆ ( Xˆ ) Xˆ ( Xˆ = =

=

− = = = = 3. j 2 j n 1 i 2 j ij n 1 i 2 ij j t j j (Xˆ )Xˆ (Xˆ ) (X X) nS nS Xˆ = =

=

− = = = = Luego, hj j h hj j h hj r S S S S n S n nS ) ( Cosφ = = =

Es decir, el coseno del ángulo φ entre los vectores h

Xˆ y Xˆ coincide con el j coeficiente de correlación lineal de Pearson entre las variables h-ésima y j-ésima.

Definición 9.1.

Sean X, Y∈ℜn tales que X ≠ Y. Se define como recta que pasa por X e Y, y se

denota por LYX al conjunto:

LYX = {Z∈ℜn: Z = Y + c(X – Y); c∈ℜ}

El vector (X – Y) se dice que es el vector director de la recta LYX. Si Y = θnx1

entonces la recta LθX es una recta en ℜn que pasa por el origen θnx1. La figura

9.4., muestra una recta LθX en ℜ3.

Figura 9.4. Ejemplo 9.1.

Sean X, Y∈ℜ3 los vectores:

X = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − 2 2 1 , Y = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 3 0 1 En este caso, X – Y = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − 5 2 2 Luego, LYX = {Z∈ℜ3: Z = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 3 0 1 + c ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − 5 2 2 ; c∈ℜ} Ejemplo 9.2. Sea X∈ℜ3 el vector: X = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − 3 2 1 LθX

(4)

320

La recta que pasa por el origen θ3x1 y el vector X es:

LθX = {Z∈ℜ3: Z = c ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − 3 2 1 ; c∈ℜ} Teorema 9.3.

Sea X∈ℜn. Entonces la Recta L

θX es un subespacio de ℜn. Demostración

Por definición:

LθX = {Z∈ℜn: Z = cX; c∈ℜ}

Veamos que LθX es un subespacio de ℜn.

1. Es claro que si c = 0 entonces Z = 0X = θnx1. Luego, θnx1∈LθX.

2. Sean Z1, Z2∈L

θX. Luego, existen c1, c2∈ℜ tales que Z1 = c1X y

Z2 = c

2X. Luego, dZ1 + Z2 = d(c1X) + c2X, es decir,

dZ1 + Z2 = (dc

1 + c2)X; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈LθX.

Por consiguiente, LθX es un subespacio de ℜn.

Teorema 9.4.

Sean X, Y∈ℜn. Entonces la Proyección Ortogonal de Y sobre la Recta L θX es:

( )

X oy Pr YL Y LθX =ψ θX Siendo

( )

X X X Y t t Y LX = ψ θ la componente de proyección. Demostración

Por el teorema 9.3., LθX es un subespacio de ℜn. Es claro que V = ℜn es un espacio euclídeo con el producto interno usual <X,Y>=XtY, ∀ X, Y∈ℜn. Por definición de proyección ortogonal (definición 5.6.):

Y W oy Pr =

= > < p 1 j j j V V , Y

Siendo {V1, V2, …, Vp} una base ortonormal de W.

321

En este caso, W = LθX. Es claro que una base de LθX esta formada por un solo vector y es {X}. Por lo tanto, una base ortonormal de LθX es {V}, siendo V = X X = X X X t . Luego, V V Y, oy Pr LYθX=< > ⇒ ProyLYθX=(YtV)V ⇒ X X X )) X X X ( (Y oy Pr t t t Y LθX= ⇒ X X X X Y oy Pr 2 t t Y LX ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = θ ⇒ X X X X Y oy Pr t t Y LθX = ⇒ Proy

( )

Y X L Y LθX=ψ θX

En la figura 9.5., se puede apreciar gráficamente la proyección ortogonal de un vector Y sobre una recta LθX en ℜ3.

Figura 9.5.

Se aprecia claramente que YL Y LX) Proy X oy Pr Y ( − θθ . Observaciones:

1. Por el teorema 5.11., d2(Y, L

θX) = d2(Y, Y LX oy Pr θ ), es decir: d2(Y, L θX) = d2(Y, X X X X Y t t ) = (Y – X X X X Y t t )t(Y – X X X X Y t t ) Y LX oy Pr θ LθX Y Y−ProyLYθX

(5)

= (Yt – ( X X X X Y t t )t)(Y – X X X X Y t t ) = (Yt t t t X ) X X X Y ( )(Y – X X X X Y t t ) = YtY – Yt )X X X X Y ( t t – )XY X X X Y ( t t t + t t t X ) X X X Y ( X X X X Y t t = YtY – )YX X X X Y ( t t t – )YX X X X Y ( t t t + )XX X X X Y ) X X X Y ( t t t t t = YtY – 2 )YX X X X Y ( t t t + )YX X X X Y ( t t t = YtY – )YX X X X Y ( t t t = YtY – ) X X X X ( X Y ) X X X Y ( t t t t t = YtY – ) XX X X X Y ( 2 t t t = YtY – ( Y )2XtX LθX ψ 2. d2( Y LX oy Pr θ , θnx1) = ||ProyLYθX|| 2 = ( Y LX oy Pr θ )t Y LX oy Pr θ =

(

( )

X

) ( )

Y X L t Y LθX ψ θX ψ =

( )

Y 2XtX LθX ψ Ejemplo 9.3.

Consideremos la recta LθX del ejemplo 9.2.:

LθX = {Z∈ℜ3: Z = c ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − 3 2 1 ; c∈ℜ}

Calculemos la proyección ortogonal del vector Y = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 1 2 3 sobre la recta LθX: X ) ( oy Pr LY Y LθX= ψ θX La componente de proyección es:

[

]

[

]

14 2 3 2 1 3 2 1 3 2 1 1 2 3 X X X Y ) ( t t Y LX = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − = = ψ θ Luego, ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − = ψ = θ θ 7 3 7 2 7 1 3 2 1 14 2 X ) ( oy Pr LY Y LX X Además, d2(Y, LθX) = YtY – (ψL YθX)2XtX =

[

]

[

]

⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ − ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 3 2 1 3 2 1 14 2 1 2 3 1 2 3 2 = 14 196 4 14 ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ − = 7 2 14 = 7 96 Finalmente, 7 2 14 . 14 2 X X ) ( ) , oy (Pr d 2 t 2 Y L 1 x 3 Y L 2 X X ⎟ = ⎠ ⎞ ⎜ ⎝ ⎛ = ψ = θ θ θ Definición 9.2.

Sean X0, X1, X2, …, Xp∈ℜn vectores L.I. Se define como plano de dimensión p+1 en ℜn generado por los vectores X0, X1, X2, …, Xp y se denota por n

1 p P+ al conjunto:

= + = ∈ℜ = + ∈ℜ∀= p 1 j j j j 0 n n 1 p {Z :Z X BX;B , j 1,2,...,p} P

(6)

324

Si X0 = θnx1 entonces se dice que el plano pasa por el origen, es generado por los vectores L.I. X1, X2, …, Xp y se denota por P . Es claro que si Z∈pn

n 1 p P+ entonces Z es combinación lineal de los vectores X0, X1, X2, …, Xp. Por otro lado,

Si Z∈ n 1 p P+ entonces

= + = p 1 j j j 0 BX X Z , es decir:

[

]

⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = p 2 1 p 2 1 0 B B B 1 X X X X Z M L = XB Siendo X∈Mnx(p+1)(ℜ) = [X0 X1 X2 …. Xp] y B∈ℜp+1 = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ p 2 1 B B B 1 M De modo que: } B ), ( M X ; XB Z : Z { P p1 1) nx(p n n 1 p + + + = ∈ℜ = ∈ ℜ ∈ℜ En particular, si p = 1 entonces: 1 0X X 1 1 1 0 n n 1 1 {Z :Z X BX;B } L P+ = ∈ℜ = + ∈ℜ = Si además X0 = θ nx1 entonces: } B ), ( M X ; XB Z : Z { P p nxp n n p= ∈ℜ = ∈ ℜ ∈ℜ Para p = 1 entonces: 1 X 1 1 1 n n 1 {Z :Z BX;B } L P = ∈ℜ = ∈ℜ = θ

En la figura 9.6., se puede apreciar un plano 3 p P .

325 Figura 9.6. Ejemplo 9.4.

Sean X1, X2∈ℜ3 los vectores:

X1 = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − 2 2 1 , X2 = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 3 0 1

El plano de dimensión 2 en ℜ3 que pasa por el origen y es generado por los vectores X1 y X2 es: } B ; XB Z : Z { } B , B ; 3 0 1 B 2 2 1 B Z : Z { P 3 2 2 1 2 1 3 3 2 ∈ℜ = ∈ℜ = ∈ℜ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ + ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − = ℜ ∈ = Siendo: ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − = 3 2 0 2 1 1 X y ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ = 2 1 B B B Teorema 9.5.

Sean X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Entonces

el plano P que pasa por el origen y es generado por los vectores pn X1, X2, …, Xp es un subespacio de ℜn. Demostración Por definición: 3 p P X1 … X2 Xp

(7)

= = ∀ ℜ ∈ = ℜ ∈ = p 1 j j j j n n p {Z :Z BX;B , j 1,2,...,p} P Veamos que n p P es un subespacio de ℜn.

1. Es claro que si B1 = B2 = … = Bp = 0 entonces Z = θnx1. Luego, θnx1∈Ppn.

2. Sean Z1, Z2 n p

P . Luego, existen Bij∈ℜ; i = 1, 2; j = 1, 2, …, p tales

que

= = p 1 j j j 1 1 B X Z y

= = p 1 j j j 2 2 B X Z . Luego, dZ1 + Z2 =

= = + p 1 j j j 2 p 1 j j j 1X B X B d , es decir, dZ1 + Z2 =

= + p 1 j j j 2 j 1 B )X dB ( ; d∈ℜ. Por lo tanto, (dZ1 + Z2)∈ n p P . Por consiguiente, n p P es un subespacio de ℜn. Teorema 9.6.

Sean Y, X1, X2, …, Xp∈ℜn tales que los vectores X1, X2, …, Xp son L.I. Entonces la Proyección Ortogonal de Y sobre el plano n

p

P generado por los vectores X1, X2, …, Xp es: HY oy Pr YPn p = Siendo: 1. X = [X1 X2 Xp L ]

2. H=X(XtX)−1Xt. Esta matriz se denomina Matriz de Proyección. Demostración

Por el teorema 9.5., n p

P es un subespacio de ℜn. Es claro que V = ℜn es un espacio euclídeo con el producto interno usual <X,Y>=XtY, ∀ X, Y∈ℜn. Por definición de proyección ortogonal (definición 5.6.):

Y W oy Pr =

= > < p 1 j j j V V , Y

Siendo {V1, V2, …, Vp} una base ortonormal de W.

En este caso, W = n p

P . Es claro que como {X1, X2, …, Xp} es L.I., entonces es una base de Ppn. Por consiguiente, para determinar una base ortonormal aplicamos el proceso de ortonormalización de Gram-Schmidt sobre {X1, X2, …, Xp}. Así se obtienen los vectores V1, V2, …, Vp de modo que existen escalares Cji; i = 1, 2, …, p; j = 1, 2, …, p tales que:

= = p 1 i i ji j X C V Por lo tanto, Y Pn p oy Pr =

= = = > < p 1 j p 1 i i ji p 1 i i jiX ( C X)) C , Y ( Ahora bien, j p 1 i t i ji p 1 i i t ji p 1 i i ji p 1 i i jiX C Y,X C (YX) C (X)Y D C , Y >= < >= = = <

= = = = Luego, Y Ppn oy Pr =

∑ ∑

= = p 1 j p 1 i i ji j( C X)) D ( ⇒ Y Pn p oy Pr =

∑∑

= = p 1 j p 1 i i ji jC X D ⇒ Y Ppn oy Pr =

∑∑

= = p 1 i p 1 j i ji jC X D ⇒ Y Pn p oy Pr = [X1 X2 Xp L ] ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡

= = = p 1 j jp j p 1 j 2 j j p 1 j 1 j j C D C D C D M ⇒ Y Pn p oy Pr = [X1 X2 Xp L ] ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ p 2 1 pp p 2 p 1 2 p 22 12 1 p 21 11 D D D C C C C C C C C C M L M M M L L

(8)

328 ⇒ Y Pn p oy Pr = [X1 X2 Xp L ] ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡

= = = p 1 i t i pi p 1 i t i i 2 p 1 i t i i 1 pp p 2 p 1 2 p 22 12 1 p 21 11 Y ) X ( C Y ) X ( C Y ) X ( C C C C C C C C C C M L M M M L L ⇒ Y Pn p oy Pr = [X1 X2 L Xp] Y ) X ( C ) X ( C ) X ( C C C C C C C C C C p 1 i t i pi p 1 i t i i 2 p 1 i t i i 1 pp p 2 p 1 2 p 22 12 1 p 21 11 ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡

= = = M L M M M L L ⇒ Y Pn p oy Pr = [X1 X2 L Xp] Y ) X ( ) X ( ) X ( C C C C C C C C C C C C C C C C C C t p t 2 t 1 pp 2 p 1 p p 2 22 21 p 1 12 11 pp p 2 p 1 2 p 22 12 1 p 21 11 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ M L M M M L L L M M M L L ⇒ Y Ppn oy Pr = [ 1 2 p X X X L ] Y ) X ( ) X ( ) X ( C C C C C C C C C C C C C C C t p t 2 t 1 p 1 r 2 rp p 1 r 2 r rp p 1 r 1 r rp p 1 r rp 2 r p 1 r 2 2 r p 1 r 1 r 2 r p 1 r rp 1 r p 1 r 2 r 1 r p 1 r 2 1 r ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡

= = = = = = = = = M L M M M L L ⇒ Y Pn p oy Pr = XCXtY; siendo: ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ =

= = = = = = = = = p 1 r 2 rp p 1 r 2 r rp p 1 r 1 r rp p 1 r rp 2 r p 1 r 2 2 r p 1 r 1 r 2 r p 1 r rp 1 r p 1 r 2 r 1 r p 1 r 2 1 r C C C C C C C C C C C C C C C C L M M M L L

una matriz de orden pxp

Por otra parte,

n p Y P P oy Pr n p∈ ⇒ (Y – Y Pn p oy Pr ) ⊥ P pn ⇒ (Y – Y Pn p oy Pr ) ⊥ Xj; ∀ j = 1, 2, …, p (Ver figura 9.7. en ℜ3) 329 Figura 9.7. Luego, (Y – YPn p oy Pr )tXj = 0 ⇒ (Y – Y Pn p oy Pr )tXj = 0 ⇒ YtXj – ( Y Pn p oy Pr )tXj = 0 ⇒ YtXj = ( Y Pn p oy Pr )tXj Por lo tanto, [ t 1 t 2 t p X Y X Y X Y L ] = [ Y t p P 2 t Y P 1 t Y P )X (Proy )X (Proy )X oy (Pr n p n p n p L ] ⇒ Yt [X1 X2 L Xp] = (ProyPYn)t p [ p 2 1 X X X L ] ⇒ Yt X = (ProyPYn)t p X ⇒ (Yt X)t = ((ProyPYn)t p X) t ⇒ Xt Y = Xt YPn p oy Pr ⇒ XtY = XtXCXtY

Como X tiene sus p columnas L.I. entonces Rango(X) = p. En consecuencia, por el teorema 8.10., la matriz XtX es definida positiva y por lo tanto no

singular. Luego,

(XtX)-1XtY = CXtY

⇒ ((XtX)-1 – C)XtY = θ px1

Como XtY ≠ θ

px1 entonces (XtX)-1 – C = θpxp. Por consiguiente, C = (XtX)-1. De

esta forma: 3 p P X1 … X2 Xp Y P3 p oy Pr ) oy Pr Y ( Y P3 p − Y

(9)

Y Pn p oy Pr = XCXtY = X(XtX)-1XtY = HY Observaciones:

1. Por el teorema 5.11., d2(Y, n p P ) = d2(Y, Y Ppn oy Pr ), es decir: d2(Y, n p P ) = d2(Y, HY) = (Y – HY)t(Y – HY)

= ((In – H)Y)t(In – H)Y

= Yt(In – H)t(In – H)Y

= YtQtQY

Siendo Q = In – H. Las matrices Q y H son simétricas e

idempotentes (ver Ejercicio 23, Capítulo 1). Por lo tanto:

d2(Y, n p

P ) = YtQY

Es decir, el cuadrado de la distancia de un vector Y al plano n p

P es una forma cuadrática con matriz simétrica asociada Q, la cual por ser simétrica e idempotente de orden nxn y de rango n – p es semidefinida positiva.

En particular, si los p vectores columnas que generan el plano n p

P forman una base ortonormal de ℜn entonces

( )

XjtXj= , 1

∀ j = 1, 2, …, p y XtX = I p. Luego, Q = In – H = In – XXt y

( )

t j j t j j t Y L YX X X X Y j X = = ψ θ . En consecuencia: d2(Y, n p P ) = YtQY = Yt(I n – XXt)Y = YtY – YtXXtY = YY Y X(X)Y n 1 i t i i t t

= − = YYY Y X(X) n 1 j t j j t t

= − =

= − n 1 j t j j t t Y ) X ( X Y Y Y = )YY (YX)((X)Y n 1 j t j j t t

= − = )YY (YX)(YX n 1 j j t j t t

= − =

= − n 1 j 2 j t tY (YX) Y =

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ − θ n 1 j 2 Y L t j X Y Y 2. d2( Y Pn p oy Pr , θnx1) = ( YPn p oy Pr )t Y Pn p oy Pr = (HY)t(HY) = YtHtHY =

YtHY. Es decir, el cuadrado de la longitud de la proyección ortogonal de Y sobre el plano n

p

P es una forma cuadrática con matriz simétrica asociada H, la cual por ser simétrica e idempotente de orden nxn y de rango p es semidefinida positiva.

3. Si los vectores X1, X2, …, Xp forman una base ortonormal de ℜn entonces XtX = I p. Luego, H = XXt y Q = Ip – XXt. En consecuencia: 3.1. Y Pn p oy Pr = HY = XXtY. 3.2. d2(Y, n p P ) = Yt(I p – XXt)Y. 3.3. d2( Y Pn p oy Pr , θnx1) = YtXXtY. Ejemplo 9.5. Consideremos el plano 3 2 P del ejemplo 9.3.: } B , B ; 3 0 1 B 2 2 1 B Z : Z { P 1 2 1 2 3 3 2 ∈ℜ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ + ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − = ℜ ∈ =

Calculemos la proyección ortogonal del vector Y = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 1 2 3 sobre el plano 3 2 P : En este caso, ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − = 3 2 0 2 1 1 X Luego, ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ − − = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − ⎥ ⎦ ⎤ ⎢ ⎣ ⎡− − = 10 7 7 9 3 2 0 2 1 1 3 0 1 2 2 1 X Xt

(10)

332 Se puede determinar que:

⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ = − 41 9 41 7 41 7 41 10 ) X X ( t 1

La matriz de proyección es:

t 1 tX) X X ( X H= − ⇒ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − = ⎥ ⎦ ⎤ ⎢ ⎣ ⎡− − ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ − − = 41 37 41 2 41 12 41 2 41 40 41 6 41 12 41 6 41 5 3 0 1 2 2 1 41 9 41 7 41 7 41 10 3 2 0 2 1 1 H Por lo tanto, ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − = = 41 7741 6441 15 1 2 3 41 37 41 2 41 12 41 2 41 40 41 6 41 12 41 6 41 5 HY ow Pr Y P23

Por otra parte,

⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − = ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ = − = 41 4 41 2 41 12 41 2 41 1 41 6 41 12 41 6 41 36 41 37 41 2 41 12 41 2 41 40 41 6 41 12 41 6 41 5 1 0 0 0 1 0 0 0 1 H I Q 3 En consecuencia, d2(Y, 3 2 P ) =

[

3 2 1

]

⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − 41 4 41 2 41 12 41 2 41 1 41 6 41 12 41 6 41 36 ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 1 2 3 = 41 324 Finalmente, d2( YP3 2 oy Pr , θ3x1) = YtHY =

[

]

41 250 41 7741 6441 15 1 2 3 = ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ 333

9.4. SUBESPACIOS DE MEJOR AJUSTE MÍNIMO CUADRÁTICO. Definición 9.3.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Se define como subespacio de mejor

ajuste mínimo cuadrático de dimensión q (q < p) al conjunto de vectores filas de X y se denota por SMA(X)q al plano generado por vectores ortonormales

V1, V2, …, Vq que verifica que

= n 1 i q i 2 ) ) X ( SMA , X ( d es mínima. Observaciones: 1. Como d (X,SMA(X) ) d (X,Proy i ) q X ) X ( SMA i 2 q i 2 = entonces el

subespacio de mejor ajuste mínimo cuadrático SMA(X)q es aquel que verifica que

= n 1 i X ) X ( SMA i 2(X,Proy ) d i q es mínima.

2. Si X es una matriz de datos entonces independientemente del valor de p es posible representar los vectores filas (elementos) de X sobre un plano de dimensión q (q = 1, 2, 3).

Teorema 9.7.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que: 1

) X (

SMA = LθV1

Siendo V1 el autovector normalizado de la matriz XtX asociado con su mayor

autovalor.

Demostración

Por definición, el subespacio de mejor ajuste mínimo cuadrático SMA(X)1 es

el plano de dimensión 1 generado por un vector normalizado V1 con la

condición (V1)tV1 = 1 que verifica que

= n 1 i 1 i 2 ) ) X ( SMA , X ( d es mínima. Es claro que SMA(X)1 es la recta LθV1 (ver figura 9.8., en ℜ

3

(11)

Figura 9.8. Ahora bien, ) oy Pr , X ( d ) L , X ( d ) ) X ( SMA , X ( d i 1 V 1 X L i 2 V i 2 1 i 2 θ = = θ

Por la observación 1 del teorema 9.4.:

( )

1t 1 2 X L i t i X L i 2 V V X ) X ( ) oy Pr , X ( d i 1 V i 1 V ⎟⎠ ⎞ ⎜ ⎝ ⎛ψ − = θ θ Pero

( )

V1tV1= . Luego, 1 2 X L i t i X L i 2 i 1 V i 1 V X ) X ( ) oy Pr , X ( d = −⎜⎛ψ ⎟⎞ θ θ ⇒

= θ n 1 i X L i 2 ) oy Pr , X ( d i 1 V =

= n 1 i i t i)X X ( –

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X L i 1 V El término

= n 1 i i t i)X X

( es constante. Por lo tanto, minimizar

= θ n 1 i X L i 2(X,Proy ) d i 1 V equivale a maximizar

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X L i 1 V

, expresión que puede escribirse de la siguiente manera:

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X LiV1 =

( )

= ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ n 1 i 2 t 1 1 t i V ) V ( V X =

(

( )

)

= n 1 i 2 1 t i V X =

(

( )

)

(

( )

)

= n 1 i 1 t i 1 t i V X V X 1 1 V X L oy Pr θ 1 V Lθ X1 d(X1,LθV1) X2 2 1 V X L oy Pr θ Xn n 1 V X L oy Pr θ ) L , X ( d 2 θV1 … ) L , X ( d n θV1 =

(

)

(

( )

)

= n 1 i 1 t i i t 1)X X V V ( = 1 n 1 i t i i t 1) X(X) V V ( ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛

= =

[

]

( )

( )

( )

1 t n t 2 t 1 n 2 1 t 1 V X X X X X X ) V ( ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ M L = (V1)tXtXV1 Es decir,

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X

LiV1 es una forma cuadrática con matriz simétrica asociada

XtX. Por lo tanto, el subespacio de mejor ajuste mínimo cuadrático de

dimensión 1 es la recta LθV1 que maximiza la forma cuadrática (V

1)tXtXV1

con la restricción (V1)tV1 = 1. Para hallar el vector V1 utilizaremos el método

de los multiplicadores de Lagrange: Definimos las funciones:

f(V1) = (V1)tXtXV1 y g(V1) = (V1)tV1 – 1

La expresión (V1)tV1 es una forma cuadrática con matriz simétrica asociada I p. Luego, ) V ( g ) V ( f 1 =λ∇ 1 ∇ ⇒ 2XXV (2IpV1) 1 t =λ ⇒ t 1 1 V 2 XV X 2 = λ ⇒ XtXV1=λV1 ⇒ t 1 1 V XV X =λ

Por lo tanto, el multiplicador de Lagrange λ es autovalor de la matriz Xt

X con autovector asociado V1. Además, si premultiplicamos a ambos lados de la

igualdad anterior por (V1)t se obtiene que:

λ = λ = λ = 1t 1 1 t 1 1 t t 1)XXV (V)( V) (V)V V ( ⇒ f(V1) = λ

Es decir, maximizar f(V1) sujeto a (V1)tV1 = 1 equivale a maximizar λ, siendo

éste último autovalor de XtX con autovector asociado V1. En consecuencia, el

vector V1 es el autovector normalizado asociado al mayor autovalor de la

(12)

336 Observación:

Las filas de X en lugar de representarse en ℜp se pueden representar en el

subespacio de ajuste mínimo cuadrático Pp(X)

1 = LθV1 a través de su

proyección ortogonal sobre dicha recta, específicamente a través de su componente de proyección, la cual toma la siguiente forma:

( )

( )

( )

t 1 i 1 t i 1 t 1 1 t i X L X V 1 V X V ) V ( V X i 1 V = = = ψ θ =

[

]

( )

( )

( )

⎥⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ p 1 2 1 1 1 ip 2 i 1 i V V V X X X M L =

( )

= p 1 j j 1 ijV X

Es decir, la componente de proyección de la i-ésima fila de X sobre la recta de mejor ajuste mínimo cuadrático es una combinación lineal de las mediciones de las p variables sobre el i-ésimo elemento. De tal forma que el coeficiente

( )

j

1

V mide la contribución de la j-ésima variable en la componente. Esto permite caracterizar intervalos de la recta de mejor ajuste mínimo cuadrático para así caracterizar los grupos de elementos de X cuyas componentes de proyección se encuentran en dichos intervalos.

Para obtener el vector de componentes de proyección se hace lo siguiente:

1 1 t n t 2 t 1 1 t n 1 t 2 1 t 1 X L X L X L X L V XV ) X ( ) X ( ) X ( V ) X ( V ) X ( V ) X ( n 1 V 2 1 V 1 1 V 1 V = ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ψ ψ ψ = ψ θ θ θ θ M M M Ejemplo Aplicado 9.2.

En el período II-2004 se le consultó a un grupo de once (11) alumnos del curso de Algebra Lineal II su apreciación acerca del nivel de dificultad de las cuatro (4) materias del 4º semestre de la EECA, es decir, Algebra Lineal II, Matemática IV, Introducción a la Economía y Teoría de la Probabilidad II. Para cada respuesta se adoptó la siguiente escala:

1: Nivel de dificultad alto. 0: Nivel de dificultad medio. -1: Nivel de dificultad bajo.

Los resultados de la consulta se muestran a continuación:

337 Alumno Algebra Lineal II Matemática IV Introducción a la Economía Teoría de la Probabilidad II A 1 -1 -1 1 B 1 0 -1 0 C 1 0 -1 1 D 1 -1 -1 1 E 0 0 -1 1 F 1 0 0 0 G 1 0 -1 1 H 1 0 -1 1 I 1 1 -1 1 J 1 -1 0 0 K 1 0 0 1 Determinemos SMA(X)1.

En este caso, la matriz de datos es:

⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − − − − − − − − = 1 0 0 1 0 0 1 1 1 1 1 1 1 1 0 1 1 1 0 1 0 0 0 1 1 1 0 0 1 1 1 1 1 1 0 1 0 1 0 1 1 1 1 1 X

Se puede verificar que:

⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − − − − − = 8 7 1 7 7 8 1 7 1 1 4 2 7 7 2 10 X Xt

Igualmente se puede constatar que los autovalores y autovectores ortonormalizados de la matriz XtX son:

23 1= λ , λ2=4, 2λ3= y λ4=1 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − = 5518 , 0 5518 , 0 1226 , 0 6131 , 0 V1 , ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − = 2294 , 0 2294 , 0 9177 , 0 2294 , 0 V2 , ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − = 3780 , 0 3780 , 0 3780 , 0 7559 , 0 V3 y ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = 7071 , 0 7071 , 0 0 0 V4

(13)

Luego, 1 ) X ( SMA = LθV1 = {Z∈ℜ 4: Z = c ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − 5518 , 0 5518 , 0 1226 , 0 6131 , 0 ; c∈ℜ} Por lo tanto, = ψ θ i 1 V X L 0,6131Xi1 – 0,1226Xi2 – 0,5518Xi3 + 0,5518Xi4 Analicemos la estructura de esta componente:

1. Las mayores contribuciones a i 1 V X Lθ ψ son 0,6131 y 0,5518, las cuales se corresponden con las materias Álgebra Lineal II y Teoría de la Probabilidad II.

2. Se puede apreciar que i 1 V X Lθ ψ es máxima cuando Xi1 = 1, Xi2 = –1, Xi3 = –1 y Xi4 = 1, mientras que es mínima cuando Xi1 = –1, Xi2 = 1, Xi3 = 1 y Xi4 = –1. Los valores máximo y mínimo son 1,8893 y –1,8893, respectivamente.

3. El valor intermedio es 0, el cual se obtiene cuando Xij = 0, ∀ j = 1, 2, 3, 4.

4. Componentes de proyección tendientes a 1,8893 indicarán que son alumnos que perciben que Álgebra Lineal II y Teoría de la Probabilidad II tienen un alto nivel de dificultad (principalmente Álgebra Lineal II) y Matemática IV e Introducción a la Economía tienen un nivel de dificultad bajo (principalmente Introducción a la Economía).

5. Componentes de proyección tendientes a –1,8893 indicarán que son alumnos que perciben que Álgebra Lineal II y Teoría de la Probabilidad II tienen un bajo nivel de dificultad (principalmente Álgebra Lineal II) y Matemática IV e Introducción a la Economía tienen un nivel de dificultad alto (principalmente Introducción a la Economía).

6. Componentes de proyección tendientes a 0 indicarán que son alumnos que perciben que todas las materias tienen un nivel de dificultad medio.

7. Si un alumno percibe a las 4 materias con alto nivel de dificultad, es decir, Xij = 1, ∀ j = 1, 2, 3, 4 entonces su componente de proyección es de 0,4905,

8. Si un alumno percibe a las 4 materias con bajo nivel de dificultad, es decir, Xij = –1, ∀ j = 1, 2, 3, 4 entonces su componente de proyección es de –0,4905.

Calculemos las componentes para cada uno de los alumnos:

1 X LV1 =XV ψ θ = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − − − − − − − − 1 0 0 1 0 0 1 1 1 1 1 1 1 1 0 1 1 1 0 1 0 0 0 1 1 1 0 0 1 1 1 1 1 1 0 1 0 1 0 1 1 1 1 1 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − 5518 , 0 5518 , 0 1226 , 0 6131 , 0 = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ 1649 , 1 7357 , 0 5941 , 1 7167 , 1 7167 , 1 6131 , 0 1036 , 1 8393 , 1 7167 , 1 1649 , 1 8393 , 1

El gráfico de dichas componentes sobre la recta de mejor ajuste mínimo cuadrático se puede apreciar en la figura 9.9.

Figura 9.9.

Se puede apreciar que todas las componentes son positivas. El mínimo valor encontrado es de 0,6131. Esto indica que prácticamente todos los alumnos consideran que la materia Álgebra Lineal II tiene un nivel de dificultad alto. Asimismo se aprecia que 2 alumnos (A y D) tienen los valores máximos de las componentes; esto es porque consideran que Álgebra Lineal II y Teoría de la Probabilidad II tienen un alto nivel de dificultad y Matemática IV e Introducción a la Economía tienen un nivel de dificultad bajo. Pero también se observan a los alumnos E, B y K los cuales se encuentran hacia el centro de las componentes de todos los alumnos. Estos 3 alumnos tienden a considerar a Álgebra Lineal II como de alto nivel de dificultad y combinaciones de los 3 niveles con respecto a las otras 3 materias. Finalmente, en la figura 9.10., se pueden distinguir 3 grupos de alumnos internamente homogéneos y externamente heterogéneos.

Figura 9.10. Teorema 9.8.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que:

2 ) X ( SMA = p 2 P

(14)

340 Siendo P2p el plano de dimensión 2 en ℜ

p generado por los vectores V1 y V2, autovectores ortonormalizados de la matriz XtX asociados con sus 2 mayores autovalores.

Demostración

Por definición el subespacio de mejor ajuste mínimo cuadrático SMA(X)2 es el plano de dimensión 2 generado por 2 vectores ortonormalizados V1 y V2 ((V1)tV1 = 1, (V2)tV2 = 1 y (V1)tV2 = 0) que verifica que

= n 1 i X ) X ( SMA i 2(X,Proy ) d i

2 es mínima, es decir, es el plano p 2

P generado por los

vectores V1 y V2 que verifica que

= n 1 i X P i 2(X,Proy ) d i p 2

es mínima (ver figura 9.11., en ℜ3).

Figura 9.11.

El vector V1 necesariamente debe ser el vector director de la recta de mejor ajuste mínimo cuadrático SMA(X)1, ya que de lo contrario existiría otro plano de dimensión 2 mejor. El objetivo es determinar el vector V2.

Ahora bien, ) oy Pr , X ( d ) P , X ( d ) ) X ( SMA , X ( d i p 2 X P i 2 p 2 i 2 2 i 2 = =

Como V1 y V2 forman una base ortonormal de ℜp entonces por la observación 1 del teorema 9.6., se tiene que:

2 X L 2 X L i t i X P i 2 i 2 V i 1 V i p 2 X ) X ( ) oy Pr , X ( d ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ − ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ − = θ θ ⇒

= θ n 1 i X L i 2(X,Proy ) d i 1 V =

= n 1 i i t i)X X ( –

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X L i 1 V –

= ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ψ θ n 1 i 2 X L i 2 V

De forma análoga al teorema anterior se deduce que:

1 3 2 X P oy Pr 3 2 P X1 d(X,P) 3 2 1 X2 2 3 2 X P oy Pr Xn n 3 2 X P oy Pr d(X,P3) 2 2 … ) P , X ( d 3 2 n 341

= θ n 1 i X L i 2(X,Proy ) d i 1 V =

= n 1 i i t i)X X ( –

( )

V1tXtXV1

( )

V2tXtXV2

= θ n 1 i X L i 2(X,Proy ) d i 1 V =

= n 1 i i t i)X X ( – λ1 –

( )

2 t t 2 XV X V

Donde λ1 es el mayor autovalor de XtX y el término

= n 1 i i t i)X X ( es constante.

Por lo tanto, minimizar

= θ n 1 i X L i 2(X,Proy ) d i 1 V

equivale a maximizar la forma cuadrática (V2)tXtXV2 con las restricciones (V2)tV2 = 1 y (V2)tV1 = 0. Para hallar el vector V2 utilizaremos el método de los multiplicadores de Lagrange: Definimos las funciones:

f(V2) = (V2)tXtXV2, g(V2) = (V2)tV2 – 1 y h(V2) = (V2)tV1 La expresión (V2)tV2 es una forma cuadrática con matriz simétrica asociada I

p y (V2)tV1 es una función lineal en V2.

Luego, ) V ( h ) V ( g ) V ( f 2 1 2 2 2 =λ +μ ∇ ⇒ 1 1 2 p 2 2 tXV (2IV) V X 2 =λ +μ ⇒ 1 1 2 2 2 tXV 2 V V X 2 = λ +μ ⇒

( )

( )

( )

( )

( )

( )

1 1 t 2 2 2 t 2 2 t t 2 1 1 t 1 2 2 t 1 2 t t 1 V V V 2 V XV X 2 V V V V 2 V XV X 2 V μ + λ = μ + λ = ⇒

( )

( )

( )

( )

( )

( )

2t 1 1 2 t 2 2 2 t t 2 1 t 1 1 2 t 1 2 2 t t 1 V V V V 2 XV X V 2 V V V V 2 XV X V 2 μ + λ = μ + λ = ⇒

( )

( )

V XXV 2 .1 .0 2 1 . 0 . 2 XV X V 2 1 2 2 t t 2 1 2 2 t t 1 μ + λ = μ + λ = ⇒

( )

( )

2 2 t t 2 1 2 t t 1 XV X V XV X V 2 λ = μ =

Ahora bien, V1 es autovector de XtX con autovalor asociado λ

1, es decir, XtXV1 = λ 1V1. Por lo tanto: (XtXV1)t = (λ 1V1)t ⇒ (V1 )tXtX = λ1(V1)t En consecuencia,

( )

2 2 t t 2 1 2 t 1 1 XV X V V ) V ( 2 λ = μ = λ ⇒

( )

2 2 t t 2 1 1 XV X V 0 . 2 λ = μ = λ ⇒

( )

2 2 t t 2 1 XV X V 0 λ = = μ

(15)

Por consiguiente, 1 1 2 2 2 tXV 2 V V X 2 = λ +μ ⇒ 2 1 2 2 tXV 2 V 0.V X 2 = λ + ⇒ px1 2 2 2 tXV 2 V X 2 = λ +θ ⇒ 2 2 2 tXV 2 V X 2 = λ ⇒ 2 2 2 tXV V X =λ

Es decir, maximizar f(V2) = (V2)tXtXV2 sujeto a (V2)tV2 = 1 y (V2)tV1 = 0

equivale a maximizar λ2 que a su vez es autovalor de XtX con autovector

asociado V2. En consecuencia, el vector V2 es el autovector normalizado

asociado al segundo mayor autovalor de la matriz XtX. Teorema 9.9.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Entonces se cumple que: q ) X ( SMA = p q P Siendo p q

P el plano de dimensión q en ℜp generado por los vectores

V1, V2, …, Vq autovectores ortonormalizados de la matriz XtX asociados con

sus q mayores autovalores.

Demostración

Este teorema es una extensión de los teoremas 9.7., y 9.8., de forma tal que su demostración es análoga a las demostraciones de estos teoremas.

Ejemplo Aplicado 9.3.

En relación al ejemplo aplicado 9.2., determinemos SMA(X)2.

Como 23λ1= y λ2=4 entonces: 2 ) X ( SMA = 4 2 P = {Z∈ℜ4: Z = B 1 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − 5518 , 0 5518 , 0 1226 , 0 6131 , 0 +B2 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − 2294 , 0 2294 , 0 9177 , 0 2294 , 0 ; B1, B2∈ℜ}

Anteriormente observamos la forma de i 1 V

X Lθ

ψ . Veamos ahora la forma de

i 2 V X Lθ ψ : = ψ θ i 2 V X L –0,2294Xi1 + 0,9177Xi2 – 0,2294Xi3 + 0,2294Xi4

Analicemos la estructura de esta componente:

1. La mayor contribución a i 2 V X Lθ

ψ es 0,9177, la cual corresponde con la materia Matemática IV.

2. Se puede apreciar que i 2 V X Lθ ψ es máxima cuando Xi1 = –1, Xi2 = 1,

Xi3 = –1 y Xi4 = 1, mientras que es mínima cuando Xi1 = 1, Xi2 = –1,

Xi3 = 1 y Xi4 = –1. Los valores máximo y mínimo son 1,6059 y

–1,6059, respectivamente.

3. El valor intermedio es 0, el cual se obtiene cuando Xij = 0, ∀ j = 1,

2, 3, 4.

4. Componentes de proyección tendientes a 1,6059 indicarán que son alumnos que perciben que Álgebra Lineal II e Introducción a la Economía tienen un bajo nivel de dificultad y Matemática IV y Teoría de la Probabilidad II tienen un nivel de dificultad alto (principalmente Matemática IV).

5. Componentes de proyección tendientes a –1,6059 indicarán que son alumnos que perciben que Álgebra Lineal II e Introducción a la Economía tienen un alto nivel de dificultad y Matemática IV y Teoría de la Probabilidad II tienen un nivel de dificultad bajo (principalmente Matemática IV).

6. Componentes de proyección tendientes a 0 indicarán que son alumnos que perciben que todas las materias tienen un nivel de dificultad medio.

7. Si un alumno percibe a las 4 materias con alto nivel de dificultad, es decir, Xij = 1, ∀ j = 1, 2, 3, 4 entonces su componente de

proyección es de 0,6883,

8. Si un alumno percibe a las 4 materias con bajo nivel de dificultad, es decir, Xij = –1, ∀ j = 1, 2, 3, 4 entonces su componente de

proyección es de –0,6883.

Calculemos las componentes para cada uno de los alumnos:

2 X LV2 =XV ψ θ = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − − − − − − − − 1 0 0 1 0 0 1 1 1 1 1 1 1 1 0 1 1 1 0 1 0 0 0 1 1 1 0 0 1 1 1 1 1 1 0 1 0 1 0 1 1 1 1 1 ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − 2294 , 0 2294 , 0 9177 , 0 2294 , 0 = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ − − − − 0000 , 0 1471 , 1 1471 , 1 2294 , 0 2294 , 0 2294 , 0 4588 , 0 6883 , 0 2294 , 0 0000 , 0 6883 , 1

El gráfico de las componentes sobre el subespacio de mejor ajuste mínimo cuadrático de dimensión 2 se puede apreciar en la figura 9.12.

(16)

344

Figura 9.12.

Se puede observar que el gráfico se divide en 2 cuadrantes; el I y el IV. En el I cuadrante se encuentran los alumnos cuyas componentes son positivas con respecto a V1 y V2, es decir, los alumnos que en general opinan que Álgebra

Lineal II, Matemática IV y Teoría de la Probabilidad II son materias con alto nivel de dificultad. En el IV cuadrante se encuentran los alumnos cuyas componentes son positivas con respecto a V1 y negativas con respecto a V2, es

decir, los alumnos que en general opinan que Álgebra Lineal II y Teoría de la Probabilidad II son materias con alto nivel de dificultad pero Matemática IV tiene bajo nivel de dificultad. De esta forma se pueden obtener con mayor precisión grupos de alumnos internamente homogéneos y externamente heterogéneos (figura 9.13.).

Figura 9.13. Teorema 9.10.

Sean X∈Mnxp(ℜ) tal que Rango(X) = r, V∈Mpxr(ℜ) y U∈Mnxr(ℜ). Si V y U

son las matrices cuyas columnas son los autovectores ortonormalizados de las matrices XtX y XXt, respectivamente, asociados con los autovalores comunes no nulos entonces: t V ) A ( UD X= λ 345

Siendo Dλ(A)∈Mrxr(ℜ) la matriz diagonal definida por:

(

)

⎪⎩ ⎪ ⎨ ⎧ ≠ = λ = λ j i si 0 j i si ) A ( D i ij

Donde λ1, λ2, …, λr son los autovalores comunes no nulos de XtX y XXt. Demostración

Por el teorema 7.23., se sabe que:

= λ = r 1 i t i i iU(V) X ⇒

[

]

( )

( )

( )

⎥⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ λ λ λ = t r t 2 t 1 r r 2 2 1 1 V V V U U U X M L ⇒

[

]

( )

( )

( )

⎥⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ λ λ λ = t r t 2 t 1 r 2 1 r 2 1 V V V 0 0 0 0 0 0 U U U X M L M M M L L L ⇒ X UD (A)Vt λ = Definición 9.4.

Sea X∈Mnxp(ℜ) tal que Rango(X) = p. Se define como matriz aproximada de X por el subespacio de mejor ajuste mínimo cuadrático de dimensión q

q ) X (

SMA y se denota por Xq ~

a la matriz X~q∈Mnxp(ℜ) definida por:

t q UD (A)V X~ = λ

Siendo V∈Mpxq(ℜ) y U∈Mnxq(ℜ) las matrices cuyas columnas son los autovectores ortonormalizados de las matrices XtX y XXt, respectivamente, asociados con los q mayores autovalores comunes de ambas matrices. Definición 9.5.

Sea X∈Mnxp(ℜ). Se define como Norma de Frobenius de X y se denota por F

X al escalar siguiente:

F

(17)

Observación:

Por el teorema 7.13. (lema de Schur), si λ1, λ2, …, λp son los autovalores comunes no nulos de XtX entonces Traza(XtX) =

= λ p 1 i i. Luego, F

X

=

= λ p 1 i i Definición 9.6.

Sea X∈Mnxp(ℜ). Se define como Medida de la Bondad del Ajuste del Subespacio de Mejor Ajuste Mínimo Cuadrático de dimensión q a las filas de X y se denota por BSMA(X)q a:

( )

2 F 2 F q q X X~ ) X ( BSMA ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = .100% Teorema 9.11.

Sean X∈Mnxp(ℜ) y λ1, λ2, …, λp∈ℜ. Si λ1, λ2, …, λp son los autovalores de la matriz XtX tales que λ

1 ≥ λ2 ≥ … ≥ λp entonces:

= = λ λ = p 1 i i q 1 i i q ) X ( BSMA .100% Demostración Por definición:

( )

2 F 2 F q q X X~ ) X ( BSMA ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = .100%

También por definición:

1.

= λ = = ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ q 1 i i q t q 2 q t q 2 F q X ) ~ ) X~ (( Traza ) X~ ) X~ (( Traza X~ . 2.

( )

= λ = = ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = p 1 i i t 2 t 2 F Traza(XX) Traza(XX) X . En consecuencia,

= = λ λ = p 1 i i q 1 i i q ) X ( BSMA .100% Ejemplo Aplicado 9.4.

En relación a los ejemplos aplicados 9.2., y 9.3., se tiene que:

1 2 4 23 23 ) X ( BSMA 1= + + + .100% = 76,67% y 1 2 4 23 4 23 ) X ( BSMA 2 + + + + = .100% = 90,00%

Se aprecia que el subespacio de mejor ajuste mínimo cuadrático de dimensión 1 tiene una bondad de la aproximación del 76,67%, medida que es relativamente alta y bastante buena para ser 1 dimensión. Sin embargo, el subespacio de mejor ajuste mínimo cuadrático de dimensión 2 tiene una bondad de la aproximación del 90%, medida que es excelente por lo cual resulta el subespacio de mejor ajuste mínimo cuadrático idóneo para analizar el comportamiento de los vectores filas de X (elementos).

(18)

348 EJERCICIOS PROPUESTOS.

1. A continuación se muestra una matriz de datos X∈M10x3(ℜ) que contiene información de las notas definitivas obtenidas por diez (10) alumnos de primer semestre de la escuela en Matemática I, Estadística I y Computación I en un determinado semestre:

Alumno Matemática I Estadística I Computación I

A 10 12 14 B 12 14 15 C 6 10 12 D 6 8 10 E 8 10 12 F 7 5 10 G 12 10 12 H 11 14 16 I 13 18 19 J 5 9 10

1.1. Represente gráficamente los puntos fila de la matriz de datos anterior sobre ℜ3

. Ubique también el punto fila de las medias aritméticas de las 3 materias.

1.2. Construya la matriz de datos centrada asociada a la matriz de datos. Represente gráficamente sobre ℜ3 los nuevos puntos obtenidos.

1.3. Compare las representaciones gráficas de los 2 apartados anteriores.

2. Sean X∈Mnxp(ℜ) una matriz de datos. Demuestre que:

2.1. La matriz V = XˆtXˆ tiene la siguiente forma:

⎪ ⎩ ⎪ ⎨ ⎧ ≠ β = = j i si ) ( Cos Xˆ Xˆ j i si Xˆ V ij j i 2 j ij

2.2. La matriz R = DtVD es la matriz de correlaciones asociada a la matriz de datos X, siendo la matriz D∈Mpxp la matriz diagonal definida por:

D = ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ p 2 1 Xˆ 1 0 0 0 Xˆ 1 0 0 0 Xˆ 1 L M M M L L 349

3. Para la matriz X del ejercicio 1, halle la correspondiente matriz R e interprete sus componentes.

4. Sea X∈Mnxp(ℜ) una matriz de datos. Consideremos 2 puntos filas de

dicha matriz, digamos el i-ésimo y el h-ésimo, es decir: (Xi)t = [ Xi1 Xi2 … Xip] y (Xh)t = [Xh1 Xh2 … Xhp]. Justifique la

distancia euclídea para dar una medida del parecido entre estos 2 puntos. Luego seleccione aleatoriamente 3 pares distintos de puntos filas; manteniendo siempre 1 punto fila común en cada par, de la matriz de datos del ejercicio 1 y analice el parecido entre los puntos de cada par y compare los análisis realizados con los 3 pares de puntos. 5. Sean X, Y∈ℜn tales que (1

n)tX = (1n)tY = 0 y además X = Y =1. Demuestre que:

5.1. Si φ1 es el ángulo entre X e Y entonces Cos(φ1) = rXY. 5.2. Si se define el vector Z = X – Cos(φ1)Y y φ2 es el ángulo entre

Z e Y entonces Cos(φ2) = 0.

5.3. A partir de lo obtenido en el apartado anterior, ¿podría asegurarse que las variables Z e Y están incorrelacionadas? 6. Sean Y∈ℜn, X∈M

nxp(ℜ) una matriz de rango columna completo cuyas columnas generan el plano n

p

P . La proyección ortogonal de Y sobre n

p

P induce la siguiente partición del vector Y: Y = Y Pn p oy Pr + E, siendo E = Y – YPn p oy Pr . Demuestre que 2 2 t YPn p oy Pr Y E Y = + . 7. Sean Y∈ℜn y n

Lθ1 la recta en ℜn definida por:

n Lθ1 = {Z∈ℜn: Z = c1 , c∈ℜ} n Demuestre que: 7.1. Y L n oy Pr θ1 = Y1n.

7.2. Si φ es el ángulo entre Y e ProyYLθ1n entonces:

= = φ n 1 i 2 i 2 Y Y n ) ( Cos . 7.3. d2(Y, n Lθ1 ) = nS . 2Y

8. En relación al ejercicio 1 tome las notas de 3 alumnos en las materias Matemática I y Estadística I. Llame a estos 2 vectores columnas X e Y.

(19)

8.1. Determine la mejor representación en el sentido de mínima distancia del vector X sobre la recta Lθ13 en ℜ3.

8.2. Determine el coseno del ángulo entre los vectores Xˆ y Yˆ . 9. Sean X, Y∈ℜn y n

2

P el plano de dimensión 2 en ℜn que contiene al origen definido por:

n 2 P = {Z∈ℜn: Z = B 11n+ B2X, B1, B2 ∈ℜ} Demuestre que: Y P2n oy Pr = a1n+bX Siendo: 2 n 1 i i n 1 i 2 i n 1 i n 1 i i i n 1 i i 2 i n 1 i i X X n Y X X X Y a ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − − =

= = = = = = y 2 n 1 i i n 1 i 2 i n 1 i i n 1 i i n 1 i i i X X n Y X Y X n b ⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ − − =

= = = = = Observación: Note que Y Pn 2 oy

Pr define la ecuación de regresión lineal estimada por el método de los mínimos cuadrados de Y en función de X.

10. En relación al ejercicio 1 tome las notas de los alumnos en las materias Matemática I y Estadística I. Llame a estos 2 vectores columnas X e Y.

10.1. Describa el plano 10 2

P que contiene el origen y está generado por 110 y X.

10.2. Determine la Proyección Ortogonal del vector Y sobre el plano anterior. ¿Qué representa este vector?

10.3. Determine la distancia del vector Y al plano dado. 11. Sean X∈M3x2(ℜ), Y∈ℜ3 y P el plano de dimensión 2 en ℜ23

3 que contiene al origen definido por las columnas de X, siendo X:

⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ = 1 0 2 0 0 1 X

11.1. Describa la ecuación del plano P23.

11.2. Determine la Proyección Ortogonal del vector Y = ⎥ ⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎢ ⎣ ⎡ 3 2 1 sobre el plano anterior.

11.3. Determine la distancia del vector Y al plano anterior. 12. Sean Y∈ℜn y X∈M

nx2(ℜ) tal que X1 y X2 son ortogonales.

12.1. Describa el plano P que contiene el origen y está generado 2n por X1 y X2. 12.2. Demuestre que: 2 2 t 2 t 2 1 1 t 1 t 1 Y P (X)X X Y ) X ( X X ) X ( Y ) X ( oy Pr n 2 = + 12.3. Demuestre que: d(Y, n 2 P ) = 2 t 2 2 t 2 1 t 1 2 t 1 t X ) X ( ) Y ) X (( X ) X ( ) Y ) X (( Y Y − −

13. Se le consultó a un grupo de once (11) personas su apreciación acerca de tres (3) programas de televisión del canal Venevisión: “Cásate y Verás”, “Que Locura” y “Sábado Sensacional”. Para cada respuesta se adoptó la siguiente escala:

1: “Le gusta el programa y lo ve con regularidad”. 0: “Es indiferente al programa y lo ve casualmente”. -1: “No le gusta el programa y nunca lo ve”.

Los resultados de la consulta se muestran a continuación:

Individuo Cásate y Verás Que Locura Sábado Sensacional

I1 1 0 0 I2 0 1 0 I3 1 0 -1 I4 0 1 0 I5 1 0 0 I6 0 1 1 I7 0 1 0 I8 0 0 0 I9 0 0 1 I10 1 0 1 I11 0 1 1

13.1. Si se desea tener una medida de la bondad de la aproximación de por lo menos 60%, determine el sub-espacio de mejor ajuste a las filas de la matriz de datos anterior.

13.2. Interprete la estructura general de la(s) componente(s) de proyección.

(20)

352

13.3. Calcule y grafique las componentes de proyección ortogonal de las filas de la matriz de datos sobre el sub-espacio de ℜ3 generado en el apartado 13.1. Realice e interprete el gráfico.

14. Se le consultó a un grupo de diez (10) personas si les gusta o no hacer las siguientes actividades: “Ir al Cine”, “Ir a la Playa”, “Pasear en Centros Comerciales.” y “Rumbear”. Para ello se utilizó la siguiente escala: 1: Si les gusta y 0: No les gusta. A continuación se muestran los resultados:

Persona Ir al Cine Ir a la Playa Pasear en C.C. Rumbear

A 1 1 0 0 B 0 0 1 1 C 1 1 0 1 D 1 1 0 0 E 0 1 0 0 F 0 0 0 1 G 0 1 0 0 H 1 1 1 1 I 0 1 0 0 J 1 0 1 0

14.1. Determine el sub-espacio de ajuste mínimo cuadrático a las filas de la matriz de datos anterior que Ud. mejor considere para este caso. Justifique su respuesta.

14.2. Interprete la estructura general de la(s) componente(s) de proyección.

14.3. Calcule y grafique las componentes de proyección de las filas de la matriz de datos sobre el sub-espacio de ℜ4 generado en el apartado 16.1. Interprete el gráfico.

Referencias

Documento similar

La réceptivité associée à une transition source est généralement une réceptivité sur front (sinon l’étape suivante est activée en permanence). Les règles de

En funcionamiento CaC – Ciclo a Ciclo, el sistema debe realizar los movimientos contemplados en el DIAGRAMA ESPACIO – FASE una sola vez, ya que en este modo de operación se hace

El sistema no siempre garantiza que una pieza sea depositada debajo de cada una de las estaciones de proceso (taladrado y escariado) después de cada movimiento de

Si la máquina esta en posición inicial (S2 + S5) es decir con el carro transportador arriba y a la izquierda y S1 detecta que ha llegado pieza desde la CINTA1 se pone

El accionamiento del programa se deberá hacer por medio de dos pulsadores (NO) y por medio de dos botones en la pantalla , la activación de la salida (motor) deberá

 Configurar las entradas en el Fluid SimP, haciendo doble click sobre el bloque Entradas.. (las entradas START- STOP) se conectan a un bloque “FluidSIM

El CC o CX3 deben quedar interrumpido (termina el ciclo actual y se detiene en posición inicial) por la acción de conmutar a CU (solicitud de parada a fin de Ciclo) o mediante

Protocolo de descubrimiento automático habilitado Servidor Modbus habilitado. Protocolo