• No se han encontrado resultados

Funciones multilineales y determinantes

N/A
N/A
Protected

Academic year: 2021

Share "Funciones multilineales y determinantes"

Copied!
11
0
0

Texto completo

(1)

CAP´ıTULO 9

Funciones multilineales y determinantes

En este cap´ıtulo generalizamos el concepto de transformaci´on lineal, permitiendo que en el dominio de la funci´on hayan varias variables.

1. Definiciones generales

Definici´on 9.1. Sean V1, . . . , Vn, W espacios vectoriales y b : V1 × · · · ×Vn W una funci´on. Decimos que b es multilneal si, fijando todas las variables menos la variable i-´esima, la funci´on Vi W que se obtiene es lineal. Por ejemplo, si fijamos todas las variables menos la primera, obtenemos que la funci´on v Ãb(v, v0

2, . . . , v0n) : V1 W es

una transformaci´on lineal – estamos considerando v0

2, . . . , v0n fijos.

Llamamos Mult(V1, . . . , Vn;W) al conjunto de todas las transformaciones multilinea-les con dominio enV1, . . . , Vny codominioW. En el caso en que el codominio es el cuerpo de base, i.e., si W =k, decimos que b :V1× · · · ×Vn→k es una forma multilineal.

Observaci´on 9.2. (1) Por ejemplo, si n = 2 entonces las condiciones para que b

Mult(V1, V2;W) son las siguientes:b(αv+βv0, w) =αb(v, w)+αb(v0, w) ;b(v, γw+δw0) =

γb(v, w) +δb(v, w0) para todo α, β, γ, δk y v, v0 V

1 y w, w0 ∈V2. Si compactificamos

ambas f´ormulas en una sola tenemos:

b(αv+βv0, γw+δw0) = αγb(v, w) +αδb(v, w0) +βγb(v0, w) +βδb(v0, w0).

(2) De la misma manera que se prueba que si V y W son espacios vectoriales, entonces Hom(V, W) es un espacio vectorial con las operaciones realizadas punto a punto, se puede probar que Mult(V1, . . . , Vn;W) es un espacio vectorial con las operaciones realizadas punto a punto.

Definici´on 9.3. (1) Una transformaci´on multilineal b Mult(V, . . . , V;W) se dice sim´etrica si cuando se intercambian dos vectores de posici´on el resultado es el mismo. O sea si para todo 1 ≤i < j≤n, se tiene que

b(v1, . . . , vi−1,vi, vi+1, . . . , vj−1, vj, vj+1, . . . , vn) =

b(v1, . . . , vi−1, vj, vi+1, . . . , vj−1, vi, vj+1, . . . , vn).

Llamamos Sim(V, . . . , V;W) al conjunto de todas las transformaciones multilineales sim´etricas. Si W =kdenotamos Sim(V, . . . , V;k) = Simn(V).

(2) Una trasnformaci´on multilineal b Mult(V,. . . , V;W), se dice antisim´etrica o alter-nada si cuando se intercambian dos vectores de posici´on el resultado es opuesto. O sea si para todo 1≤i < j ≤n, se tiene que

b(v1, . . . , vi, . . . , vj, . . . , vn) = −b(v1, . . . , vj, . . . , vi, . . . , vn).

Llamamos Alt(V, . . . , V;W) al conjunto de todas las transformaciones lineales alter-nadas. Si W =k denotamos Alt(V, . . . , V;k) = Altn(V).

(2)

Observaci´on 9.4. (1) Es f´acil ver que Sim(V, . . . , V;W) Mult(V, . . . , V;W) y Alt(V, . . . , V;W)Mult(V, . . . , V;W), son subespacios. En particular, Simn(V) y Altn(V) son espacios vectoriales de un modo natural.

(2) Es claro que si b es una funci´on multilineal alternada, como

b(v1, . . . , v, . . . , v, . . . , vn) = −b(v1, . . . , v, . . . , v, . . . , vn)

deducimos que b(v1, . . . , v, . . . , v, . . . , vn) = 0. Tambi´en se prueba el rec´ıproco de la si-guiente forma. Si para todo b(v1, . . . , v, . . . , v, . . . , vn) = 0, obtenemos

0 =b(v1, . . . , v+w, . . . , v+w, . . . , vn) =b(v1, . . . , v, . . . , v, . . . , vn)+

b(v1, . . . , v, . . . , w, . . . , vn) +b(v1, . . . , w, . . . , v, . . . , vn)+ b(v1, . . . , w, . . . , w, . . . , vn),

de donde deducimos que b(v1, . . . , v, . . . , w, . . . , vn) = −b(v1, . . . , w, . . . , v, . . . , vn). 2. Formas bilineales, matrices asociadas

Consideremos el caso particular en que tenemos formas bilineales. Se usa la notaci´on Bil(V, W) para indicar Mult(V ×V, W;k).

Ejemplo 9.5. (1) SeaA∈Mn×muna matriz arbitraria. Definimos una forma bilineal BLA: kkm k de la siguiente forma: BLA(v, w) =vtAw donde vt indica el vector fila obtenido transponiendo el vector columna v. De esta forma construimos una funci´on BL :Mn×m Bil(kn,km). Es f´acil ver que BLA es una forma bilineal y que la funci´on BL :Mn×m Bil(kn,km) es una transformaci´on lineal.

(2) Procediendo en forma semejante a como se procedi´o en el caso de transformaciones lineales se puede probar que BL es un isomorfismo.

Definici´on9.6. SeanV yW espacios vectoriales de dimensi´on finita y{e1, . . . , en}= B ⊂ V y {f1, . . . , fm}=C ⊂ W respectivas bases. La matriz

¡

b(ei, fj)

¢

1≤i≤n

1≤j≤m ∈Mn×m se llama la matriz asociada a la forma bilineal b en las bases B y C. Esa matriz se denota como B[b]C.

Lema 9.7. La matriz asociada a una borma bilineal b en las bases B y C verifica: b(v, w) = cB(v)tB[b]CcC(w).

Demostraci´on. Si escribimosv =Pni=1αiei y w=

Pm j=1βjfj tenemos que b(v, w) = X i,j αiβjb(ei, fj) = X i,j (α1, . . . , αn)b(ei, fj)   β1 ... βm  =cB(v)t B[b]CcC(w). ¤ Otra forma de interpretar la proposici´on anterior es la siguiente.

Lema 9.8. Sean V y W espacios vectoriales de dimensi´on finita y sean B ⊂ V,

(3)

3. DETERMINANTES 73

entonces el diagrama de abajo es conmutativo.

V ×W b // ccC ²² k kn×km BLB[b]C 66 n n n n n n n n n n n n n n

Demostraci´on. Es claro que el enunciado de este lema es una reformulaci´on del

lema anterior. ¤

Observaci´on 9.9. (1) En caso de que b sea bilineal b:V ×V ky B ⊂V es una base de V, tenemos que b∈Sim2(V) si y s´olo si B[b]C es una matriz sim´etrica.

Anal´oga-mente, b Alt2(V) si y s´olo si B[b]C es una matriz antisim´etrica. Esta demostraci´on

queda como ejercicio para el lector.

(2) En particular usando que una matriz arbitraria cuadrada se descompone en una ma-triz sim´etrica y una antisim´etrica, se puede probar que una forma bilineal se descompone como una sim´etrica y otra alternada. Esta demostraci´on queda como ejercicio para el lector.

Corolario9.10. (1) SiV yW son espacios vectoriales de dimensi´ondyd0, entonces dim Bil(V, W) =dd0.

(2) Si V es un espacio vectorial de dimensi´on d, entonces dim Bil(V) =d2.

3. Determinantes Sea A = µ a b c d

una matriz cuadrada dos por dos. Se define el determinante de la matriz A como det(A) = ad −bc. Podemos interpretar det : k2 × k2 k como

funci´on de las dos columnas de la matriz. En ese caso se puede probar directamente que det Alt2(k2). Esto nos lleva a considerar el espacio siguiente donde consideramos a

“todos los determinantes”.

Definici´on 9.11. Sea V un espacio vectorial de dimensi´on n. Los elementos de Altn(V) se llaman determinantes en V.

Ya hemos observado que sid yd0 son determinantes enV entoncesd+d0 es un deter-minante y tambi´en αd es un determinante siα k, en otras palabras, los determinantes forman un espacio vectorial.

Observaci´on 9.12. Si d es un determinante en k2 y {e

1, e2} es la base can´onica

tenemos que si v =αe1+βe2 y w=γe1+δe2 entonces

d(v, w) = d(αe1+βe2, γe1+δe2) =αγd(e1, e1) +αδd(e1, e2) +βγd(e2, e1) +βδd(e2, e2).

Comodes alternada, concluimos qued(e1, e1) =d(e2, e2) = 0 y adem´as qued(e1, e2) = −d(e2, e1). Entoncesd(v, w) = (αδ−βγ)d(e1, e2). Esto muestra la ´ıntima relaci´on entre

las funciones que m´as arriba llamamos determinantes y el determinante de una matriz (tal cual est´a definido usualmente).

Definici´on 9.13. Sea V un espacio vectorial de dimensi´onn; se considera la trans-formaci´on lineal ∆ : Altn(V)k definida de la siguiente forma: ∆(d) =d(e1, . . . , en).

(4)

A continuaci´on estudiaremos al mapa ∆. Nuestro prop´osito es probar que ∆ es un isomorfismo (eso lleva su tiempo).

A continuaci´on realizaremos un c´alculo que resultar´a ´util en varias ocasiones.

Observaci´on 9.14. Sea V un espacio vectorial de dimensi´on n y {e1, . . . , en} una

base. Si v1, . . . , vn V son n vectores de V, queremos calcular d(v1, . . . , vn). Para ello escribimos vi = P jiαijieji y d(v1, . . . , vn) =d( X j1 α1j1ej1, . . . , X jn αnjnejn) = X j1,...,jn α1j1. . . αnjnd(ej1, . . . , ejn)

A priori, el conjunto {j1, . . . , jn} puede tener elementos repetidos; si los tuviera, como d es alternada tenemos que d(ej1, . . . , ejn) = 0. Consecuentemente, en la expresi´on

anterior solo “sobreviven” los t´erminos que tienen los sub´ındices {j1, . . . , jn} diferentes,

o sea si {j1, . . . , jn} es una permutaci´on del conjunto {1, . . . , n}.

Luego, si consideramos σ ∈ Sn, σ(i) = ji para i= 1, . . . , n, tenemos que d(v1, . . . , vn) =d( X j1 α1j1ej1, . . . , X jn αnjnejn) = X σ∈Sn α1σ(1). . . αnσ(n)d(eσ(1), . . . , eσ(n))

Por otro lado, al ser {σ(1), . . . , σ(n)} una reordenaci´on de los elementos {1, . . . , n}, tenemos que

d(eσ(1), . . . , eσ(n)) =±d(e1, . . . , en). (3.1)

El n´umero ± que aparece en la expresi´on anterior lo calcularemos m´as adelante. d(v1, . . . , vn) = ¡ X σ∈Sn ±α1σ(1). . . αnσ(n) ¢ d(e1, . . . , en) (3.2)

Lema 9.15. SiV es un espacio vectorial de dimensi´onn, la funci´on∆ : Altn(V)k

es inyectiva (ver la Definici´on 9.13).

Demostraci´on. Si d Altn(V) es tal que ∆(d) = 0, aplicando los resultados de la Observaci´on 9.14 concluimos que d(v1, . . . , vn) =

¡P σ∈Sn±α1σ(1). . . αnσ(n) ¢ ∆(d) = 0. Deducimos que d(v1, . . . , vn) = 0. ¤ 4. Permutaciones

En la construcci´on de los determinantes el conjunto Sn juega un papel relevante, queremos estudiarlo m´as en detalle.

Observaci´on 9.16. (1) Sn [n][n] es un conjunto con n! elementos.

(2) Si σ : [n][n] es una funci´on biyectiva, entonces, σ−1 : [n][n] (la funci´on inversa

de σ) es tambi´en una funci´on bijectiva, o sea que si σ ∈ Sn entonces σ−1 ∈ Sn. Es claro tambi´en que la funci´on identidad 1n = Id : [n] [n] es una permutaci´on. Si σ, τ ∈ Sn

(5)

4. PERMUTACIONES 75

son permutaciones tambi´en lo esσ◦τ – muchas veces omitimos el s´ımboloy escribimos simplemente στ. Tambi´en a menudo omitiremos el sub´ındice en 1n y escribimos 1∈ Sn. De esta forma, hemos probado que el conjunto de todas las permutaciones de n elementos forman un grupo.

(3) Las permutaciones se escriben frecuentemente de la siguiente forma σ =

µ

1 2 . . . n σ(1) σ(2) . . . σ(n)

(4) Por ejemplo, el grupo S3 tiene seis elementos que son:

1 = µ 1 2 3 1 2 3 ¶ σ = µ 1 2 3 2 1 3 ¶ τ = µ 1 2 3 3 2 1 ¶ ν = µ 1 2 3 1 3 2 ¶ ντ = µ 1 2 3 2 3 1 ¶ τ ν = µ 1 2 3 3 1 2 ¶

Definici´on 9.17. Una transposici´on es una permutaci´on σ ∈ Sn con la siguiente propiedad: existen 1 ≤i6=j ≤n tales que σ(i) =j , σ(j) =i , σ(k) =k , para todok 6= i, j.

Observaci´on 9.18. Observar que si τ es una transposici´on, entonces τ2 = 1, o sea

que τ =τ−1.

En el ejemplo deS3 presentado m´as arriba,σ, τ, ν son transposiciones. EnS2 la ´unica

permutaci´on diferente de 1 es una transposici´on.

En el caso de S3 se observa que toda permutaci´on es producto de transposiciones.

Por ejemplo, la identidad 1 = σ2. Por otro lado esta descomposici´on no es ´unica pues

por ejemplo: 1 = σ2 =τ2. El teorema que sigue que no demostraremos, d´a informaci´on

sobre este tipo de descomposiciones.

Teorema9.19. Siσ ∈ Snes una permutaci´on, existen transposicionesτ1, . . . , τl ∈ Sn tales que σ = τ1τ2· · ·τl. Adem´as, si tenemos otra descomposici´on de la forma σ = ν1ν2· · ·νs con νi transposici´on para i= 1, . . . , s, entonces s−l es un n´umero par.

El teorema anterior garantiza que toda permutaci´on se escribe como producto de transposiciones, de forma no necesariamente ´unica, y que en dos descomposiciones dife-rentes de la misma permutaci´on, la diferencia de las longitudes de ambas descomposicio-nes es un n´umero par.

Por ejemplo, no ser´ıa posible descomponer, σ de dos formas diferentes, σ=τ1τ2τ3 =

ν1ν2 donde τ1, τ2, τ3, ν1, ν2 son transposiciones.

Definici´on 9.20. Si σ ∈ Sn es una permutaci´on y σ =τ1τ2. . . τl, se define el signo de σ como ε(σ) = (−1)l.

Observaci´on 9.21. (1) El Teorema 9.19 nos garantiza que la definici´on anterior es correcta, o sea que ε(σ) no depende de la descomposici´on elegida de σ en t´erminos de transposiciones.

(2) Si consideramos ε como una funci´on, tenemos que ε: Sn → {−1,1}. Es claro que el conjunto {−1,1} es un grupo con la operaci´on de producto. Con esa estructura ε es un homomorfismo de grupos, es decir que ε(στ) =ε(σ)ε(τ).

(6)

5. Unicidad de los determinantes. Determinantes de matrices Comenzamos calculando el signo ± que aparece en la ecuaci´on (3.2).

Lema 9.22. De acuerdo con las notaciones de la ecuaci´on (3.1) tenemos que d¡(1), . . . , eσ(n)

¢

=ε(σ)d(e1, . . . , en)

Demostraci´on. Escribimos σ = τ1. . . τl donde τi, i = 1, . . . , l son transposicio-nes. Si abreviamos σ0 = τ

1. . . τl−1 tenemos que σ = σ0τl. Luego, d

¡ (1), . . . , eσ(n) ¢ = d¡eσ0τl(1), . . . , eσ0τl(n) ¢ =−d¡eσ0(1), . . . , eσ0(n) ¢

. La ´ultima igualdad se deduce del hecho de que d es alternada. Hemos visto que al reducir σ = τ1. . . τl a σ0 = τ1. . . τl−1 el signo se

cambia una vez. Si seguimos con ese procedimiento, y eliminamos todos los t´erminos del producto σ =τ1. . . τl uno por uno, realizaremos en la expresi´on de d, (−1)l cambios de

signo. En definitiva, concluimos que d¡(1), . . . , eσ(n)

¢

=ε(σ)d(e1, . . . , en). ¤

Definici´on9.23. Dada una matriz,A∈Mndefinimos su determinante por la f´ormu-la det(A) = Pσ∈Snε(σ)α1σ(1). . . αnσ(n).

Podemos interpretar la igualdad de la ecuaci´on (3.2) como

d(v1, . . . , vn) = det(A)d(e1, . . . , en) (5.1) La funci´on det : Mn k la podemos pensar tambi´en como una funci´on det : k

· · · × kn k. Si B = {e

1, . . . , en}, la f´ormula anterior (5.1) se puede escribir de la siguiente manera: d(v1, . . . , vn) = det ¡ cB(v1), . . . ,cB(vn) ¢ d(e1, . . . , en) (5.2) Hemos probado que el diagrama de abajo conmuta.

V × · · · ×V cB×···×cB ²² d // k kn× · · · ×kn d(e1,...,en) det 55 l l l l l l l l l l l l l l l l

Teorema 9.24. La funci´ondet : (kn)n =kn× · · · ×knk es una forma multilineal alternada.

Demostraci´on. Queremos probar que det es multilineal y alternada. Si

c1 =     a11 a21 ... an1    , . . . , cn=     a1n a2n ... ann    kn, entonces det(c1, . . . , cn) = P σ∈Snε(σ)a1σ(1). . . anσ(n). Si i < j, entonces det(c1, . . . , cj, . . . , ci, . . . , cn) = X σ∈Sn ε(σ)a1σ(1). . . aiσ(j). . . ajσ(i). . . anσ(n) = X σ∈Sn ε(σ)a1στ(1). . . aiστ(i). . . ajστ(j). . . anστ(n),

(7)

6. DETERMINANTES DE TRANSFORMACIONES LINEALES 77

donde τ es la transposici´on que intercambia i con j y deja el resto de los elementos del conjunto [n] fijos. Si hacemos en la sumatoria el cambio de variables ν = στ tenemos que det(c1, . . . , cj, . . . , ci, . . . , cn) = X ν∈Sn ε(ντ)a1ν(1). . . aiν(i). . . ajν(j). . . anν(n) = X ν∈Sn ε(ν)a1ν(1). . . aiν(i). . . ajν(j). . . anν(n) = det(c1, . . . , ci, . . . , cj, . . . , cn).

En la prueba anterior hemos usado que ε(ντ) =ε(ν)ε(τ) = −ε(ν). ¤

Observaci´on 9.25. Es claro que si probamos que det :kn×· · ·×kn kAlt n(kn), del diagrama anterior se concluye inmediatamente que

d(v1, . . . , vn) = det(cB(v1), . . . ,cB(vn))Altn(V).

Teorema 9.26. Sea V un espacio vectorial de dimensi´on n y sea B = {e1, . . . , en} una base fija.

(1) Sea d el elemento de Altn(V) definido por la f´ormula d(v1, . . . , vn) = det

¡

cB(v1), . . . ,cB(vn)

¢

. Si ∆ : Altn(V)k es como antes, entonces ∆(d) = 1. (2) El espacio Altn(V) tiene dimensi´on uno.

Demostraci´on. (1) ∆(d) = d(e1, . . . , en) = det(f1, . . . , fn), donde {f1, . . . , fn} es

la base can´onica de kn. Las entradas de la matriz correspondiente a la base can´onica son δij,1 i, j n, donde δij = 0 si i 6= j y δii = 1. Calculando expl´ıcitamente: det(f1, . . . , fn) =

P

σ∈Snε(σ)δ1σ(1). . . δiσ(i). . . δnσ(n). En la suma anterior, el ´unico

su-mando que no es cero es el que corresponde a σ(1) = 1, . . . , σ(i) = i, . . . , σ(n) =n; o sea el que corresponde a σ = 1. En definitiva tenemos que

det(f1, . . . , fn) =

X

σ∈Sn

ε(σ)δ1σ(1). . . δiσ(i). . . δnσ(n)=ε(1)δ11. . . δii. . . δnn = 1. (2) Hemos probado que la transformaci´on lineal ∆ no es nula; luego dim Altn(V)6= 0. Por otro lado, deducimos del Lemma 9.15 que dim Altn(V)1, luego dim Altn(V) = 1. ¤

Corolario 9.27. Si V es un espacio de dimensi´on n y B = {e1, . . . , en} es una base dada, existe una y s´olo una funci´on n-lineal alternada d definida en V tal que d(e1, . . . , en) = 1.

6. Determinantes de transformaciones lineales

En esta secci´on definimos el determinante de una transformaci´on lineal de un espacio en s´ı mismo.

Lema 9.28. Sea V un espacio vectorial y T : V V una transformaci´on lineal. Si d Altn(V)y definimos dT :V × · · · ×V k por la siguiente f´ormula: dT(v1, . . . , vn) =

d¡T(v1), . . . , T(vn)

¢

(8)

Demostraci´on. Es claro que dT(v1, . . . , vn) =d ¡ T(v1), . . . , T(vn) ¢ es multilineal y alternada si d lo es. ¤

Definici´on 9.29. Si V es un espacio vectorial y T : V →V es una transformaci´on lineal, se define T] : AltnAltn por la f´ormula T](d) = dT.

Observaci´on 9.30. (1) Es f´acil verificar queT]: Alt

n Altn es una transformaci´on lineal.

(2) (T S)]=S]T]. Efectivamente, comoT](d) = d(T×· · ·×T), tenemos que (T S)](d) = d◦(T S× · · · ×T S) = T](d)(S× · · · ×S) = (S]T])(d).

(3) Id]= IdAltn(V).

(4) (aT)] =anT].

Observaci´on 9.31. En la situaci´on anterior, es claro que siT, S :W →W entonces, aT S = aTaS. Efectivamente, T S(w) = T(aSw) = aST(w) = aSaTw. Como adem´as T S(w) =aT Sw, deducimos nuestro resultado.

Definici´on 9.32. Sea V un espacio vectorial de dimensi´on n y T : V V una transformaci´on lineal. Se define det(T) k como el ´unico escalar que verifica que para todo d∈Altn(V), T](d) = det(T)d.

Observaci´on 9.33. (1) La definici´on anterior tiene sentido porque Altn(V) tiene dimensi´on uno. En efecto, recordar que si W es un espacio vectorial de dimensi´on uno y T : W W es una transformaci´on lineal, entonces existe aT k tal que para todo w∈W, T(w) =aTw.

(2) En otras palabras, det(T) es el ´unico escalar que verifica que para todo d∈Altn(V) se tiene que dT = det(T)d.

Lema 9.34. (1) Si T, S : V V son dos transformaciones lineales, entonces det(T S) = det(T) det(S).

(2) det(IdV) = 1.

(3) Si T es invertible, entonces det(T)6= 0 y det(T1) = 1/det(T).

(4) det(aT) = andet(T).

Demostraci´on. (1) Esta propiedad se deduce inmediatamente de la Observaci´on 9.31.

(2) dIdV =d.

(3) SiT es invertible, tenemos queT−1T = Id, de donde deducimos que det(T1) det(T) =

1.

(4) Como (aT)] =anT] concluimos el resultado deseado.

¤ A continuaci´on relacionamos el determinante de una transformaci´on lineal con el determinante de su matriz asociada.

Lema 9.35. Sea A∈Mn y consideremos LA:kn kn. En esa situaci´on det(LA) = det(A).

(9)

7. C ´ALCULOS DE DETERMINANTES, MENORES 79

Demostraci´on. Consideremos detAltn(kn). Entonces det(LA) verifica la siguien-te igualdad:L]A(det) = det(LA) det. Si evaluamos el lado izquierdo de la igualdad anterior en la matriz identidad tenemos que L]A(det)(e1, . . . , en) = det(Ae1, . . . , Aen) = det(A). Si evaluamos el lado derecho tenemos: det(LA) det(e1, . . . , en) = det(LA). De esa forma

concluimos que det(LA) = det(A). ¤

Corolario 9.36. Si V es un espacio vectorial de dimensi´on n con base B, entonces det(T) = det(B[T]B).

Demostraci´on. Llamemos A = B[T]B. Es claro que si d Altn(V) es tal que d(e1, . . . , en) = 1 entonces el diagrama de abajo conmuta.

V × · · · ×V ccB ²² T×···×T // V × · · · ×V cB×···×cB ²² d // k kn× · · · ×kn LA×···×LA // kn× · · · ×kn d(e1,...,en) det 55 l l l l l l l l l l l l l l l l

Usando las definiciones de determinante de T y deLAel diagrama anterior puede ser sustituido por el que sigue

V × · · · ×V cB×···×cB ²² det(T)d // k kn× · · · ×kn det(LA) det 55 l l l l l l l l l l l l l l l l

En otras palabras: det(T)d = det(LA) det(cB × · · · ×cB), y como tambi´en sabemos qued= det(cB×· · ·×cB), concluimos que det(T) = det(LA) = det(A) = det(B[T]B). ¤

Corolario 9.37. Si A, B Mn entonces, det(AB) = det(A) det(B).

Demostraci´on. Como LAB = LALB, deducimos que det(AB) = det(LAB) =

det(LALB) = det(LA) det(LB) = det(A) det(B). ¤

7. C´alculos de determinantes, menores En esta secci´on nos concentraremos en determinantes de matrices.

Lema 9.38. Si A∈Mn entonces det(A) = det(At).

Demostraci´on. Queremos probar que si A= (aij)1≤i,j≤n entonces

X σ∈Sn ε(σ)a1σ(1). . . anσ(n) = X σ∈Sn ε(σ)aσ(1)1. . . aσ(n)n.

(10)

Si escribimos en la segunda sumatoria i=σ¡σ−1(i)¢ tenemos la siguiente cadena de igualdades: X σ∈Sn ε(σ)aσ(1)1. . . aσ(n)n = X σ∈Sn ε(σ)aσ(1)σ−1(σ(1)). . . aσ(n)σ1(σ(n)) = X σ∈Sn ε(σ)a1σ−1(1). . . a1(n) = X σ∈Sn ε(σ)a1σ(1). . . anσ(n).

La pen´ultima igualdad se obtiene simplemente cambiando el orden de los facto-res (i)σ−1(σ(i)), con i = 1, . . . , n de modo que queden ordenados en orden creciente {1, . . . , n}. La ´ultima igualdad se obtiene haciendo en la sumatoria un cambio de varia-bles de σ porσ−1, y al σ recorrer S

n lo mismo pasa con σ−1. ¤

Definici´on9.39. (1) SeaA∈Mnuna matriz cuadrada. Fijados un par de sub´ındices 1≤i, j ≤n se considera una matrizmij(A)Mn−1, que se obtiene a partir de la matriz

Aeliminando la columnaiy la filaj. La matrizmij(A) se llama elmenor (si es necesario aclararlo el n−1 menor) (i, j) de la matriz A.

(2) Se define en la misma situaci´on que arriba, para i, j fijados, el escalar cij(A) = (1)i+jdet(m

ij(A)).

(3) Se define la matriz adjunta de la matriz A de la siguiente forma: ad(A) =¡cij(A) ¢t 1≤i,j≤n. Ejemplo 9.40. Si A = µ a11 a12 a21 a22 ¶

. En este caso los menores son matrices uno por uno, o sea escalares, escribimos expl´ıcitamente c11 = a22, c12 = −a21, c21 = −a12,

c22=−a22.

El siguiente teorema muestra que un determinante se puede calcular desarrollando por una fila, o por una columna.

Teorema 9.41. Sea A∈Mn una matriz cuadrada.

(1) det(A) = a1ic1i(A) +a2ic2i(A) +· · ·+anicni(A). Esta f´ormula se llama f´ormula del

desarrollo de un determinante por la columna i–´esima.

(2) det(A) = aj1cj1(A) +aj2cj2(A) +· · ·+ajncjn(A). Esta f´ormula se llama f´ormula del desarrollo de un determinante por la fila j–´esima.

Demostraci´on. Es claro que tomando matrices transpuestas podemos transformar la ecuaci´on (1) en la ecuaci´on (2). Probaremos s´olo la segunda.

Llamamos β(A) = aj1cj1(A) + aj2cj2(A) + · · ·+ ajncjn(A). Queremos probar que β Altn(kn). Si dejamos a todas las columnas fijas y ponemos la columna k–´esima como suma aik =bik+cik, llamamos B a la matriz obtenida sustituyendo la columna k por la formada por los bik y C a la correspondiente matriz para los cik. En el desarrollo aj1cj1(A)+aj2cj2(A)+· · ·+ajncjn(A), cada menorcjl(A) que no sea elcjk, se descompone cjl(A) =cjl(B) +cjl(C). En el lugar j, k tenemos la descomposici´onajk =bjk+cjk.

(11)

7. C ´ALCULOS DE DETERMINANTES, MENORES 81

En definitiva tenemos que aj1cj1(A) + aj2cj2(A) +· · · +ajncjn(A) = aj1(cj1(B) +

cj1(C)) +aj2(cj2(B) +cj2(C)) +· · ·+ (bjk +cjk)cjk(A) +· · ·+ajn(cjn(B) +cjn(C)) = β(B) +β(C).

En forma parecida se demuestra que β es alternada.

Comoβ y det son elementos de Altn(kn), que tiene dimensi´on uno, ser´a uno m´ultiplo del otro. Como por otro ladoβ(Idn) = 1 = det(Idn), concluimos la igualdad buscada. ¤

Teorema 9.42. Si A∈Mn, entonces Aad(A) = ad(A)A= det(A) Idn.

Demostraci´on. La entrada k, l de la matriz Aad(A) es Prakrclr(A). De acuerdo con los resultados anteriores (ver Teorema 9.41) en el caso en que k = r, este escalar es igual a det(A). Si k 6= r formemos una nueva matriz que es igual a la original pero en la que sustituimos la fila k por la fila r. Llamemos A0 a esa nueva matriz (que tiene dos filas iguales). Aplicando los resultados del Teorema a la matriz A0 deducimos que 0 = det(A0) = a0

k1ck1(A0)+· · ·+a0knckn(A0) = ar1ck1(A)+· · ·+arnckn(A). De esta manera hemos probado el resultado buscado y Aad(A) = det(A) Idn. Para probar la restante igualdad procedemos como sigue. Si aplicamos la propiedad anteriormente probada a At, tenemos que Atad(At) = det(At) Id

n, o equivalentemente

¡

ad(A)A¢t = det(A) Idn. De

ahi deducimos que ad(A)A= det(A) Idn. ¤

Corolario 9.43. Si A Mn, entonces A es invertible si y s´olo si det(A) 6= 0. En ese caso A−1 = ad(A)/det(A). ¤ Corolario 9.44. Si V es un espacio vectorial de dimensi´on finita y T :V →V es una transformaci´on lineal, entonces T es invertible si y s´olo si det(T)6= 0. ¤

Referencias

Documento similar

Se han publicado obviamente tratados sobre la historia de las ideas en América Latina (9), pero aún falta una sociología política diferenciada de los intelectuales, que examine

4.- Másteres del ámbito de la Biología Molecular y Biotecnología (9% de los títulos. Destaca el de Biotecnología Molecular de la UB con un 4% y se incluyen otros

A través de la experiencia de un reconocido productor mexicano Alfonso Rosas Priego, tendrás una visión general de todo el proceso que lleva el iniciar la aventura

BUBER'NEUaiAMN, Margarete ¡ Von Potsáam ndch Moskau. SMíionen eines Irftveges. Stuttgart, 1957; Deutsche Verlags-Anstalt, 480 págs... DAHM: Deutsches Reckt. Die geschichüichen

Debido a la calidad y el legado de nuestra compañía, los cuales se reflejan en nuestros pianos, elegir un instrumento hecho por Steinway &amp; Sons tiende a ser una decisión

En virtud de esta política, que fue conocida como la apertura, numerosos y destacados po- líticos exiliados por el régimen pudieron regresar al país; la prensa disfrutó de una

En tales circunstancias, una forma de proceder posible sería iniciar una fase preconstitucional de diálogo nacional, como sucedió en Sudáfrica, para reunir a

Esta formación se produce mediante el doctorado (13 alumnos, lo que significa el 32% de los encuestados), diferentes másteres entre los que destacan de nuevo el de Profesorado