CAP´ıTULO 9
Funciones multilineales y determinantes
En este cap´ıtulo generalizamos el concepto de transformaci´on lineal, permitiendo que en el dominio de la funci´on hayan varias variables.
1. Definiciones generales
Definici´on 9.1. Sean V1, . . . , Vn, W espacios vectoriales y b : V1 × · · · ×Vn → W una funci´on. Decimos que b es multilneal si, fijando todas las variables menos la variable i-´esima, la funci´on Vi → W que se obtiene es lineal. Por ejemplo, si fijamos todas las variables menos la primera, obtenemos que la funci´on v Ãb(v, v0
2, . . . , v0n) : V1 → W es
una transformaci´on lineal – estamos considerando v0
2, . . . , v0n fijos.
Llamamos Mult(V1, . . . , Vn;W) al conjunto de todas las transformaciones multilinea-les con dominio enV1, . . . , Vny codominioW. En el caso en que el codominio es el cuerpo de base, i.e., si W =k, decimos que b :V1× · · · ×Vn→k es una forma multilineal.
Observaci´on 9.2. (1) Por ejemplo, si n = 2 entonces las condiciones para que b ∈
Mult(V1, V2;W) son las siguientes:b(αv+βv0, w) =αb(v, w)+αb(v0, w) ;b(v, γw+δw0) =
γb(v, w) +δb(v, w0) para todo α, β, γ, δ∈k y v, v0 ∈V
1 y w, w0 ∈V2. Si compactificamos
ambas f´ormulas en una sola tenemos:
b(αv+βv0, γw+δw0) = αγb(v, w) +αδb(v, w0) +βγb(v0, w) +βδb(v0, w0).
(2) De la misma manera que se prueba que si V y W son espacios vectoriales, entonces Hom(V, W) es un espacio vectorial con las operaciones realizadas punto a punto, se puede probar que Mult(V1, . . . , Vn;W) es un espacio vectorial con las operaciones realizadas punto a punto.
Definici´on 9.3. (1) Una transformaci´on multilineal b ∈Mult(V, . . . , V;W) se dice sim´etrica si cuando se intercambian dos vectores de posici´on el resultado es el mismo. O sea si para todo 1 ≤i < j≤n, se tiene que
b(v1, . . . , vi−1,vi, vi+1, . . . , vj−1, vj, vj+1, . . . , vn) =
b(v1, . . . , vi−1, vj, vi+1, . . . , vj−1, vi, vj+1, . . . , vn).
Llamamos Sim(V, . . . , V;W) al conjunto de todas las transformaciones multilineales sim´etricas. Si W =kdenotamos Sim(V, . . . , V;k) = Simn(V).
(2) Una trasnformaci´on multilineal b ∈Mult(V,. . . , V;W), se dice antisim´etrica o alter-nada si cuando se intercambian dos vectores de posici´on el resultado es opuesto. O sea si para todo 1≤i < j ≤n, se tiene que
b(v1, . . . , vi, . . . , vj, . . . , vn) = −b(v1, . . . , vj, . . . , vi, . . . , vn).
Llamamos Alt(V, . . . , V;W) al conjunto de todas las transformaciones lineales alter-nadas. Si W =k denotamos Alt(V, . . . , V;k) = Altn(V).
Observaci´on 9.4. (1) Es f´acil ver que Sim(V, . . . , V;W) ⊂ Mult(V, . . . , V;W) y Alt(V, . . . , V;W)⊂Mult(V, . . . , V;W), son subespacios. En particular, Simn(V) y Altn(V) son espacios vectoriales de un modo natural.
(2) Es claro que si b es una funci´on multilineal alternada, como
b(v1, . . . , v, . . . , v, . . . , vn) = −b(v1, . . . , v, . . . , v, . . . , vn)
deducimos que b(v1, . . . , v, . . . , v, . . . , vn) = 0. Tambi´en se prueba el rec´ıproco de la si-guiente forma. Si para todo b(v1, . . . , v, . . . , v, . . . , vn) = 0, obtenemos
0 =b(v1, . . . , v+w, . . . , v+w, . . . , vn) =b(v1, . . . , v, . . . , v, . . . , vn)+
b(v1, . . . , v, . . . , w, . . . , vn) +b(v1, . . . , w, . . . , v, . . . , vn)+ b(v1, . . . , w, . . . , w, . . . , vn),
de donde deducimos que b(v1, . . . , v, . . . , w, . . . , vn) = −b(v1, . . . , w, . . . , v, . . . , vn). 2. Formas bilineales, matrices asociadas
Consideremos el caso particular en que tenemos formas bilineales. Se usa la notaci´on Bil(V, W) para indicar Mult(V ×V, W;k).
Ejemplo 9.5. (1) SeaA∈Mn×muna matriz arbitraria. Definimos una forma bilineal BLA: kn×km →k de la siguiente forma: BLA(v, w) =vtAw donde vt indica el vector fila obtenido transponiendo el vector columna v. De esta forma construimos una funci´on BL :Mn×m →Bil(kn,km). Es f´acil ver que BLA es una forma bilineal y que la funci´on BL :Mn×m →Bil(kn,km) es una transformaci´on lineal.
(2) Procediendo en forma semejante a como se procedi´o en el caso de transformaciones lineales se puede probar que BL es un isomorfismo.
Definici´on9.6. SeanV yW espacios vectoriales de dimensi´on finita y{e1, . . . , en}= B ⊂ V y {f1, . . . , fm}=C ⊂ W respectivas bases. La matriz
¡
b(ei, fj)
¢
1≤i≤n
1≤j≤m ∈Mn×m se llama la matriz asociada a la forma bilineal b en las bases B y C. Esa matriz se denota como B[b]C.
Lema 9.7. La matriz asociada a una borma bilineal b en las bases B y C verifica: b(v, w) = cB(v)tB[b]CcC(w).
Demostraci´on. Si escribimosv =Pni=1αiei y w=
Pm j=1βjfj tenemos que b(v, w) = X i,j αiβjb(ei, fj) = X i,j (α1, . . . , αn)b(ei, fj) β1 ... βm =cB(v)t B[b]CcC(w). ¤ Otra forma de interpretar la proposici´on anterior es la siguiente.
Lema 9.8. Sean V y W espacios vectoriales de dimensi´on finita y sean B ⊂ V,
3. DETERMINANTES 73
entonces el diagrama de abajo es conmutativo.
V ×W b // cB×cC ²² k kn×km BLB[b]C 66 n n n n n n n n n n n n n n
Demostraci´on. Es claro que el enunciado de este lema es una reformulaci´on del
lema anterior. ¤
Observaci´on 9.9. (1) En caso de que b sea bilineal b:V ×V →ky B ⊂V es una base de V, tenemos que b∈Sim2(V) si y s´olo si B[b]C es una matriz sim´etrica.
Anal´oga-mente, b ∈ Alt2(V) si y s´olo si B[b]C es una matriz antisim´etrica. Esta demostraci´on
queda como ejercicio para el lector.
(2) En particular usando que una matriz arbitraria cuadrada se descompone en una ma-triz sim´etrica y una antisim´etrica, se puede probar que una forma bilineal se descompone como una sim´etrica y otra alternada. Esta demostraci´on queda como ejercicio para el lector.
Corolario9.10. (1) SiV yW son espacios vectoriales de dimensi´ondyd0, entonces dim Bil(V, W) =dd0.
(2) Si V es un espacio vectorial de dimensi´on d, entonces dim Bil(V) =d2.
3. Determinantes Sea A = µ a b c d ¶
una matriz cuadrada dos por dos. Se define el determinante de la matriz A como det(A) = ad −bc. Podemos interpretar det : k2 × k2 → k como
funci´on de las dos columnas de la matriz. En ese caso se puede probar directamente que det ∈ Alt2(k2). Esto nos lleva a considerar el espacio siguiente donde consideramos a
“todos los determinantes”.
Definici´on 9.11. Sea V un espacio vectorial de dimensi´on n. Los elementos de Altn(V) se llaman determinantes en V.
Ya hemos observado que sid yd0 son determinantes enV entoncesd+d0 es un deter-minante y tambi´en αd es un determinante siα ∈k, en otras palabras, los determinantes forman un espacio vectorial.
Observaci´on 9.12. Si d es un determinante en k2 y {e
1, e2} es la base can´onica
tenemos que si v =αe1+βe2 y w=γe1+δe2 entonces
d(v, w) = d(αe1+βe2, γe1+δe2) =αγd(e1, e1) +αδd(e1, e2) +βγd(e2, e1) +βδd(e2, e2).
Comodes alternada, concluimos qued(e1, e1) =d(e2, e2) = 0 y adem´as qued(e1, e2) = −d(e2, e1). Entoncesd(v, w) = (αδ−βγ)d(e1, e2). Esto muestra la ´ıntima relaci´on entre
las funciones que m´as arriba llamamos determinantes y el determinante de una matriz (tal cual est´a definido usualmente).
Definici´on 9.13. Sea V un espacio vectorial de dimensi´onn; se considera la trans-formaci´on lineal ∆ : Altn(V)→k definida de la siguiente forma: ∆(d) =d(e1, . . . , en).
A continuaci´on estudiaremos al mapa ∆. Nuestro prop´osito es probar que ∆ es un isomorfismo (eso lleva su tiempo).
A continuaci´on realizaremos un c´alculo que resultar´a ´util en varias ocasiones.
Observaci´on 9.14. Sea V un espacio vectorial de dimensi´on n y {e1, . . . , en} una
base. Si v1, . . . , vn ∈ V son n vectores de V, queremos calcular d(v1, . . . , vn). Para ello escribimos vi = P jiαijieji y d(v1, . . . , vn) =d( X j1 α1j1ej1, . . . , X jn αnjnejn) = X j1,...,jn α1j1. . . αnjnd(ej1, . . . , ejn)
A priori, el conjunto {j1, . . . , jn} puede tener elementos repetidos; si los tuviera, como d es alternada tenemos que d(ej1, . . . , ejn) = 0. Consecuentemente, en la expresi´on
anterior solo “sobreviven” los t´erminos que tienen los sub´ındices {j1, . . . , jn} diferentes,
o sea si {j1, . . . , jn} es una permutaci´on del conjunto {1, . . . , n}.
Luego, si consideramos σ ∈ Sn, σ(i) = ji para i= 1, . . . , n, tenemos que d(v1, . . . , vn) =d( X j1 α1j1ej1, . . . , X jn αnjnejn) = X σ∈Sn α1σ(1). . . αnσ(n)d(eσ(1), . . . , eσ(n))
Por otro lado, al ser {σ(1), . . . , σ(n)} una reordenaci´on de los elementos {1, . . . , n}, tenemos que
d(eσ(1), . . . , eσ(n)) =±d(e1, . . . , en). (3.1)
El n´umero ± que aparece en la expresi´on anterior lo calcularemos m´as adelante. d(v1, . . . , vn) = ¡ X σ∈Sn ±α1σ(1). . . αnσ(n) ¢ d(e1, . . . , en) (3.2)
Lema 9.15. SiV es un espacio vectorial de dimensi´onn, la funci´on∆ : Altn(V)→k
es inyectiva (ver la Definici´on 9.13).
Demostraci´on. Si d ∈ Altn(V) es tal que ∆(d) = 0, aplicando los resultados de la Observaci´on 9.14 concluimos que d(v1, . . . , vn) =
¡P σ∈Sn±α1σ(1). . . αnσ(n) ¢ ∆(d) = 0. Deducimos que d(v1, . . . , vn) = 0. ¤ 4. Permutaciones
En la construcci´on de los determinantes el conjunto Sn juega un papel relevante, queremos estudiarlo m´as en detalle.
Observaci´on 9.16. (1) Sn ⊂[n][n] es un conjunto con n! elementos.
(2) Si σ : [n]→[n] es una funci´on biyectiva, entonces, σ−1 : [n]→[n] (la funci´on inversa
de σ) es tambi´en una funci´on bijectiva, o sea que si σ ∈ Sn entonces σ−1 ∈ Sn. Es claro tambi´en que la funci´on identidad 1n = Id : [n] → [n] es una permutaci´on. Si σ, τ ∈ Sn
4. PERMUTACIONES 75
son permutaciones tambi´en lo esσ◦τ – muchas veces omitimos el s´ımbolo◦y escribimos simplemente στ. Tambi´en a menudo omitiremos el sub´ındice en 1n y escribimos 1∈ Sn. De esta forma, hemos probado que el conjunto de todas las permutaciones de n elementos forman un grupo.
(3) Las permutaciones se escriben frecuentemente de la siguiente forma σ =
µ
1 2 . . . n σ(1) σ(2) . . . σ(n)
¶
(4) Por ejemplo, el grupo S3 tiene seis elementos que son:
1 = µ 1 2 3 1 2 3 ¶ σ = µ 1 2 3 2 1 3 ¶ τ = µ 1 2 3 3 2 1 ¶ ν = µ 1 2 3 1 3 2 ¶ ντ = µ 1 2 3 2 3 1 ¶ τ ν = µ 1 2 3 3 1 2 ¶
Definici´on 9.17. Una transposici´on es una permutaci´on σ ∈ Sn con la siguiente propiedad: existen 1 ≤i6=j ≤n tales que σ(i) =j , σ(j) =i , σ(k) =k , para todok 6= i, j.
Observaci´on 9.18. Observar que si τ es una transposici´on, entonces τ2 = 1, o sea
que τ =τ−1.
En el ejemplo deS3 presentado m´as arriba,σ, τ, ν son transposiciones. EnS2 la ´unica
permutaci´on diferente de 1 es una transposici´on.
En el caso de S3 se observa que toda permutaci´on es producto de transposiciones.
Por ejemplo, la identidad 1 = σ2. Por otro lado esta descomposici´on no es ´unica pues
por ejemplo: 1 = σ2 =τ2. El teorema que sigue que no demostraremos, d´a informaci´on
sobre este tipo de descomposiciones.
Teorema9.19. Siσ ∈ Snes una permutaci´on, existen transposicionesτ1, . . . , τl ∈ Sn tales que σ = τ1τ2· · ·τl. Adem´as, si tenemos otra descomposici´on de la forma σ = ν1ν2· · ·νs con νi transposici´on para i= 1, . . . , s, entonces s−l es un n´umero par.
El teorema anterior garantiza que toda permutaci´on se escribe como producto de transposiciones, de forma no necesariamente ´unica, y que en dos descomposiciones dife-rentes de la misma permutaci´on, la diferencia de las longitudes de ambas descomposicio-nes es un n´umero par.
Por ejemplo, no ser´ıa posible descomponer, σ de dos formas diferentes, σ=τ1τ2τ3 =
ν1ν2 donde τ1, τ2, τ3, ν1, ν2 son transposiciones.
Definici´on 9.20. Si σ ∈ Sn es una permutaci´on y σ =τ1τ2. . . τl, se define el signo de σ como ε(σ) = (−1)l.
Observaci´on 9.21. (1) El Teorema 9.19 nos garantiza que la definici´on anterior es correcta, o sea que ε(σ) no depende de la descomposici´on elegida de σ en t´erminos de transposiciones.
(2) Si consideramos ε como una funci´on, tenemos que ε: Sn → {−1,1}. Es claro que el conjunto {−1,1} es un grupo con la operaci´on de producto. Con esa estructura ε es un homomorfismo de grupos, es decir que ε(στ) =ε(σ)ε(τ).
5. Unicidad de los determinantes. Determinantes de matrices Comenzamos calculando el signo ± que aparece en la ecuaci´on (3.2).
Lema 9.22. De acuerdo con las notaciones de la ecuaci´on (3.1) tenemos que d¡eσ(1), . . . , eσ(n)
¢
=ε(σ)d(e1, . . . , en)
Demostraci´on. Escribimos σ = τ1. . . τl donde τi, i = 1, . . . , l son transposicio-nes. Si abreviamos σ0 = τ
1. . . τl−1 tenemos que σ = σ0τl. Luego, d
¡ eσ(1), . . . , eσ(n) ¢ = d¡eσ0τl(1), . . . , eσ0τl(n) ¢ =−d¡eσ0(1), . . . , eσ0(n) ¢
. La ´ultima igualdad se deduce del hecho de que d es alternada. Hemos visto que al reducir σ = τ1. . . τl a σ0 = τ1. . . τl−1 el signo se
cambia una vez. Si seguimos con ese procedimiento, y eliminamos todos los t´erminos del producto σ =τ1. . . τl uno por uno, realizaremos en la expresi´on de d, (−1)l cambios de
signo. En definitiva, concluimos que d¡eσ(1), . . . , eσ(n)
¢
=ε(σ)d(e1, . . . , en). ¤
Definici´on9.23. Dada una matriz,A∈Mndefinimos su determinante por la f´ormu-la det(A) = Pσ∈Snε(σ)α1σ(1). . . αnσ(n).
Podemos interpretar la igualdad de la ecuaci´on (3.2) como
d(v1, . . . , vn) = det(A)d(e1, . . . , en) (5.1) La funci´on det : Mn → k la podemos pensar tambi´en como una funci´on det : kn×
· · · × kn → k. Si B = {e
1, . . . , en}, la f´ormula anterior (5.1) se puede escribir de la siguiente manera: d(v1, . . . , vn) = det ¡ cB(v1), . . . ,cB(vn) ¢ d(e1, . . . , en) (5.2) Hemos probado que el diagrama de abajo conmuta.
V × · · · ×V cB×···×cB ²² d // k kn× · · · ×kn d(e1,...,en) det 55 l l l l l l l l l l l l l l l l
Teorema 9.24. La funci´ondet : (kn)n =kn× · · · ×kn→k es una forma multilineal alternada.
Demostraci´on. Queremos probar que det es multilineal y alternada. Si
c1 = a11 a21 ... an1 , . . . , cn= a1n a2n ... ann ∈kn, entonces det(c1, . . . , cn) = P σ∈Snε(σ)a1σ(1). . . anσ(n). Si i < j, entonces det(c1, . . . , cj, . . . , ci, . . . , cn) = X σ∈Sn ε(σ)a1σ(1). . . aiσ(j). . . ajσ(i). . . anσ(n) = X σ∈Sn ε(σ)a1στ(1). . . aiστ(i). . . ajστ(j). . . anστ(n),
6. DETERMINANTES DE TRANSFORMACIONES LINEALES 77
donde τ es la transposici´on que intercambia i con j y deja el resto de los elementos del conjunto [n] fijos. Si hacemos en la sumatoria el cambio de variables ν = στ tenemos que det(c1, . . . , cj, . . . , ci, . . . , cn) = X ν∈Sn ε(ντ)a1ν(1). . . aiν(i). . . ajν(j). . . anν(n) = − X ν∈Sn ε(ν)a1ν(1). . . aiν(i). . . ajν(j). . . anν(n) = det(c1, . . . , ci, . . . , cj, . . . , cn).
En la prueba anterior hemos usado que ε(ντ) =ε(ν)ε(τ) = −ε(ν). ¤
Observaci´on 9.25. Es claro que si probamos que det :kn×· · ·×kn →k∈Alt n(kn), del diagrama anterior se concluye inmediatamente que
d(v1, . . . , vn) = det(cB(v1), . . . ,cB(vn))∈Altn(V).
Teorema 9.26. Sea V un espacio vectorial de dimensi´on n y sea B = {e1, . . . , en} una base fija.
(1) Sea d el elemento de Altn(V) definido por la f´ormula d(v1, . . . , vn) = det
¡
cB(v1), . . . ,cB(vn)
¢
. Si ∆ : Altn(V)→k es como antes, entonces ∆(d) = 1. (2) El espacio Altn(V) tiene dimensi´on uno.
Demostraci´on. (1) ∆(d) = d(e1, . . . , en) = det(f1, . . . , fn), donde {f1, . . . , fn} es
la base can´onica de kn. Las entradas de la matriz correspondiente a la base can´onica son δij,1 ≤ i, j ≤ n, donde δij = 0 si i 6= j y δii = 1. Calculando expl´ıcitamente: det(f1, . . . , fn) =
P
σ∈Snε(σ)δ1σ(1). . . δiσ(i). . . δnσ(n). En la suma anterior, el ´unico
su-mando que no es cero es el que corresponde a σ(1) = 1, . . . , σ(i) = i, . . . , σ(n) =n; o sea el que corresponde a σ = 1. En definitiva tenemos que
det(f1, . . . , fn) =
X
σ∈Sn
ε(σ)δ1σ(1). . . δiσ(i). . . δnσ(n)=ε(1)δ11. . . δii. . . δnn = 1. (2) Hemos probado que la transformaci´on lineal ∆ no es nula; luego dim Altn(V)6= 0. Por otro lado, deducimos del Lemma 9.15 que dim Altn(V)≤1, luego dim Altn(V) = 1. ¤
Corolario 9.27. Si V es un espacio de dimensi´on n y B = {e1, . . . , en} es una base dada, existe una y s´olo una funci´on n-lineal alternada d definida en V tal que d(e1, . . . , en) = 1.
6. Determinantes de transformaciones lineales
En esta secci´on definimos el determinante de una transformaci´on lineal de un espacio en s´ı mismo.
Lema 9.28. Sea V un espacio vectorial y T : V → V una transformaci´on lineal. Si d ∈Altn(V)y definimos dT :V × · · · ×V →k por la siguiente f´ormula: dT(v1, . . . , vn) =
d¡T(v1), . . . , T(vn)
¢
Demostraci´on. Es claro que dT(v1, . . . , vn) =d ¡ T(v1), . . . , T(vn) ¢ es multilineal y alternada si d lo es. ¤
Definici´on 9.29. Si V es un espacio vectorial y T : V →V es una transformaci´on lineal, se define T] : Altn→Altn por la f´ormula T](d) = dT.
Observaci´on 9.30. (1) Es f´acil verificar queT]: Alt
n →Altn es una transformaci´on lineal.
(2) (T S)]=S]T]. Efectivamente, comoT](d) = d◦(T×· · ·×T), tenemos que (T S)](d) = d◦(T S× · · · ×T S) = T](d)◦(S× · · · ×S) = (S]T])(d).
(3) Id]= IdAltn(V).
(4) (aT)] =anT].
Observaci´on 9.31. En la situaci´on anterior, es claro que siT, S :W →W entonces, aT S = aTaS. Efectivamente, T S(w) = T(aSw) = aST(w) = aSaTw. Como adem´as T S(w) =aT Sw, deducimos nuestro resultado.
Definici´on 9.32. Sea V un espacio vectorial de dimensi´on n y T : V → V una transformaci´on lineal. Se define det(T) ∈ k como el ´unico escalar que verifica que para todo d∈Altn(V), T](d) = det(T)d.
Observaci´on 9.33. (1) La definici´on anterior tiene sentido porque Altn(V) tiene dimensi´on uno. En efecto, recordar que si W es un espacio vectorial de dimensi´on uno y T : W → W es una transformaci´on lineal, entonces existe aT ∈ k tal que para todo w∈W, T(w) =aTw.
(2) En otras palabras, det(T) es el ´unico escalar que verifica que para todo d∈Altn(V) se tiene que dT = det(T)d.
Lema 9.34. (1) Si T, S : V → V son dos transformaciones lineales, entonces det(T S) = det(T) det(S).
(2) det(IdV) = 1.
(3) Si T es invertible, entonces det(T)6= 0 y det(T−1) = 1/det(T).
(4) det(aT) = andet(T).
Demostraci´on. (1) Esta propiedad se deduce inmediatamente de la Observaci´on 9.31.
(2) dIdV =d.
(3) SiT es invertible, tenemos queT−1T = Id, de donde deducimos que det(T−1) det(T) =
1.
(4) Como (aT)] =anT] concluimos el resultado deseado.
¤ A continuaci´on relacionamos el determinante de una transformaci´on lineal con el determinante de su matriz asociada.
Lema 9.35. Sea A∈Mn y consideremos LA:kn →kn. En esa situaci´on det(LA) = det(A).
7. C ´ALCULOS DE DETERMINANTES, MENORES 79
Demostraci´on. Consideremos det∈Altn(kn). Entonces det(LA) verifica la siguien-te igualdad:L]A(det) = det(LA) det. Si evaluamos el lado izquierdo de la igualdad anterior en la matriz identidad tenemos que L]A(det)(e1, . . . , en) = det(Ae1, . . . , Aen) = det(A). Si evaluamos el lado derecho tenemos: det(LA) det(e1, . . . , en) = det(LA). De esa forma
concluimos que det(LA) = det(A). ¤
Corolario 9.36. Si V es un espacio vectorial de dimensi´on n con base B, entonces det(T) = det(B[T]B).
Demostraci´on. Llamemos A = B[T]B. Es claro que si d ∈ Altn(V) es tal que d(e1, . . . , en) = 1 entonces el diagrama de abajo conmuta.
V × · · · ×V cB×cB ²² T×···×T // V × · · · ×V cB×···×cB ²² d // k kn× · · · ×kn LA×···×LA // kn× · · · ×kn d(e1,...,en) det 55 l l l l l l l l l l l l l l l l
Usando las definiciones de determinante de T y deLAel diagrama anterior puede ser sustituido por el que sigue
V × · · · ×V cB×···×cB ²² det(T)d // k kn× · · · ×kn det(LA) det 55 l l l l l l l l l l l l l l l l
En otras palabras: det(T)d = det(LA) det(cB × · · · ×cB), y como tambi´en sabemos qued= det(cB×· · ·×cB), concluimos que det(T) = det(LA) = det(A) = det(B[T]B). ¤
Corolario 9.37. Si A, B ∈Mn entonces, det(AB) = det(A) det(B).
Demostraci´on. Como LAB = LALB, deducimos que det(AB) = det(LAB) =
det(LALB) = det(LA) det(LB) = det(A) det(B). ¤
7. C´alculos de determinantes, menores En esta secci´on nos concentraremos en determinantes de matrices.
Lema 9.38. Si A∈Mn entonces det(A) = det(At).
Demostraci´on. Queremos probar que si A= (aij)1≤i,j≤n entonces
X σ∈Sn ε(σ)a1σ(1). . . anσ(n) = X σ∈Sn ε(σ)aσ(1)1. . . aσ(n)n.
Si escribimos en la segunda sumatoria i=σ¡σ−1(i)¢ tenemos la siguiente cadena de igualdades: X σ∈Sn ε(σ)aσ(1)1. . . aσ(n)n = X σ∈Sn ε(σ)aσ(1)σ−1(σ(1)). . . aσ(n)σ−1(σ(n)) = X σ∈Sn ε(σ)a1σ−1(1). . . anσ−1(n) = X σ∈Sn ε(σ)a1σ(1). . . anσ(n).
La pen´ultima igualdad se obtiene simplemente cambiando el orden de los facto-res aσ(i)σ−1(σ(i)), con i = 1, . . . , n de modo que queden ordenados en orden creciente {1, . . . , n}. La ´ultima igualdad se obtiene haciendo en la sumatoria un cambio de varia-bles de σ porσ−1, y al σ recorrer S
n lo mismo pasa con σ−1. ¤
Definici´on9.39. (1) SeaA∈Mnuna matriz cuadrada. Fijados un par de sub´ındices 1≤i, j ≤n se considera una matrizmij(A)∈Mn−1, que se obtiene a partir de la matriz
Aeliminando la columnaiy la filaj. La matrizmij(A) se llama elmenor (si es necesario aclararlo el n−1 menor) (i, j) de la matriz A.
(2) Se define en la misma situaci´on que arriba, para i, j fijados, el escalar cij(A) = (−1)i+jdet(m
ij(A)).
(3) Se define la matriz adjunta de la matriz A de la siguiente forma: ad(A) =¡cij(A) ¢t 1≤i,j≤n. Ejemplo 9.40. Si A = µ a11 a12 a21 a22 ¶
. En este caso los menores son matrices uno por uno, o sea escalares, escribimos expl´ıcitamente c11 = a22, c12 = −a21, c21 = −a12,
c22=−a22.
El siguiente teorema muestra que un determinante se puede calcular desarrollando por una fila, o por una columna.
Teorema 9.41. Sea A∈Mn una matriz cuadrada.
(1) det(A) = a1ic1i(A) +a2ic2i(A) +· · ·+anicni(A). Esta f´ormula se llama f´ormula del
desarrollo de un determinante por la columna i–´esima.
(2) det(A) = aj1cj1(A) +aj2cj2(A) +· · ·+ajncjn(A). Esta f´ormula se llama f´ormula del desarrollo de un determinante por la fila j–´esima.
Demostraci´on. Es claro que tomando matrices transpuestas podemos transformar la ecuaci´on (1) en la ecuaci´on (2). Probaremos s´olo la segunda.
Llamamos β(A) = aj1cj1(A) + aj2cj2(A) + · · ·+ ajncjn(A). Queremos probar que β ∈ Altn(kn). Si dejamos a todas las columnas fijas y ponemos la columna k–´esima como suma aik =bik+cik, llamamos B a la matriz obtenida sustituyendo la columna k por la formada por los bik y C a la correspondiente matriz para los cik. En el desarrollo aj1cj1(A)+aj2cj2(A)+· · ·+ajncjn(A), cada menorcjl(A) que no sea elcjk, se descompone cjl(A) =cjl(B) +cjl(C). En el lugar j, k tenemos la descomposici´onajk =bjk+cjk.
7. C ´ALCULOS DE DETERMINANTES, MENORES 81
En definitiva tenemos que aj1cj1(A) + aj2cj2(A) +· · · +ajncjn(A) = aj1(cj1(B) +
cj1(C)) +aj2(cj2(B) +cj2(C)) +· · ·+ (bjk +cjk)cjk(A) +· · ·+ajn(cjn(B) +cjn(C)) = β(B) +β(C).
En forma parecida se demuestra que β es alternada.
Comoβ y det son elementos de Altn(kn), que tiene dimensi´on uno, ser´a uno m´ultiplo del otro. Como por otro ladoβ(Idn) = 1 = det(Idn), concluimos la igualdad buscada. ¤
Teorema 9.42. Si A∈Mn, entonces Aad(A) = ad(A)A= det(A) Idn.
Demostraci´on. La entrada k, l de la matriz Aad(A) es Prakrclr(A). De acuerdo con los resultados anteriores (ver Teorema 9.41) en el caso en que k = r, este escalar es igual a det(A). Si k 6= r formemos una nueva matriz que es igual a la original pero en la que sustituimos la fila k por la fila r. Llamemos A0 a esa nueva matriz (que tiene dos filas iguales). Aplicando los resultados del Teorema a la matriz A0 deducimos que 0 = det(A0) = a0
k1ck1(A0)+· · ·+a0knckn(A0) = ar1ck1(A)+· · ·+arnckn(A). De esta manera hemos probado el resultado buscado y Aad(A) = det(A) Idn. Para probar la restante igualdad procedemos como sigue. Si aplicamos la propiedad anteriormente probada a At, tenemos que Atad(At) = det(At) Id
n, o equivalentemente
¡
ad(A)A¢t = det(A) Idn. De
ahi deducimos que ad(A)A= det(A) Idn. ¤
Corolario 9.43. Si A ∈ Mn, entonces A es invertible si y s´olo si det(A) 6= 0. En ese caso A−1 = ad(A)/det(A). ¤ Corolario 9.44. Si V es un espacio vectorial de dimensi´on finita y T :V →V es una transformaci´on lineal, entonces T es invertible si y s´olo si det(T)6= 0. ¤