Facultad de Ciencias y Tecnolog´ıa
Carrera de Matem´
aticas
Algebra Lineal
Hans C. M¨
uller Santa Cruz
Prefacio . . . iii
I.- Espacios Vectoriales y Aplicaciones Lineales . . . 1
1.- Preliminares . . . 1
2.- Espacios de Generaci´on Finita . . . 8
3.- Aplicaciones Lineales . . . 13
4.- Anillo de Homomorfismos . . . 20
5.- Matriz de una Aplicaci´on Lineal . . . 23
6.- Cambio de Base . . . 28
7.- Operaciones Elementales sobre Matrices . . . 33
8.- Signo de las Permutaciones . . . 38
9.- Formas Multilineales Alternadas . . . 42
10.- Determinantes . . . 47
11.- Matriz Adjunta . . . 53
II.- Complemento . . . 57
1.- Espacios Vectoriales Cocientes . . . 57
2.- Dual de un Espacio Vectorial . . . 61
3.- Formas Bilineales Sim´etricas . . . 65
4.- Espacios Euclidianos . . . 71
5.- Formas Herm´ıticas, Espacios Unitarios . . . 77
III.- Formas Normales . . . 81
1.- Vectores y Valores Propios . . . 81
2.- Triangularizaci´on y Diagonalizaci´on . . . 87
3.- Endomorfismos Normales de un Espacio Unitario . . . 90
4.- Descomposic´on Can´onica . . . 98
5.- Teorema de Hamilton Cayley . . . 103
6.- Endomorfismos Nilpotentes . . . 105
El Algebra Lineal es una de las ramas fundamentales de las Matem´aticas; por un lado, porque es herramienta de trabajo imprescindible en otras ´areas de las matem´aticas como el An´alisis, la Geom´etr´ıa, el An´alisis Num´erico, las Estad´ısticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la soluci´on de problemas de otras disciplinas y ciencias es moneda corriente.
El texto de Algebra Lineal est´a inscrito dentro el desarrollo que pretende dar la Carrera de Matem´aticas en su nueva formulaci´on. Este texto contiene lo m´as importante dentro lo que es el Algebra Lineal, dando el vocabulario y conceptos de base para una buena utilizaci´on, presentando los razonamientos de manera rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de soluci´on a los problemas presentados.
Para un buen asimilaci´on de los conocimientos y razonamientos de este texto; las definiciones y conceptos m´as significativos est´an escritos en negrillas, estos deber´an ser memorizados y manipulados fluidamente. Los resultados mas importantes est´an expresados en losteoremas, corolarios y proposiciones, estos deber´an tambi´en ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deber´an ser trabajadas, con la finalidad de adquirir las diferentes t´ecnicas de demostraci´on que se emplean en el Algebra Lineal. Con fines ped´agogicos, en algunos paragrafos se presentan los resultados fundamentales que ser´an tratados en el paragrafo en cuesti´on, estos est´an escritos en car´acteresit´alicos.
Cap´ıtulo I
Espacios Vectoriales y Aplicaciones Lineales
I.1 Preliminares
Cuerpos Conmutativos
Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con: Qel conjunto de los n´umeros racionales ={n/m|n, menteros, m6= 0};
Rel conjunto de los n´umeros reales; Cel conjunto de los n´umeros complejos. Estos tres conjuntos est´an dotados de:
una adici´on: α+β una multiplicaci´on: α·β que verifican las tres familias de axiomas:
I. Adici´on
i) la adici´on es conmutativa,α+β=β+α.
ii) la adici´on es asociativa, (α+β) +γ=α+ (β+γ). iii) existe un elemento cero 0 tal que 0 +α=α+ 0 =α,∀α. iv)∀αexiste un opuesto−α, tal que α+ (−α) = 0.
II. Multiplicaci´on
i) la multiplicaci´on es conmutativa,α·β=β·α. ii) la multiplicaci´on es asociativa, (α·β)·γ=α·(β·γ). iii) existe el elemento uno 1, tal que 1·α=α,∀α. iv)∀β6= 0, β posee un inversoβ−1= 1/β, tal queβ
·β−1= 1.
III. Distributividad
i)α·(β+γ) =α·β+α·γ. ii) (α+β)·γ=α·γ+β·γ.
Un conjunto K, provisto de una adici´on y de una multiplicaci´on se llama cuerpo conmutativo, si satisface los tres grupos de axiomas mencionados m´as arriba.
Remarca.-Un conjuntoKprovisto de una adici´on y de una multiplicaci´on que satisface las tres familias de axiomas, quiz´as excepto el axioma II.i se llamacuerpo.
Proposici´on I.1.1.-En un cuerpo conmutativoK, se tiene 1) El elemento0 es ´unico.
2) El opuesto deαes ´unico.
5) Se tieneα·0 = 0,∀α.
Demostraci´on:
1.- Sup´ongase que 0 y 0′ son ceros, entonces
0′ = 0 + 0′= 0′+ 0 = 0⇒0 = 0′. 2.- Seaα∈K,−αy−α′ opuestos deα. Se tiene
−α=−α+ 0 =−α+ (α+ (−α′)) = (−α+α) + (−α′) = 0 +α′=α′. 3.- Ejercicio.
4.- ⇐trivial,
α+α=α,
⇒
(α+α) + (−α) =α+ (−α), α+ (α+ (−α)) = 0,
α+ 0 = 0 ⇒α= 0. 5.- Utilizando el punto 4) de la proposici´on, se tiene
α·0 =α·(0 + 0),
α·0 =α·0 +α·0⇒α·0 = 0.
En lo que sigue del cap´ıtulo K denotar´a un cuerpo conmutativo. Se convendr´a α−β =α+ (−β) y αβ=α·β.
Espacios Vectoriales
Unespacio vectorialsobreK,K-espacio vectorial, es un conjuntoV provisto de dos operaciones: V ×V →V
(x, y)7→x+y adici´on
K×V →V (α, x)7→αx multiplicaci´on por escalar
que verifican los dos sistemas de axiomas:
I Adici´on
i) la adici´on es conmutativax+y=y+x,∀x, y∈V.
ii) la adici´on es asociativa (x+y) +z=x+ (y+z),∀x, y, z∈V. iii) existe un cero, 0∈V tal que 0 +x=x,∀x∈V.
iv) Todox∈V posee un opuesto−x, tal quex+ (−x) = 0.
II Multiplicaci´on por escalar
i)α(βx) = (αβ)x,∀α, β∈K,∀x∈V. ii) (α+β)x=αx+βx, ∀α, β∈K,∀x∈V. iii)α(x+y) =αx+αy,∀αK, x, y∈V.
Definici´on I.1.2.- Un subconjuntoU 6=∅ deV espacio vectorial, es unsubespacio vectorialdeV, si x, y∈U ⇒αx+βy∈U, ∀α, β∈K.
I.1 Preliminares 3 1.- Kes un espacio vectorial sobreK, para la adici´on y la multiplicaci´on deK.
2.- Sea Kn = {(α1, α2, . . . , α
n)|αi ∈ K, i = 1, . . . , n}, con la adici´on y la multiplicaci´on por escalar,
definidas:
(α1, α2, . . . , αn) + (β1, β2, . . . , βn) = (α1+β1, α2+β2, . . . , αn+βn),
α(α1, α2, . . . , αn) = (αα1, αα2, . . . , ααn),
es un espacio vectorial sobreK.
3.- {0} ⊂V y V son subespacios vectoriales de V, si V es un espacio vectorial. Son conocidos como los
subespacios trivialesde V.
Proposici´on I.1.3.-En un espacio vectorial V, sobre un cuerpoK, se tiene: 1.- El elemento0∈V es ´unico, as´ı como el opuesto−x.
2.-y∈V,y+y=y ⇐⇒ y= 0. 3.-α0 = 0,∀α∈K.
4.-0x= 0,∀x∈V.
5.- Seanα∈K,x∈V, entonces
αx= 0⇒α= 0o x= 0.
Demostraci´on.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 est´a demostrado, sino α 6= 0, por consiguiente
α−1(αx) =α−10, 1x= 0,
x= 0.
Convenci´on.-Generalmente el elemento cero 0 deV espacio vectorial se lo denota tambi´en 0. En lo que sigue se utilizar´a esta notaci´on.
Ejemplos
4.- SeaX un conjunto no nulo, se define
KX=
{f :X →K}
el conjunto de las aplicaciones deX enK. KX es un espacio vectorial para
(f+g)(x) =f(x) +g(x)
(αf)(x) =α(f(x)) (I.1.1)
El cero deKX es la aplicaci´on 0 :x7→0.
En particularRR=
{f :R→B} es un espacio vectorial con las operaciones (I.1.1). 5.- C0(R,R) =
{f :R→R,continua} es un espacio vectorial con las leyes (I.1.1). 6.- Se dice quep:R→Res polinomial si
p(t) =
n X
i=0
αiti, αi∈R, αn6= 0;
n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de las
funciones polinomiales de grado≤n.
Ejercicio.-Mostrar queP es un subespacio vectorial deC0(R,R) y
Pnes un subespacio vectorial deP.
Remarca.-Un subespacio vectorial es en si mismo es un espacio vectorial.
7.- Consideremos el sistema lineal homogeneo denecuaciones ymincognitas, dado por
a11ξ1 + a12ξ2 + · · · + a1mξm = 0
..
. ...
donde losaik pertenecen aK.
Ejercicio.-Mostrar que las soluciones de este sistema forman un subespacio vectorial deKm.
Proposici´on I.1.4.-SeanV yW dos espacios vectoriales sobre un cuerpoK. El conjunto producto V ×W ={(v, w)|v∈V, w∈W}
es unK-espacio vectorial, para
(v1, w1) + (v2, w2) = (v1+v2, w1+w2), α(v, w) = (αv, αw).
Demostraci´on.-Ejercicio.
Proposici´on I.1.5.-Sea{Ui}i∈I una familia de subespacios deV. Entonces \
i∈I
Uies un subespacio vectorial
deV, donde \
i∈I
Ui ={x∈V|x∈Ui, ∀i∈I}.
Demostraci´on.-Ejercicio.
Remarca.- [
i∈I
Ui={x∈V|∃i∈I, con x∈Ui}no es en general un subespacio vectorial de V.
Definici´on I.1.6.-SeaAun subconjunto deV. El subespacioengendradoporAes el subespacio vectorial m´as peque˜no que contieneA, se lo denota por < A >.
Se tiene<∅>={0}. Existen subespacios deV que contienen un subconjuntoA deV, por ejemploV mismo. Por consiguiente se tendr´a
< A >= \
A⊂U subespacio
U.
En realidad< A >est´a formado por el conjunto de lasv∈V que se escriben bajo la forma v= X
suma finita
αiai, αi∈K, ai∈A.
Mostrar esta ´ultima afirmaci´on es un interesante ejercicio, hacerlo.
Se dice queA⊂V engendraV si y solamente si< A >=V. Por la anterior observaci´on, esta definici´on significa que todov∈V se escribe como
v= X suma finita
αiai, αi∈K, ai∈A.
Ejemplos
8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene β= (βα−1)α.
9.- Kn. Introducimos los elementos
e1= (1,0, . . . ,0), e2= (0,1,0, . . . ,0), . . . , en= (0, . . . ,0,1).
{e1, e2, . . . , en}engendraV. En efecto sea (α1, . . . , αn)∈Kn, se tiene
α1, . . . , αn) = n X
I.1 Preliminares 5 10.- Ejercicio.-Mostrar que
<{t→ti}i≥0>=P y Pn=<{t→ti}ni=0> 11.- Sean U1, U2, . . . , Un subespacios vectoriales deV, se denota
U1+U2+· · ·+Un
elsubespacio engendrado por
n [
i=1 Ui.
Ejercicio.-Mostrar que los elementos de
n X
i=1
son aqu´ellos deV que se escriben bajo la forma
v=
n X
i=1
ui, ui∈U.
Definici´on I.1.7.- Se dice que la familia{v1, . . . , vm} deV eslinealmente dependiente si y solamente
si existenα1, α2, . . . , αn ∈Kno todos nulos, tales que n X
i=1
αivi= 0.
Si {v1, . . . , vm} no es linealmente dependiente, se dice que es linealmente independiente; es decir,
{v1, . . . , vm} es linealmente independiente si y solamente si n
X
i=1
αivi= 0⇒α1=α2=· · ·=αm= 0.
Se dice que∅ 6=A⊂V, no necesariamente finito, eslinealmente dependiente, si existe{v1, . . . , vm} ⊂A
linealmente dependiente.
Se dice que ∅ 6=A ⊂ V, no necesariamente finito, eslinealmente independiente si toda familia finita
{v1, . . . , vm} ⊂Aes linealmente independiente. Se conviene que∅ es linealmente independiente.
Ejemplos
12.- A={0}, entonces Aes linealmente dependiente.
13.- Los vectores ei,i= 1, . . . , n deKn definidos en el ejemplo 9, forman una familia linealmente
indepen-diente.
14.- Sea V 6={0} un espacio vectorial, 0 =6 x∈V, entonces {x} es linealmente independiente. En efecto, utilizando la proposici´on (I.1.3), punto 5, se tieneαx= 0⇒α= 0.
15.- SeaP el espacio de las funciones polinomiales reales.
Ejercicio.-Mostrar que el conjunto
A={t7→ti}i≥0 es una familia linealmente independiente deP.
Definici´on I.1.8.-Se dice queB⊂V es unabasedeV espacio vectorial si y solamente siB es linealmente independiente yB engendraV.
Ejemplos
16.- V =K, sea α∈K, conα6= 0, entonces{α} es una base deK. 17.- V =Kn. El conjunto{e1, e2, . . . , e
n}es una base deKn.
18.- {t7→ti
}n
Proposici´on I.1.9.- El subconjuntoxii∈I del espacio vectorialV es una base deV, si y solamente si todo
elementov∈V se escribe de manera ´unica bajo la forma
v= X
sumaf inita
αivi, αi ∈K.
Demostraci´on.-En los ejercicios propuestos de la pr´actica.
Aplicaci´on a los Sistemas Lineales
a11ξ1 + a12ξ2 + · · · + a1mξm = 0
..
. ...
an1ξ1 + an2ξ2 + · · · + anmξm = 0
(I.1.2)
Planteando
a1=(a11, a21, . . . , an1)∈Kn,
.. .
am=(a1m, a2m, . . . , anm)∈Kn,
b=(b1, b2, . . . , bn)∈Kn.
El sistema (I.1.2) es equivalente a resolverξ1a1+ξ2a2+· · ·+ξmam=b. Por consiguiente:
i) El sistema (I.1.2) tiene una soluci´on, si y solamente sib∈<{a1, . . . , am}>.
I.2 Espacios de Generaci´on Finita 7
I.2 Espacios de Generaci´
on Finita
Se dice que el espacio vectorialV es degeneraci´on finitasi posee unsistema de generadoresfinito, es decir si existev1, v2, . . . , vn∈V, tales que todov∈V, se escribe como
v=
n X
i=1
αivi, αi∈K.
Ejemplos
1.- Kn es de generaci´on finita, porque es engendrado por
{e1, e2, . . . , en}.
2.- El espacioP de las funciones polinomiales no es de generaci´on finita. Esto se ver´a m´as adelante. 3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V ×W es de generaci´on
finita.
En este par´agrafo se ver´a como resultado principal que los espacios vectoriales de generaci´on finita tienen bases finitas, adem´as que todas las bases de un espacio vectorial de generaci´on finita tienen el mismo n´umero de elementos.
Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generaci´on finita. Sea Gr =
{y1, y2, . . . , yr} un sistema de generadores deV. SeaL={x1, . . . , xs}un subconjunto linealmente
indepen-diente enV. Entonces: i)r≥s;
ii) Existen(r−s)elementosyis+1, yis+2, . . . , yir deGrtales que
{x1, . . . , xs, yis+1, yis+2, . . . , yir}engendraV.
Demostraci´on.-Por inducci´on sobres, dondeses el n´umero de elementos deL. Paras= 0, el enunciado es cierto de manera trivial.
Supongamos cierto el teorema paras−1, cons >0. A demostrar que el teorema es cierto paras. Se utiliza la hip´otesis de inducci´on paraL′=
{x1, x2, . . . , xs−1}, obteniendo: i)r≥(s−1),
ii) existenyis, yis+1, . . . , yir enGrtales que
{x1, . . . , xs−1, yis, yis+1, . . . , yir}engendraV.
Si es necesario renumerar losyi, se puede suponer queyij =yj, es decir
{x1, . . . , xs−1, ys, . . . , yr}engendraV.
Por lo tanto, el elementoxs se puede escribir como combinaci´on lineal de
x1, . . . , xs−1, ys, . . . , yr
xs= s−1
X
i=1 αixi+
r X
j=s
βjyj,
losβj no son todos nulos, sino L′ ser´ıa linealmente dependiente.
De ah´ı, se deduce quer≥s, existe unj, conβj 6= 0. Si es necesario renumerar losyj, se puede suponer
queβs6= 0. De donde
xs= s−1
X
i=1
αixi+βsys+ r X
j=s+1
βjyj. (I.2.1)
El siguiente paso, es mostrar que{x1, . . . , xs, ys+1, . . . , yr}engendraV. Seav∈V, por hip´otesis de inducci´on,
se puede escribir
v=
s−1
X
i=1
γixi+δsys+ r X
i=s+1
por otro lado, se tiene a partir de (I.2.1)
ys= s−1
X
i=1
−αi
βs
xi+
1 βs
xs+ r X
j=s+1
−βj
βs
yj,
introduciendo esta ´ultima expresi´on en (I.2.2) y efectuando los c´alculos necesarios se llega a
v=
s X
i=1 α′ixi+
r X
i=s+1 δ′jyj.
Corolario I.2.2.- Sea V un espacio vectorial de generaci´on finita y Gr un sistema de generadores de V. Entonces todo subconjunto linealmente independiente contiene a lo mas#(Gr).
Consecuencia.-Sea V un espacio vectorial, se supone queV contiene un subconjunto infinito linealmente independiente, entoncesV no es de generaci´on finita. Por lo tantoP, no es de generaci´on finita.
Corolario I.2.3.-SeaV espacio vectorial de generaci´on finita yLun subconjunto linealmente independiente deV. Entonces se puede completarLen un sistema finito de generadores deV.
Teorema I.2.4.- Un espacio vectorial de generaci´on finita, posee bases finitas. M´as precisamente, de todo sistema de generaci´on finita, se puede extraer una base; es decir si Gr⊂V engendraV, existe una base B deV conB ⊂Gr. Si el espacio esV ={0}, se conviente que∅ es la base deV.
Demostraci´on.- Supongamos que V 6={0}, sino el teorema est´a mostrado. Sea Gr={y1, y2, . . . , yr} un
sistema de generadores deV. Se eligeB⊂Grtal queB es linealmente independiente yB es maximal para esta propiedad; es decir, siB&B′
⊂Gr, entonces B’ es linealmente dependiente. La existencia del conjunto B est´a asegurada por que todo subconjunto linealmente enV cuenta con un n´umero finito de elementos y adem´as este numero est´a acotado porr, el n´umero de generadores deGr.
Afirmamos que B es una base, con lo que el teorema estar´ıa demostrado. En efecto,B es linealmente independiente por construcci´on. Solo queda mostrar queB engendraV. Si es necesario renumerar, se puede suponer que
B={y1, y2, . . . , ys}.
Sis=r, se tieneB=Gry por consiguienteB es un sistema de generadores.
Si s < r, por maximilidad de B, el subconjunto {y1, y2, . . . , ys, yi}, para i = s+ 1, . . . , r es linealmente
dependiente. Por lo tanto para cadai=s+ 1, . . . , r, existenα1, α2, . . . , αn yβ ∈Kno todos nulos, tales que s
X
k=1
αkyk+βyi= 0.
Se observa queβ 6= 0, por que sinoB no ser´ıa linealmente independiente. Por consiguiente
yi= s X
k=1
−αk
β yk, s < i≤r. (I.2.3)
Por otro lado, seav∈V, comoGres un sistema de generadores, se tiene tambi´en
v=
s X
k=1 γkyk+
r X
i=s+1
γiyi, γj ∈K.
Introduciendo (I.2.3), en cada uno de losyi cons < i≤r, se tiene finalmente
v=
s X
k=1
I.2 Espacios de Generaci´on Finita 9
Proposici´on I.2.5.- Sea V un espacio vectorial de generaci´on finita. Entonces, todas las bases de B son finitas y comportan el mismo n´umero de elementos. Este n´umero se llamadimensi´ondeV y se escribe
dimKV, dim(V), dimV.
Se tiene quedimV es el n´umero m´aximo, respectivamente m´ınimo, de elementos de un subconjunto lineal-mente independiente enV, respectivamente que engendraV.
Demostraci´on.-a) Por el corolario I.2.2 del teorema de Grassman, todas las bases deV son finitas. b) Sean{v1, v2, . . . , vn} y{v1′, v2′, . . . , vm′ }dos bases deV. Utilizando el teorema de Grassmann con:
Gr={v1, v2, . . . , vn}, L={v1′, v2′, . . . , vm′ } ⇒m≤n,
Gr={v′1, v2′, . . . , vm′ }, L={v1, v2, . . . , vn} ⇒m≤m.
c) Se denota dla dimensi´on de V. SeaLun subconjunto linealmente independiente de V. Por el teorema de Grassmann, conGruna base yL, se tiene
d= #(Gr)≥#(L).
d) SeaGrun subconjunto finito deV que engendra V yBuna base deV, por el teorema de Grassmann, se tiene
#(GR)≥#(B) =d.
Ejemplos
4.- dim(Kn) =n.
5.- dim(Pn) =n+ 1.
6.- Ejercicio.- Mostrar que siV yW son de generaci´on finita, entoncesV ×W es de generaci´on finita y adem´as
dim(V ×W) = dim(V) + dim(W).
Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ de elementos, o siV no es de generaci´on finita, se dice que V es degeneraci´on infinita.
Proposici´on I.2.6.-Sea V de dimensi´ondyv1, v2, . . . , vn nelementos de V, entonces:
i Sin > d,{v1, v2, . . . , vn}es linealmente dependiente.
ii Sin < d,{v1, v2, . . . , vn}no engendraV.
iii Sin=d, los enunciados siguientes son equivalentes: a) {v1, v2, . . . , vn} es linealmente independiente,
b) {v1, v2, . . . , vn} engendraV,
c) {v1, v2, . . . , vn} es una base deV.
Demostraci´on.-Los incisos i,ii comoEjercicio. Mostremos el inciso iii).
a)⇒b) Sea B = {x1, . . . , xd} una base de B, utilizando Grassman con Gr =B y L ={v1, v2, . . . , vn}, se
tiene que{v1, v2, . . . , vn}engendraV.
b)⇒c) De todo sistema de generadores se puede extraer una base.
c)⇒a) trivial.
Proposici´on I.2.7.- Sea V un espacio vectorial de generaci´on finita. Entonces, todo conjunto linealmente independiente puede ser completado en una base deV.
Demostraci´on.- Sea L ={x1, . . . , xs} un subconjunto linealmente independiente. B ={y1, . . . , yd} una
base deV. Por el teorema de Grassmann, si es necesario renumerar los yi, el subconjunto
{x1, . . . , xs, ys+1, . . . , yd}
Proposici´on I.2.8.- Sea V de generaci´on finita y U un subespacio de V. Entonces, U es de generaci´on finita y se tienedim(U)≤dim(V). Adem´as
dim(U) = dim(V) ⇐⇒ U =V.
Demostraci´on.-Se observa que un subconjunto linealmente independiente deU es tambi´en un subconjunto linealmente independiente deV.
Los subconjuntos linealmente independientes deV, tienen a lo sumo dim(V) elementos. Por lo tanto, los subconjuntos linealmente independientes deU son finitos con a lo m´as dim(V) elementos.
Se eligeB={u1, u2, . . . , un}un subconjunto linealmente independiente maximal; es decir, siB&B′⊂
U, entoncesB′ es linealmente dependiente.
Afirmamos que B es una base de U, con lo que estar´ıa demostrado que U es de generaci´on finita y dim(U)≤dim(V). En efecto, seau∈U, a demostrar que existeα1, . . . , αn∈K, tales que
u=
n X
i=1 αiui.
Siu∈ {u1, u2, . . . , un}est´a claro.
Siu6∈ {u1, u2, . . . , un}, se consideraB′={u1, u2, . . . , un, u}, por maximilidadB′es linealmente dependiente.
Por consiguiente, existenβ1, . . . , βn, β no todos nulos tales que
0 =
n X
i=1
βiui+βu.
beta6= 0, sinoB ser´ıa linealmente dependiente, entonces
u=
n X
i=1
−βi
β ui.
Falta probar que dim(U) = dim(V)⇒ U =V. Sea B ={u1, . . . , un} una base de U, es por lo tanto un
subconjunto linealmente independiente deU y por consiguiente deV, por la proposicion I.2.6 inciso iii),B
es una base deV. La implicaci´on del otro sentido es trivial
Proposici´on I.2.9.- (F´ormula de Dimensi´on).- Sea V de generaci´on finita. P y Q subespacios de V. Entonces
dim(P+Q) = dim(P) + dim(Q)−dim(P∩Q).
Demostraci´on.-En los ejercicios de la Pr´actica.
Ejemplo
7.- La intersecci´on de dos planos vectoriales diferentes enR3 es una recta vectorial. En efecto, se tiene: P+Q=R3, porque sinoP =Q,
I.3 Aplicaciones Lineales 11
I.3 Aplicaciones Lineales
Definici´on I.3.1.- SeanV yW dos espacios vectoriales. Se dice que la aplicaci´on f :V →W
eslineal, ohomomorfismo de espacios vectoriales, si
f(v1+v2) =f(v1) +f(v2), ∀v1, v2∈V; f(αv) =αf(v), ∀α∈K, ∀v∈V.
Remarca.-f(0) = 0, en efectof(0) =f(0 + 0) =f(0) +f(0).
Se denota por Hom(V, W) el conjunto de las aplicaciones lineales deV enW.
Proposici´on I.3.2.-Hom(V, W)es un espacio vectorial para las operaciones definidas por: (f+g)(v) =f(v) +g(v),
(αf)(v) =αf(v).
Demostraci´on.- Ejercicio.
Definici´on I.3.3.- Una aplicaci´on lineal biyectiva se llamaisomorfismo, una aplicaci´on linealf :V →V se llama endomorfismo, End(V) = Hom(V, V). Un endomorfismo biyectivo se llama automorfismo, Gl(V) ={automorfismos deV}.
Ejemplos y/o Ejercicios
1.- SeaU un subespacio deV espacio vectorial, entonces la inclusi´on U →V
u7→u es lineal.
2.- La aplicaci´on definida por
Kn
→Kn
(α1, . . . , αn)7→(α1, . . . , αp,0, . . . ,0) p≤n
es lineal.
3.- V =R2. Las siguientes aplicaciones, estudiadas en el curso de Geometr´ıa, son lineales: rotaci´on de centroO,
simetr´ıa de eje que pasa por 0, homotecia de centro 0.
4.- SiV =P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales: D:P → P
p7→p′
Dn :
P → P
p7→p(n)
5.- ConsideremosV =C0([0,1],R) ={f : [0,1]→Rcontinua}. Las siguientes aplicaciones son lineales:
C0([0,1],R)
→R
f 7→f(a), a∈[0,1] f 7→
Z 1
0
La aplicaci´onf → max
x∈[0,1]|f(x)| no es lineal. 6.- Consideremos el sistema
a11ξ1 + a12ξ2 + · · · + a1mξm = b1
..
. ...
an1ξ1 + an2ξ2 + · · · + anmξm = bn
(I.3.1)
Planteando
a1=(a11, a21, . . . , an1)∈Kn,
.. .
am=(a1m, a2m, . . . , anm)∈Kn,
b=(b1, b2, . . . , bn)∈Kn.
La escritura vectorial de (I.3.1) est´a dada porξ1a1+ξ2a2+· · ·+ξmam=b.
Se asocia a (I.3.1) la aplicaci´on lineal a:Km
→Km
(ξ1, . . . , ξm)7→ξ1a1+ξ2a2+· · ·+ξmam
Resolver el sistema (I.3.1) es equivalente a encontrarξ= (ξ1, . . . , ξm)∈Kmtal que
a(ξ) =b.
7.- Seaf :V →W un isomorfismo, entonces f−1:W
→V es lineal. En efecto
f−1(w1+w2) =f−1(f(v1) +f(v2)) =f−1(f(v1+v2)) =v1+v2=f−1(w1) +f−1(w2), f−1(αw) =f−1(αf(v)) =f−1(f(αv)) =αv=αf−1(w).
El resultado principal de este par´agrafo, est´a dado por: ”SiV yW son espacios vectoriales, {v1, . . . , vn}
una base de V, entonces para toda sucesi´on (w1, w2, . . . , wn) de elementos de W, existe exactamente una
aplicaci´on linealf :V →W tal quef(vi) =wi, parai= 1,2, . . . , n.
Definici´on I.3.4.- SeanP yQdos subespacios deV. SiP∩Q={0}, en lugar deP+Q, se escribeP⊕Q
suma directadeP yQ.
Proposici´on I.3.5.-Si P∩Q={0}, la aplicaci´on
P×Q→P⊕Q⊂V (x, y)7→x+y es un isomorfismo.
Demostraci´on.-Ejercicio.
Definici´on I.3.6.- SeanP yQdos subespacios deV. Se dice que P yQsonsuplementarios, o bienP es
suplementariodeQ, siV =P⊕Q.
Ejemplo
I.3 Aplicaciones Lineales 13 subespacios vectoriales del espacio de las funciones reales. Se tiene que
V =P⊕Q, dondeV es el espacio de las funciones reales. En efecto
p(t) =f(t) +f(−t)
2 +q(t) =
f(t)−f(−t)
2 yf(t) =p(t) +q(t).
se tiene queV =P⊕Q.
Proposici´on I.3.7.-SeaP ⊂V un subespacio vectorial deV espacio vectorial de dimensi´on finita, entonces existe al menos un suplementario deP.
Demostraci´on.-Sea{v1, . . . , vn} una base deP, la cual se la prolonga en
{v1, . . . , vn, vn+1, . . . , vd}base deV. Planteamos
Q=<{vn+1, . . . , vd}>,
Definici´on I.3.8.- (Vocabulario) Sea f : V → W una aplicaci´on lineal. Sea V1 un subespacio de V, entonces
f(V1) ={w∈W|∃v∈V1tal que f(v) =w}. SiV1=V, entoncesf(V) se llama laimagen def y se denota Im(f). SeaW1 un subespacio deW, entonces
f−1(W1) ={v∈V|f(v)∈W}. SiW1={0},f−1({0}) se llamanucleodef se denota ker(f).
Proposici´on I.3.9.- f(V1) y f−1(W1) de la definici´on precedente son subespacios vectoriales de V y W respectivamente.
Demostraci´on.- Ejercicio.
Proposici´on I.3.10.- Seaf :V →W lineal, entonces
f es sobreyectiva ⇐⇒ Im(f) =W, a)
f es inyectiva ⇐⇒ ker(f) ={0}, b)
f es biyectiva ⇐⇒ ker(f) ={0} yIm(f) =W. c)
Demostraci´on.-El punto a) es evidente. b)⇒Seav∈ker(f), entonces
f(v) = 0 =f(0)⇒v= 0.
⇐Seanv1 yv2tales quef(v1) =f(v2), por consiguiente f(v1−v2) = 0,
v1−v2∈ker(f)⇒v1−v2= 0 ⇒v1=v2.
c) Consecuencia directa de a) y b).
Teorema I.3.11.-F´ormula de Dimensi´on.-SeaV espacio vectorial de dimensi´on finita yf :V →W lineal. Entonces Im(f)es de generaci´on finita y se tiene
Demostraci´on.- a) Sea {v1. . . , vm} una base deV, entonces {f(v1), . . . , f(vm)} engendra Im(f), por lo
que Im(f) es de generaci´on finita.
En efecto, seaw∈Im(f), por definici´on existev∈V tal quef(v) =w. Se tiene
v=
m X
i=1
αivi ⇒f(v) = m X
i=1
αif(vi).
b)Sea{v1, . . . , vn}una base de ker(f) que se completa a
{v1, . . . , vn, vn+1, . . . , vm}base de V.
Afirmamos que B = {f(vn+), . . . , f(vm)} es una base de Im(f), con lo que quedar´ıa demostrada la
f´ormula de dimensi´on.
En efecto,Bengendra Im(f), por a) se tiene que{f(v1), . . . , f(vm)}engendra Im(f), ahora bienf(v1) =
· · ·=f(vn) = 0.
B es linealmente independiente, seanαn+1, . . . , αm∈Ktales que m
X
i=n+1
αif(vi) = 0,
por consiguiente
0 =f
m X
i=n+1 αivi
!
⇒
m X
i=n+1
αivi∈ker(f).
Por lo tantov∈ker(f), tambi´en se escribe como
n X
i=1
βivi. De donde
n X
i=1 βivi=
m X
i=n+1 αivi,
por independencia lineal, se tiene necesariamente que losαi= 0.
Corolario I.3.12.- Seaf :V →W lineal con V yW de dimensi´on finita, entonces: a) SidimV >dimW, entoncesf no es inyectiva.
b) SidimV <dimW, entonces f no es sobrectiva.
c) SidimV = dimW, las tres condiciones siguientes son equivalentes: i)f es inyectiva,
ii)f es sobreyectiva, iii)f es biyectiva.
Demostraci´on.-Se utiliza la f´ormula de dimensi´on.
a) dim ker(f) = dimV −dim Im(f)≥dimV −dimW >0, de donde ker(f)6={0}, por consiguiente f no es inyectiva.
b)dim Im(f) = dimV−dim ker(f)≤dimV <dimW, de donde Im(f)6=W, por lo tantofno es sobreyectiva. c) i)⇐⇒ii)
dim ker(f) = 0 ⇐⇒ dimW = dim Im(f) ⇐⇒ f es sobreyectiva.
Por lo tanto una funci´on inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostrada
i)⇒iii).
Remarca.-El corolario I.3.12 es falso si la dimensi´on de los espacios no es finita. ConsideremosPel espacio de las funciones polinomiales reales. La aplicaci´on
I.3 Aplicaciones Lineales 15 es sobreyectiva, pero no inyectiva.
Teorema I.3.13.- Fundamental.- Sea {v1, . . . , vn} una base de V espacio vectorial. Entonces, para toda
sucesi´onw1, . . . , wn de elementos deW, existe exactamente una aplicaci´on linealf :V →W, tal que
f(vi) =wi, i= 1, . . . , n.
“Una aplicaci´on lineal es enteramente determinada por el comportamiento de la imagen de su base”.
Demostraci´on.-a) Existencia.
Para todov∈V, se tiene una escritura ´unicav=
n X
i=1
αivi,αi∈K. Se plantea
f(v) =
n X
i=1 αiwi,
funci´on bien determinada por que losαi son ´unicos. Por construcci´on se tienef(vi) =wipara i= 1, . . . , n.
Falta ver quef es lineal, seanv yv′ dos elementos de V, entonces
v=
n X
i=1
αivi, v′= n X
i=1
α′ivi ⇒v+v′= n X
i=1
(αi+α′i)vi.
Por consiguiente:
f(v) =
n X
i=1
αiwi f(v′) = n X
i=1
α′iwi f(v+v′) = n X
i=1
(αi+α′i)vi.
Se constata quef(v+v′) =f(v) +f(v′), lo mismo paraf(αv) =αf(v).
b) Unicidad.
Seanf yg aplicaciones lineales deV enW, tales quef(vi) =g(vi) parai= 1, . . . , n. Se tiene
f(v) =f(
n X
i=1
αivi) = n X
i=1
αif(vi) = n X
i=1
αig(vi) =g( n X
i=1
αivi) =g(v).
Proposici´on I.3.14.- SiV yW dos espacios de dimensi´on finita. Entonces,V yW son isomorfos, es decir existe un isomorfismoV →W, si y solamente si dimV = dimW.
Demostraci´on.- Si V y W son isomorfos, entonces dimV = dimW, caracter´ıstica de la f´ormula de di-mensi´on.
Si dimV = dimW, sean{v1, . . . , vn}y{w1, . . . , wn} bases deV yW respectivamente. Por el teorema
fundamental existe f : V → W lineal tal que f(vi) = wi. Utilizando la demostraci´on de la proposici´on
f´ormula de dimensi´on para aplicaciones lineales, se constata que Im f =W, por consiguiente la aplicaci´on es biyectiva, consecuencia del corolario I.3.12.
Proposici´on I.3.15.- Sea{v1, . . . , vn} una base deV, entonces la aplicaci´on
Hom(V, W)−→ϕ W ×W× · · · ×W =Wn f 7→(f(v1), f(v2), . . . , f(vn))
es un isomorfismo de espacios vectoriales.
Demostraci´on.-ϕes lineal:
ϕ(αf) = ((αf)(v1), . . . ,(αf)(vn))
=α(f(v1), . . . , f(vn)) =αϕ(f),
ϕ(f+g) = ((f+g)(v1), . . . ,(f+g)(vn))
= (f(v1) +g(v1), . . . , f(vn) +g(vn))
El teorema fundamental indicar´a queϕes biyectiva.
Aplicaci´
on a los Sistemas Lineales
Consideremos el sistema denecuaciones anincognitas
a11ξ1 + a12ξ2 + · · · + a1nξn = b1
..
. ...
an1ξ1 + an2ξ2 + · · · + annξn = b2
(I.3.2)
Proposici´on I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2). i)∀(bi)∈K, existe a lo m´as una soluci´on del sistema (I.3.2).
ii)∀(bi)∈K, existe al menos una soluci´on del sistema (I.3.2).
iii)∀(bi)∈K, existe exactamente una soluci´on del sistema (I.3.2).
iv) El sistema homogeneo asociado a (I.3.2) admite(ξi= 0)como ´unica soluci´on.
Demostraci´on.- Al sistema (I.3.2), se asocia la aplicaci´on linel a, ver ejemplo 6 de este par´agrafo. Por consiguiente
Resolver (I.3.2) ⇐⇒ Encontrar todos losξ∈Kn tal quea(ξ) =b.
Es decir encontrar,a−1({b}). Los enunciados de la proposici´on se traducen i)∀b∈Kn,a−1(
{b}) comporta a lo m´as un elemento ⇐⇒ aes inyectiva. ii)∀b∈Kn,a−1(
{b}) comporta al menos un elemento ⇐⇒ aes sobreyectiva. iii)∀b∈Kn,a−1(
{b}) comporta exactamente un elemento ⇐⇒ aes biyectiva. iv)a−1(
{0}) ={0} ⇐⇒ kera={0}.
I.4 Anillo de Homomorfismos 17
I.4 Anillo de Homomorfismos
Proposici´on I.4.1.- Seanf ∈Hom(U, V)yg ∈Hom(V, W), entoncesg◦f ∈Hom(U, W), dondeU, V, W son espacios vectoriales.
Demostraci´on.-Se tiene:
g◦f(u1+u2) =g(f(u1+u2)) =g(f(u1) +f(u2))
=g(f(u1)) +g((u2)) =f ◦g(u1) +f ◦g(u2), g◦f(αu) =g(f(αu))
=g(α(f(u))
=αg(f(u)) =αg◦f(u).
Sobre End(V), se tiene unaadicion
(f+g)(v) =f(v) +g(v), y una“ multiplicaci´on”que es la composici´on de aplicaciones
(g◦f)(v) =g(f(v)).
Estas dos leyes de composici´on interna o operaciones verifican los axiomas siguientes:
I.- Adici´on
i la adici´on es asociativa; ii la adici´on es conmutativa;
iii existe un elemento cero 0 tal que 0 +f =f, para todof;
iv Para todof ∈End(V), existe un opuesto (−f), tal que f+ (−f) = 0.
II.- Multiplicaci´on
i la multiplicaci´on es asociativa;
ii existe un uno 1, tal que 1◦f =f◦1 =f, para todof. 1 =id:V →V
v7→v
I.- Distributividad
i f◦(g+h) =f◦g+f◦h; ii (f+g)◦h=f◦h+g◦h.
Un conjuntoAcon una adici´on y una multiplicaci´on que satisface los tres sistemas de axiomas descritos, se llamaanillo.
Se dice queA es unaanillo conmutativo, si Aes una anillo cuya multiplicaci´on es conmutativa. Por lo tanto, End(V) con la adici´on y la composici´on de aplicaciones es un anillo.
Ejemplos
1.- Zcon la adici´on y la multiplicaci´on usual es un anillo conmutativo. 2.- Un cuerpo (conmutativo) es un anillo (conmutativo).
3.- End(V) no es un anillo conmutativo si dimV ≥ 2. En efecto, sea {v1, . . . , vn} una base de V y
consideremos los endomorfismos definidos por: f :V →W
v17→αv1 v27→βv2
vi 7→vi, i≥3;
g:V →W v17→v1+v2 v27→v2
entonces
g◦f :V →W
v17→αv1+βv2 v27→βv2
vi7→vi, i≥3;
f ◦g:→W
v17→α(v1+v2) v27→βv2
vi7→vi, i≥3;
Siα6=β, se tienef ◦g(v1)6=g◦f(v1) y por consiguientef◦g6=g◦f.
Definici´on I.4.2.- SeaAyB dos anillos. Una aplicaci´onf :A→B es unhomomorfismo de anillossi i f(a1+a2) =f(a1) +f(a2),
ii f(a1a2) =f(a1)f(a2), iii f(1) = 1.
Definici´on I.4.3.-SeaAun anillo, se dice queI⊂Adiferente del conjunto vacio es unideal por izquierda (por derecha), si
i ∀x, y∈I⇒x+y∈I,
ii x∈I, a∈A⇒ax∈I (xa∈I).
Grupos
UngrupoGes un conjunto dotado de una ley de composici´on interna o operaci´on G×G→G
(g1, g2)7→g1∗g2 tal que
i (g1∗g2)∗g3=g1∗(g2∗g3),∀g1, g2, g3∈G(Asociatividad); ii Existe unelemento neutroetal quee∗g=g∗e=g,∀g∈G; iii Todo elementog∈Gposee uninversog′ tal que
g∗g′ =g′∗g=e. Se dice queGun grupo esconmutativooabeliano si ademas
g1∗g2=g2∗g1, ∀g1, g2∈G.
Notaci´on Multiplicativa
SiGes un grupo y la operaci´on∗ se la denota por·, es decir G×G→G (g1, g2)7→g1·g2
el elemento neutro (uno) se denota por 1 y el inverso se denota porg−1.
Notaci´on Aditiva (Reservada a los grupos abelianos) SiGes un grupo y la operaci´on∗ se la denota por +, es decir
G×G→G (g1, g2)7→g1+g2
el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por−g.
Ejemplos
4.- (Z,adici´on) es un grupo abeliano. 5.- (Z,multiplicaci´on) no es grupo.
I.4 Anillo de Homomorfismos 19 7.- SeaE un conjunto.
SE={f :E→E biyectiva}
con la composici´on de aplicaciones es un grupo no conmutativo si #(E)≥3. 8.- SeaV un espacio vectorial, elgrupo lineal
Gl(V) ={f :V →V automorfismo} con la composici´on de aplicaciones es un grupo no conmutativo.
Definici´on I.4.4.- Sean (G,∗) y (H, ⋆) dos grupos. Un homomorfismo de gruposes una aplicaci´on tal que
f(g1∗g2) =f(g1)⋆ f(g2).
Ejemplo
9.- La aplicaci´on
(R,+)→(R− {0},·) x7→ex
I.5 Matriz de una Aplicaci´
on Lineal
SeaV un espacio vectorial y{v1, . . . , vn} una base deV, entonces existe un isomorfismo natural dado por
ϕ:V →Kn
vi 7→ei, i= 1, . . . , n
donde{e1, . . . , en} es la base can´onica deKn. Por consiguiente, si v= n X
i=1
αivi, se tiene
ϕ(v) = (α1, α2, . . . , αn)∈Kn.
El elemento deK,αi, se llama lai-sima componentedevrespecto a la base{v1, . . . , vn}yv∈V puede
escribirse en forma de componentes respecto a la base {v1, . . . , vn}como
v= (α1 α2 · · · αn) o bienv=
α1 α2 .. . αn
;
la segunda escritura envector columnaser´a muy util para lo que sigue en el curso.
UnamatrizAden×ma coeficientes enKes un tablero denfilas ymcolumnas de elementos deK
A=
a11 a12 · · · a1m
a21 a2m
..
. ...
an1 an2 · · · anm
.
El conjunto de las matricesn×ma coeficientes en K, se lo denota porMn,m(K).
SeanV yW dos espacios de dimensi´onmynrespectivamente,
{v1, . . . , vm}una base de V,
{w1, . . . , wn}una base de W;
seaf :V →W lineal, se tiene para cada uno de los elementos de la base deV
f(vj) = n X
i=1
aijwi=
a1j
.. . anj
j= 1, . . . , m;
donde losaij∈K. Por consiguiente, se puede asociar af y a las bases{v1, . . . , vm}y{w1, . . . , wn}, la matriz
Mf =
a11 a12 · · · a1m
a21 a2m
..
. ...
an1 an2 · · · anm
∈Mn,m(K)
que se llamala matriz def respecto a las bases{v1, . . . , vm}y{w1, . . . , wn}. Se observa inmediatamente
I.5 Matriz de una Aplicaci´on Lineal 21
Receta.-Para construir la matriz def respecto a las bases{vi}y{wj} disponer en vectores columnas las
componentes def(vj) respecto a la base{wj}.
Remarca.-Mn,m(K) est´a en biyecci´on conKnm, pero con las nociones de fila y columna.
Proposici´on I.5.1.-Resultado principal.-Sea{vi}mi=1una base deV y{wj}ni=1una base deW. La aplicaci´on
Hom(V, W)→Mn,m(K)
f 7→Mf respecto a las bases en cuesti´on,
es biyectiva.
Demostraci´on.-Recordamos que
Hom(V, W)→Wn
f 7→(f(v1), . . . , f(vn))
es un isomorfismo de espacios vectoriales y que
W →Kn
w=
n X
i=1 wi 7→
α1 .. . αn
es otro isomorfismo. De esta manera
Hom(V, W) −→ Wn −→ Knm∼=M
n,m(K)
f 7→(f(v1), . . . , f(vn))7→
a11 a12 · · · a1m
a21 a2m
..
. ...
an1 an2 · · · anm
es biyectiva.
Ejemplos
1.- Consideremos la proyecci´on del plano R2 sobre el ejex. La matriz de la proyecci´on respecto a la base can´onica est´a dada por
e1→e1
e2→e2 ⇒Mf =
1 0 0 0
2.- Ejercicio.-Determinar las matrices respecto a la base can´onica de las aplicaciones lineales del curso de Geometr´ıa, es decir: rotaciones, homotecias, simetr´ıas, similitudes, etc.
Transcripci´
on de las Operaciones Lineales en T´
erminos de Matriz
Una vez determinada la relaci´on existente entre el conjunto de las matrices y el espacio de los homomorfismos es transcribir las operaciones de las aplicaciones lineales en t´erminos de operaciones de matrices.
SeanV espacio vectorial de base{v1, . . . , vm}yW espacio vectorial de base{w1, . . . , wn}. Consideremos
las aplicaciones lineales
f, g:V →W, cuyas matrices respecto a las bases en cuesti´on son
A= (aij), B= (bij)
Proposici´on I.5.2.-Sea C= (cij)la matriz def+g respecto a las mismas bases en cuesti´on, entonces
C=A+B cij =aij+bij.
SeaD la matriz deαf respecto a las bases{vi} y{wj}, entonces
D=αA dij=αdij
Demostraci´on.- Ejercicio.
Corolario I.5.3.-Se tiene
Hom(V, W)→Mn,m(K)
f 7→Mf respecto a las bases{vi} y{wj},
es un isomorfismo de espacios vectoriales, con la adici´on y la multiplicaci´on por escalares. El siguiente paso es determinar la matriz de la composici´on de aplicaciones lineales. Sean: U espacio vectorial con{u1, . . . , ul} base;
V espacio vectorial con{v1, . . . , vm}base;
W espacio vectorial con{w1, . . . , wn}base;
los homomorfismos:
f :U →V g:V →W. ¿Cual es la matriz deg◦f :U →W respecto a las bases{ui} y{wj}.?
Sean:
A= (aik) la matriz def respecto a las bases{ui}y{vk};
B= (bkj) la matriz degrespecto a las bases{vk} y{wj};
C= (cij) la matriz deg◦f respecto a las bases{ui}y{wj}.
Por lo tanto
g◦f(ui) = n X
i=1 cjiwj
||
g(f(ui)) =g m X
k=1 akivk
!
=
m X
k=1
akig(vk)
=
m X
k=1 aki
n X
j=1 bjkwj
=
n X
j=1
m X
k=1 bjkaki
!
wj,
=⇒cji= m X
k=1 bjkaki.
Por consiguienteC es la matriz obtenida de multiplicarBA, es decir C=BA.
Por el uso frecuente de algunas matrices, vale la pena citarlas:
I=Ir=
1 0 · · · 0
0 1 0
. ..
0 1
I.5 Matriz de una Aplicaci´on Lineal 23 Se tieneIrA=A,∀A∈Mr,d(K); yBIr=B,∀B∈Ms,r(K). Ir se llama lamatriz identidad.
0∈Mp,q(K) es la matriz cuyos coeficientes son nulos.
Corolario I.5.4.-Mn,n(K)con la adici´on y la multiplicaci´on es un anillo (no conmutativo sin≥2). Adem´as
la aplicaci´on (dimV =n):
End(V)→Mn,n(K)
f 7→Mf
es un isomorfismo de anillos.
Para el espacioV =Kn con la base can´onica, se dispone de un isomorfismo can´onico
Gl(Kn)
−→Gl(n,K) ={A∈Mn,n(K)|Aes inversible}
∩
End(Kn)
→Mn,n(K)
f 7→Mf matriz def respecto a la base can´onica deV.
Demostraci´on.- Ejercicio.
Remarca.- Seaf :V →W lineal, A= (aij) la matriz de f respecto a las bases {vi}y {wj}. Seav ∈V,
¿Como calcular f(v)? Se escribev=
n X
i=1
, entonces
f(v) =
m X
i=1
αjf(vj) = m X
j=1 αj
n X
i=1 aijwi
!
=
n X
i=1
m X
j=1 aijαj
wi,
lo que en notaci´on de componentes se traduce a
β1 .. . βn
=α1
a11 .. . an1
+· · ·+αm
a1m
.. . anm
=
a11 · · · a1m
..
. ...
an1 · · · anm
α1 .. . αm
I.6 Cambio de Base
Sean:
V espacio vectorial,{v1, . . . , vm},{v′1, . . . , v′m} dos bases deV;
W espacio vectorial,{w1, . . . , wn},{w′1, . . . , w′n}dos bases deW;
Se tiene
Hom(V, W)−→∼ Mn,m(K)
f 7→A(f): matriz def respecto a{vi}y{wj},
Hom(V, W)−→∼ Mn,m(K)
f 7→A′(f): matriz def respecto a{v′i}y{wj′},
Programa.-Explicitar la aplicaci´on
Mn,m(K)→Mn,m(K)
A(f)7→A′(f).
Noci´
on de Matriz de Pasaje
Sean{v1, . . . , vm}y{v′1, . . . , vm′ } dos bases deV. Se escribevj= m X
i=1
mijv′i, M = (mij)∈Mm,m(K),
se llama lamatriz de pasajede{vi} a{v′i}.
M es tambi´en la matriz de la aplicaci´on identidad deV respecto a{vi}en la fuente y{vi′}en el destino.
De la misma manera se defineN = (nij)∈Mn,n por
wj= n X
i=1 nijw′i,
la matriz de pasaje de{wj} a{w′j}.
Proposici´on I.6.1.-Sean{vi},{vi′} y{vi′′}, tres bases deV espacio vectorial. Se denota
M = (mij)la matriz de pasaje de{vi}a {vi′},
M′= (m′
ij)la matriz de pasaje de{vi′} a{v′′i}.
EntoncesM′M es la matriz de pasaje de
{vi} a{vi′′}.
Demostraci´on.-Se tiene:
vj = m X
k=1
mkjvk′, vk′ = m X
i=1 m′ikvi′′,
obteniendo as´ı
vj= m X
k=1 mkj
m X
i=1 m′ikv′′i
!
,
de donde
vj= m X
i=1
m X
k=1
m′ikmkj !
| {z }
m′′ij
I.6 Cambio de Base 25
por lo tantoM′′=M′M.
Proposici´on I.6.2.- SeaA∈Mm,m(K), si existeB∈Mm,m(K)tal queAB=I o BA=I, entoncesAes
una matriz inversible de inversaB.
Demostraci´on.- Ejercicio.
Proposici´on I.6.3.-Para las matrices de pasaje se tiene: a) Las matrices de pasaje son inversibles.
b) N yM como antes, se tiene
A(f) =N−1A′(f)M.
Demostraci´on.-a) Se utiliza la proposici´on I.6.1 conM′ la matriz de pasaje de
{v′
i} a{vi}. obteniendo de
esta maneraM′M =I, por la proposici´on I.6.2 se tiene que M es inversible.
b) recordemos:
vj = m X
k=1 mkjvk′,
wj′ = n X
i=1 ˜
nijwi con (˜nij) =N−1,
f(vj) = n X
i=1
aijwi conA(f) = (aij),
f(v′
j) = n X
i=1 a′
ijwi conA′(f) = (a′ij).
Para mostrar el punto b), es suficiente mostrar que
aij = (N−1A′M)ij
Se tiene:
f(vj) =f X
k
mkjv′k !
=X
k
mkjf(vk′)
=X
k
mkj X
l
a′lkw′l
!
=X
l X
k
a′lkmkj !
| {z }
(AM)lj=clj
w′l
=X
l
clj X
i
˜ nilwi
!
=X
i X
i
˜ nilclj
!
| {z }
(N−1A′M)
ij
wi.
Por lo tantoaij = (N−1A′M)ij.
Corolario I.6.4.- Sea V espacio vectorial con las bases {v1, . . . , vm} y {v′1, . . . , v′m}. Para f ∈ End(V),
se denotaA(f), respectivamente A′(f), la matriz def en la base {v1, . . . , v
m}, respectivamente en la base
{v′
1, . . . , v′m}. Se denotaM la matriz de pasaje de{vi} a{v′i}. Entonces
A(f) =M−1A′(f)M.
Aplicaci´
on al Rango de una Matriz
Proposici´on I.6.6.- Sea f :V →W lineal de rango r. Entonces existe una base{v1, . . . , vm}de V y una
base{w1, . . . , wn} deW tales que
f(vi) =wi parai= 1, . . . , r;
f(vi) = 0 parai=r+ 1, . . . , m.
Dicho de otra forma, la matriz def respecto a{vi}y{wj} es de la forma
Ir 0
0 0
.
Demostraci´on.-La f´ormula de dimensi´on para aplicaciones lineales da dimV
| {z } m
= dim Im(f)
| {z }
r
+ dim ker(f)
| {z }
m−r
.
Se elije una base{vr+1, . . . , vm}base de ker(f), se completa en
{v1, . . . , vr, vr+1, . . . , vm} base de V. Se toma como base de Im(f){f(v1), . . . , f(vr)} y luego se completa
esta base en una base deW.
Corolario I.6.7.-SeaB ∈Mn,m(K), entonces existe dos matricesN∈Gl(n,K)yM ∈Gl(m,K), tales que
N−1BM=
Ir 0
0 0
.
Demostraci´on.-Se aplica la proposici´on I.6.6 a b:Km
→Kn cuya matriz respecto a las bases can´onicas
esB.
Por la proposici´o precedente, existen{v1, . . . , vm}y{w1, . . . , wn}bases deKmyKnrespecto a las cuales
la matriz asociada abes
B′ =
Ir 0
0 0
.
SeaM la matriz de pasaje de{vi} a la base can´onica enKm,
N la matriz de pasaje de {wi} a la base can´onica en Kn, entonces por la proposici´on I.6.3, se tiene B′ =
N−1BM
Definici´on I.6.8.- SeaB∈Mn,m(K)
B=
b11 . . . b1m
..
. ...
bn1 · · · bnm
Se considera las filas deB como elementos deKmy las columnas deB como elementos de Kn
Elrango fila (columna)deB es la dimensi´on del subespacio deKm(Kn) engendrado por las filas
(colum-nas) deB.
El rango columna de B es igual al rango de la aplicaci´on b : Km → Kn cuya matriz respecto a las
bases can´onicas esB. En efecto, se tiene queb(ei) es la i-sima columna de la matrizB, la imagen debesta
engendrada porb(e1), . . . , b(em).
Transpuesta de una Matriz
SeaB ∈Mn,m(K). Se llamatranspuestadeB y se la denotaBt la matriz deMm,n(K) definida por
(Bt)
I.6 Cambio de Base 27 De esta forma el rango fila de B es igual al rango columna de Bt. En efecto, el rango fila deB es igual al
rango de la aplicaci´onbt:Kn→Km, cuya matriz respecto a las bases can´onicas es Bt.
Proposici´on I.6.9.-La transpuesta verifica las siguientes propiedades: i) (Bt)t=B.
ii (AB)t=BtAt.
iii A∈Gl(n,K)⇒At∈Gl(n,K)y(At)−1= (A−1)t.
Demostraci´on.-i) y ii)ejercicio. Para el punto iii), se tiene
At(A−1)t= (A−1A)t=It=I⇒(At)−1= (A−1)t.
Proposici´on I.6.10.- El rango fila deB es igual al rango columna deB.
Demostraci´on.-Sear= rango columna deB. Por el corolario 1.6.7, existenN∈Gl(n,K) yM ∈Gl(m,K) tales que
B=N−1
Ir 0
0 0
M.
Se tiene aplicando las propiedades de la matriz transpuesta
Bt=Mt
Ir 0
0 0
(M−1)t.
Se interpreta las matrices como aplicaciones lineales (respecto a las bases can´onicas); Bt bt:Kn
→Km
Mt mt:Km→Km
(Nt)−1 (nt)−1:Kn→Km
Ir 0
0 0
ir:Kn→Km
(x1, . . . , xn)7→(x1, . . . , xr,0, . . . ,0).
Se tienebt=mti
r(nt)−1, ver el diagrama
Kn bt
−→ Km
(nt)−1↓ ↑mt
Kn ir
−→ Km
por lo tanto se tiene que rango(bt) = rango(i
r) =r.
Definici´on I.6.11.- Sea B∈Mn,m(K), elrango dedeB es
I.7 Operaciones Elementales sobre las Matrices
Justificaci´on.-Sea
a11ξ1 + a12ξ2 + · · · + a1mξm = b1
..
. ...
an1ξ1 + an2ξ2 + · · · + anmξm = bn
Se introduce
A= (aij)∈Mn,m,
ξ1 .. . ξm
∈Km=M
m,1(K), b=
b1 .. .bn
!
∈Kn.
Introduciendo la notaci´on matricial, el sistema de ecuaciones, se convierte en Aξ=b.
Se observa que siA=
Ir 0
0 0
, se encuentra la soluci´on a la vista.
En el par´agrafo precedente, se mostr´o que existenM yN inversibles tales que
A=N−1
Ir 0
0 0
M;
por consiguiente se tiene
Aξ=N−1
Ir 0
0 0
M ξ=b. Planteandob′=N byζ=M ξ, se obtiene el sistema
Ir 0
0 0
ζ=b′.
Por lo tanto, conociendoN se deduceζ y conociendoM−1se deduce ξ.
Programa.-Explicitar un procedimiento o algoritmo que permita calcularξ.
Se denota Sn el conjunto de las biyecciones o permutaciones de {1,2, . . . , n}. Es un grupo para la
composici´on de aplicaciones llamadogrupo sim´etrico. Hayn! elementos enSn.
Una permutaci´onσde{1,2, . . . , n}se representa mediante
1 2 3 · · · n
σ(1) σ(2) σ(3) · · · σ(n)
I.7 Operaciones Elementales sobre las Matrices 29
Ejemplo
1.- Las 6 permutaciones deS3 tienen las representaciones siguientes:
id=
1 2 3 1 2 3
1 2 3 1 3 2
1 2 3 2 1 3
1 2 3 3 2 1
1 2 3 3 1 2
1 2 3 2 3 1
Para evitar una escritura pesada, en lugar denotarσ1◦σ2la composici´on de permutaciones, se utilizar´a la notaci´onσ1σ2.
Aσ∈ Sm, se asocia una aplicaci´on lineal mediante
ρ(σ) :Km
→Km
ei7→eσ(i)
donde {e1, . . . , en} es la base can´onica deKm. La matriz M(σ) de ρ(σ) respecto a la base can´onica es de
la forma,M(σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no nulo es 1. Esta matriz se llama matriz depermutaci´on.
Proposici´on I.7.1.-La aplicaci´on
Sm ρ
→Gl(Km)
σ7→ρ(σ) es un homomorfismo de grupo, representaci´on lineal deSm.
La aplicaci´on
Sm→Gl(m,K)
σ7→M(σ) es un homorfismo de grupos, representaci´on matricial deSm.
Demostraci´on.- Ejercicio.
Una vez conocidas las matrices de permutaci´on, se debe determinar como actua las matrices de per-mutaci´on sobre una matriz. Esto est´a dado en la:
Proposici´on I.7.2.- a) Multiplicar a la derechaB porM(σ)es equivalente a efectuar las correspondientes permutaciones de las columnas deB.
b) Multiplicar por la izquierdaBporM(σ)es equivalenTe a efectuar las correspondientes permutaciones de las filas deB.
Demostraci´on.- Ejercicio
Matrices Diagonales
Una matrizAdiagonal es de la forma
A=
a11 0
0 a22 . ..
0 amm
= diag(a11, a22, . . . , amm)
Proposici´on I.7.3.- a) Multiplicar B por la derecha con diag(d1, d2, . . . , dm)es lo mismo que multiplicar
la i-sima columna deB pordi, parai= 1, . . . , m.
b) MultiplicarBpor la izquierda condiag(d1, d2, . . . , dm)es lo mismo que multiplicar la i-sima fila deB por
di, parai= 1, . . . , m.
Demostraci´on.- Ejercicio.
Sea B ∈Mn,m(K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N−1 ∈
Gl(n,K) yM ∈Gl(m,K) tales que
N−1BM=
Ir 0
0 0
. SiB = 0, no hay nada que hacer.
SiB 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente:
i) Multiplicando a la izquierda y derecha por matrices de permutaci´on, se lleva este coeficiente al lugar (1,1).
ii) Multiplicando por diag(b−111,1, . . . ,1) se va al casob11= 1. iii) Luego
1 0 · · · 0
−b21 .. .
−bn1
1 0 . .. 0 1
1 b12 · · · b1m
b21 .. .
bn1 · · · bnm =
1b12 · · · b1m
0 .. . 0 B′
1b12 · · · b1m
0 .. . 0 B′
1−b12 · · · −b1m
0 .. . 0 1 0 . .. 0 1 =
1 0 · · · 0 0 .. . 0 B′′ . Ejemplo
1.- Consideremos la matriz
B=
0 1 4 1 1 3
. Se tiene 0 1 1 0 B =
1 1 3 0 1 4
=B(1),
1 1 3 0 1 4
10 −11 −03
0 0 1
=
1 0 0 0 1 4
=B(2),
1 0 0 0 1 4
1 00 1 −04
0 0 1
=
1 0 0 0 1 0
.
De donde
M =
10 −11 −03
0 0 1
1 00 1 −04
0 0 1
y N−1=
0 1 1 0
.
Corolario I.7.4.-Una matriz A∈Gl(m,K)se escribe como producto de: i) matrices de permutaci´on;
ii) matrices diagonales inversibles;
iii) matrices del tipoI+Lio I+Rj, dondeLi es la matriz cuyos coeficientes son nulos, excepto quiz´as los
lki conk > i;Hj es la matriz cuyos coeficientes son nulos, excepto quiz´as loshjk con k > j.
Demostraci´on.-Se aplica el procedimiento de antes aAinversible. Finalmente se obtiene que I=P AQ,
dondeP es producto de matrices del tipo i), ii), iii); lo mismoQ. Entonces A=P−1Q−1.
Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para
I.7 Operaciones Elementales sobre las Matrices 31
Mejora del Resultado
Definimos los siguientes subconjuntos deGl(m,K):
U−=
1 0 ∗ . ..
∗ ∗ 1
∈Gl(m,K)
matrices triangulares con 1 sobre la diagonal.
B+
b11 ∗ ∗
0 . .. ∗
0 bmm
∈Gl(m,K)
matrices triangulares superiores. Paraσ∈ Smse plantea
U−M(σ)B+={XM(σ)Y|X ∈ U−, Y ∈ B+}.
Proposici´on I.7.5.-Descomposici´on de Bruhat. Gl(m,K)es la reuni´on disjunta de subconjuntosU−M(σ)B+,
σ∈ Sm.
Demostraci´on.-i) SeaA∈Gl(m,K), se debe mostrar que existeX∈ U−,Y ∈ B+ yσ∈ Sm tales que
A=XM(σ)Y.
La demostraci´on se la har´a por inducci´on sobre m. El caso m = 1 es evidente. Supongamos cierto para m−1, conm >1.
SeaA∈Gl(m,K), y seaai,16= 0 el primer coeficiente no nulo de la primera columna deA. Se tiene:
0 0 A12 ai1
am1 A22
| {z }
A
diag(a−i11,1, . . . ,1) =
0 0 A12 1 ˜ ai+1,1
˜ am1
A22 ; 1 0 . .. 1
−˜ai+1,1 . ..
−˜am,1 1
0 0 A12 1 ai2 · · · aim
˜ ai+1,1
˜ am1
A22
1 −ai2 · · · −aim
1 . .. 1 =
01 C110 C120
0 C21 C22
.
Por hip´otesis de inducci´on existenU ∈Gl(m−1,K) triangular inferior con 1 en la diagonal yB∈Gl(m−1,K) triangular superior,τ∈ Sm−1, tales que
C11 C22 C21 C22
o todav´ıa
U−1
C11 C22 C21 C22
B−1=M(τ)
U11 0 U21 U22
C11 C22 C21 C22
B11 B21
0 B22
=
T11 T12 T21 T22
.
Por consiguiente
A= ˜U
01 C110 C120
0 C21 C22
B˜
U110 01 00
U21 0 U22
01 C110 C120
0 C21 C22
10 B110 B120
0 0 B22
=
01 T110 T220
0 T21 T22
| {z }
M(σ) .
38 I Espacios Vectoriales y Aplicaciones Lineales
I.8 Signo de las Permutaciones
Recordemos que
Sm=
σ:{1, . . . , m}−→ {biy. 1, . . . , m}} Seana, b∈ {1, . . . , m},a6= 0, la permutaci´on definida por
a7→b; b7→a;
i7→i, i6=ayi6=b se llamatransposici´ony se denota (a, b). Por consiguiente,
(a, b) =
1 2 · · · a · · · b · · · m 1 2 · · · b · · · a · · · m
.
Proposici´on I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm, existen
τ1, τ2, . . . , τp transposiciones, tales que
σ=τ1τ2· · ·τp.
Demostraci´on.-Por inducci´on sobrem. Param= 2 el enunciado es cierto.
Se supone cierto el enunciado param−1. Demostremos que se cumple param.
Sea σ ∈ Sm. Si σ(m) =m, se tiene que la restricci´on deσ sobre {1, . . . , m−1} es una permutaci´on que
pertenece aSm−1 y por hip´otesis de inducci´onσes el producto de transposiciones. Siσ(m)6=m, se considera σ′= (σ(m), m)σ. Por construcci´onσ′(m) = (σ(m), m)σ(m)
= m, de donde por el argumento del primer caso σ′ pertenece a
Sm−1 y es producto de transposiciones, digamosσ′ =τ1τ2
· · ·τp. Por lo tanto
σ= (m, σ(m))τ1τ2· · ·τp.
Ejemplos
1.-
1 2 · · · m−1 m
2 3 · · · m 1
= (1, m)(1, m−1)· · ·(1,3)(1,2). 2.- La escritura deσcomo producto de transposiciones no es ´unica.
id= (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), (2,3) = (1,2)(1,3)(1,2).
Definici´on de signo de una permutaci´on
IntroducimosP =Rm:−→f R|f polinomial .
f :Rm
→Res polinomial si
f(x1, . . . , xm) = X
finita
ai1,i2,...,imx
i1
1xi22· · ·ximm.
Aσ∈ Smse asocia la aplicaci´on
ϕ(σ) :P −→ P
X
finita
ai1,i2,...,imx
i1
1xi22· · ·ximm7→ X
finita
ai1,i2,...,imx
i1
σ(1)x
i2
σ(2)· · ·x
im
σ(m)
Ejemplo
3.- Consideremos
σ=
1 2 3 4 2 3 4 1
, f(x1, x2, x3, x4) =x21+ 3
2x1x3+x 12 4 . Entonces
ϕ(σ)(f(x1, x2, x3, x4)) =x2
σ(1)+ 3
2xσ(1)xσ(3)+x 12
σ(4)=x22+ 3
2x2x4+x 12 1 .
Proposici´on I.8.2.-ϕ(σ)es un automorfismo de (espacios vectoriales y de anillo), es decir: i) ϕ(σ)(f+g) =ϕ(σ)(f) +ϕ(σ)(g),
ii) ϕ(σ)(αf) =αϕ(σ)(f),
iii) ϕ(σ)(f·g) =ϕ(σ)(f)·ϕ(σ)(g). Adem´asϕ(σ1σ2) =ϕ(σ1)◦ϕ(σ2).
Demostraci´on.- Ejercicio.
Ejemplo
4.- Los polinomios sim´etricos elementales amvariables son: f1(x1, . . . , xm) =x1+x2+· · ·+xm;
f2(x1, . . . , xm) = X
i<j
xixj =x1x2+· · ·+xm−1xm;
f3(x1, . . . , xm) = X
i<j<k
x1xjxk;
.. .
fm(x1, . . . , xm) =x1x2· · ·xm.
Ejercicio.-Mostrar queϕ(σ)(fi) =fi parai= 1, . . . , m yσ∈ Sm.
Definamos el polinomiod∈ P, como
d= Y
1≤i<j≤m
(xi−xj) = (x1−x2)· · ·(x1−xm)· · ·(xm−1−xm).
Siσ∈ Sm, entonces ϕ(σ)(d) =±d.Se plantea
sg(σ) = signo(σ) =
(
1 si ϕ(σ)(d) =d,
−1 si ϕ(σ)(d) =−d.
Ejemplo
5.- En el espacio de las funciones polinomiales a 4 variables tenemos
d= (x1−x2)(x1−x3)(x1−x4)(x2−x3)(x2−x4)(x3−x4). Tomando la permutaci´on del ejemplo 3, se tiene
40 I Espacios Vectoriales y Aplicaciones Lineales
Proposici´on I.8.3.-Se tiene que
Sm
sg
−→ {±1}
es un homomorfismo de grupos.
Demostraci´on.-En efecto:
ϕ(σ1σ2)(d) = (ϕ(σ1)◦ϕ(σ2))(d) =ϕ(σ1)(ϕ(σ2))(d)) =
ϕ(σ1)(sg(σ2)d) = sg(σ2)ϕ(σ1)(d) = sg(σ2) sg(σ1), Por consiguiente
sg(σ1σ2) = sg(σ1)sg(σ2).
Proposici´on I.8.4.-Sea τ una transposicion, entoncessg(τ) =−1.
Demostracion.-Seaτ = (a, b) cona < b, se tiene d=Y
i<j
(xi−xj)
= (xa−xb) Y
i<j i6=a,b j6=a,b
(xi−xj) Y
i<j
(xi−xa) Y
a<j j6=b
(xa−xj) Y
i<b i6=a
(xi−xb) Y
j>b
(xb−xj)
= (xa−xb) Y
i<a
[(xi−xa)(xi−xb)] Y
a<i<b
[(xa−xi)(xi−xb)]
Y
b<i
[(xa−xi)(xb−xi)] Y
i<j i6=a,b j6=a,b
(xi−xj);
ϕ(σ)(d) = (xb−xa) Y
i<a
[(xi−xb)(xi−xa)] Y
a<i<b
[(xb−xi)(xi−xa)] Y
b<i
[(xb−xi)(xa−xi)] Y
i<j i6=a,b j6=a,b
(xi−xj);
ϕ(σ)(d) =−d.
Corolario I.8.5.-i) Si σ=τ1· · ·τp, conτi transposicion, entonces
sg(σ) = (−1)p.
ii) Seaσ=τ1· · ·τp=τ1′· · ·τp′′ dondeτiyτi′transposiciones, se tiene por i)sg(σ) = (−1)p= (−1)p
′
, entonces pyp′ tienen la misma paridad.
C´alculo Pr´actico desg(σ)
Seaσ∈ Sm, la permutacion cuyo representaci´on es
0
B
1 2 i j m
(1) j (i) i (j) m (m)
1
C A