MATRICES
En matemáticas, una matriz es una tabla de números consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las
matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicación lineal y
registrar los datos que dependen de varios
parámetros. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que
• La utilización de matrices (arrays) constituye actualmente una parte esencial dn los
Introducción
• Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m
Ejemplo
• La matriz
es una matriz 3x4. El elemento A[2,3] o a2X3 es 7 • Una matriz es un conjunto de elementos de
• La matriz
• Las matrices se denotan con letras
mayúsculas: A, B, C, ... y los elementos de las mismas con letras minúsculas y
subíndices que indican el lugar ocupado: a, b, c, ... Un elemento genérico que
ocupe la fila i y la columna j se escribe
aij . Si el elemento genérico aparece entre paréntesis también representa a toda la
matriz : A = (aij)
• FILA
• COLUMNA
• RECTANGULAR
• OPUESTA
• NULA
• Diagonal principal :
• Diagonal secundaria
PROPIEDADES
• Propiedad asociativa: (AB)C = A(BC).
• Propiedad distributiva por la derecha: (A + B)C = AC + BC.
• Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
• El producto de matrices no verifica la propiedad de simplificación: Si A.B = A.C, No necesariamente B=C • El producto de dos matrices generalmente no es
conmutativo, es decir, AB ≠ BA. La división entre
matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin
Transpuesta
• La transpuesta de una matriz m-por-n A
es la matriz n-por-m AT (algunas veces denotada por At) formada al intercambiar las filas y columnas
• SIMÉTRICA: Es una matriz cuadrada que es igual a su traspuesta.
A = At , a
ij = aji
• ANTISIMÉTRICA :
• Es una matriz cuadrada que es igual a la opuesta de su traspuesta.
A = -At , a
ij = -aji
• DIAGONAL: Es una matriz cuadrada que
tiene todos sus elementos nulos excepto los de la diagonal principal
• IDENTIDAD :Es una matriz cuadrada que
tiene todos sus elementos nulos excepto los de la diagonal principal que son iguales a 1.
También se denomina matriz unidad.
• ORTOGONAL :Una matriz ortogonal es necesariamente cuadrada e invertible :
• A-1 = At
• NORMAL
• Una matriz es normal si conmuta con su traspuesta. Las matrices simétricas,
• INVERSA Decimos que una matriz
cuadrada A tiene inversa, A-1, si se verifica
que :
Suma
• La suma de dos matrices A = (aij)m×n y B = (bij)p×q de la misma dimensión
Suma o adición
Producto
• El producto de dos matrices se puede
definir sólo si el número de columnas de la matriz izquierda es el mismo que el
número de filas de la matriz derecha. Si A
es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada
Diagrama
esquemático que ilustra el producto de dos matrices A y
B dando como
resultado la matriz
Matrices cuadradas y definiciones
relacionadas
• Una matriz cuadrada es una matriz que tiene el mismo número de filas que de
columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la
multiplicación de matrices, es un anillo que generalmente no es conmutativo.
• La matriz identidad In de orden n es la
matriz n por n en la cual todos los elementos de la diagonal principal son iguales a 1 y
• Por ejemplo, con n = 4, i = 3 y j = 2:
•
El determinante de esta submatriz se llama la menor relativa a la casilla (i, j): M i,j = det( A i,j ) .
• El cofactor de ai,j, es decir el cofactor relativo a la casilla (i, j) de la matriz A =( ai,j ), es la menor multiplicada por el signo (-1) i+j. Se le nota c i, j
= (-1)i+j · M
i,j o ai,j con una tilde encima.
• En el ejemplo, c3,2 = (-1)5 × 34 = -34.
• La matriz de los cofactores de A se llama la
comatriz de A, y se nota com A o A´ con una
• Por ejemplo, si n = 3:
• La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.
• Los elementos invertibles de este anillo se llaman matrices invertibles o matrices no singulares. Una matriz A de n por n es
invertible si y sólo si existe una matriz B tal que AB = In = BA.
• En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices invertibles n por n forma un
grupo (concretamente un grupo de Lie) bajo la multiplicación de matrices, el grupo lineal general.
• El determinante de una matriz cuadrada A
es el producto de sus n valores propios, pero también puede ser definida por la
fórmula de Leibniz. Las matrices invertibles son precisamente las matrices cuyo
Matriz invertible
• En matemáticas, y especialmente en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no
degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa
de A y representada como A-1, tal que
AA-1 = A-1A = I
n, donde In es la matriz identidad de
orden n y el producto utilizado es el producto de matrices usual.
• Una matriz no invertible se dice que es
singular o degenerada. Una matriz es
Propiedades de la matriz inversa
• La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:
• Si la matriz es invertible, también lo es su transpuesta, y el inverso de su
Una matriz es invertible si y sólo si el
Inversión de matrices 2×2
• Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:
Inversión de matrices de órdenes
superiores
• Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:
• Métodos numéricos El método de eliminación de Gauss-Jordan puede utilizarse para
• Si λ es un número y v no es un vector nulo tal que Av = λv, entonces se dice
que v es un vector propio de A y que λ es su valor propio asociado. El número λ es un valor propio de A si y sólo si A−λIn no es invertible, lo que sucede si y sólo si
pA(λ) = 0, donde pA(x) es el polinomio
característico de A. pA(x) es un polinomio de grado n y por lo tanto, tiene n raíces
• La traza de una matriz cuadrada es la
suma de los elementos de la diagonal, lo que equivale a la suma de sus n valores propios.
• El algoritmo de eliminación gaussiana puede ser usado para calcular el
determinante, el rango y la inversa de una matriz y para resolver sistemas de
Matriz de adjuntos
• Dada una matriz cuadrada A, su matriz
adjunta o adj(A) es la resultante de sustituir cada término de A por sus adjuntos
respectivos.
• El adjunto de un término ai j de la matriz A
resulta del determinante de la submatriz que se obtiene de eliminar de la matriz A, la fila y la columna a la que pertenece el término ai j, multiplicado por (-1)(i+j). El interés principal de la matriz de adjuntos es que permite
• Sin embargo, para matrices de
dimensiones grandes, este tipo de cálculo resulta más costoso, en términos de
MATRIZ INVERSA
Vector propio y valor propio
• En álgebra lineal, los vectores propios,
autovectores o eigenvectores de un
operador lineal son los vectores no nulos que, cuando son transformados por el
operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre
COMO ENCONTRAR EL VECTOR PROPIO
• Encontrando vectores propios
• Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogéneo:
• Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el teorema de Cayley-Hamilton que
establece que cada matriz cuadrada satisface su
propio polinomio característico. Así, si λ1,λ2,...,λn son los valores propios de A se cumple que
Valores propios y vectores
propios
• El cálculo de los valores propios y de los vectores propios de una matriz simétrica tiene gran importancia en las matemáticas y en la ingeniería, entre los que cabe
destacar, el problema de la
diagonalización de una matriz, el cálculo de los momentos de inercia y de los ejes principales de inercia de un sólido rígido, o de las frecuencias propias de oscilación
• Se denominan valores propios o raíces
• Desarrollando el determinante tenemos un polinomio de grado n. Trataremos de
encontrar los coeficientes del polinomio, y luego aplicaremos un método de hallar las raíces del polinomio. Este procedimiento es apropiado cuando se presentan valores
propios que no son reales sino complejos. • Una vez hallados los valores propios, para
hallar el vector propio X correspondiente al valor propio λ es necesario resolver el
• donde el vector X es Siempre
podemos tomar x0 como 1, y hallar las otras
n-1 incógnitas. De las n ecuaciones
• El método de Leverrier
• Dada una matriz cuadrada A de dimensión n. El polinomio característico de la matriz es
Los coeficientes se hallan mediante las siguientes relaciones
• Ejemplo: Hallar la matriz característica y el polinomio característico de la matriz A:
• En esta transformación de la Mona Lisa, la
imagen se ha deformado de tal forma que su eje
vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha). El
vector azul, representado por la flecha azul que va desde el pecho hasta el hombro, ha
cambiado de dirección, mientras que el rojo,
representado por la flecha roja, no ha cambiado. El vector rojo es entonces un vector propio de la transformación, mientras que el azul no lo es. Dado que el vector rojo no ha cambiado de
longitud, su valor propio es 1. Todos los