• No se han encontrado resultados

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES.

N/A
N/A
Protected

Academic year: 2021

Share "MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES."

Copied!
37
0
0

Texto completo

(1)

UNIVERSIDAD INDUSTRIAL DE SANTANDER FACULTAD DE INGENIERÍAS FISICOQUÍMICAS

ESCUELA DE INGENIERIA DE PETROLEOS METODOS NUMERICOS

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

OSCAR ALBERTO ESTÉVEZ REAL

UNIVERSIDAD INDUSTRIAL DE SANTANDER MÉTODOS NUMÉRICOS

(2)

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

METODOS DIRECTOS

1 Sistemas de ecauciones lineales 2 Matriz Simétrica

3 Matriz traspuesta 4 Determinante 5Triangulo superior 6 Triangulo inferior

7 Matriz bandeada – Matriz aumentada 8 Multiplicación de matrices

9 Aplicación al calculo de la matriz inversa 10 Metodo de gauss jordan

11 Eliminación de gauss jordan

12 Ecuaciones Lineales Sistemas Especiales

METODOS ITERATIVOS 1 Jacobi

2 Gauss- seidel

(3)

1 SISTEMAS DE ECUACIONES LINEALES

En matemáticas, una matriz es una tabla bidimensional de números consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicación lineal y registrar los datos que dependen de varios parámetros. Las matrices se describen en el campo de la teoría de matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.

DEFINICIONES Y NOTACIONES

Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos o entradas de la matriz) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con mfilas y n columnas se le denomina matriz m-por-n (escrito m×n), y a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. Comúnmente se dice que una matriz m-por-n tiene unorden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.

Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a poner primero las filas y después las columnas.

Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una matriz, mientras que A es un escalar.

Normalmente se escribe para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i≤ m y 1 ≤ j ≤ n. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal:

(4)

algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.

Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.

Ejemplo:

La matriz es una matriz 4x3. El elemento o es 7.

La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

2 MATRIZ SIMÉTRICA

Una matriz de elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j

=1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A es también, la matriz traspuesta de sí misma: At = A.

(5)

PROPIEDADES

Uno de los teoremas básicos que concierne este tipo de matrices es el teorema espectral de dimensión finita, que dice que toda matriz simétrica cuyas entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste es un caso especial de una matriz hermítica.

3 MATRIZ TRASPUESTA

Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada con At está dada por

Ejemplos:

PROPIEDADES: Para toda matriz

Sean A y B matrices con elementos pertenecen a un anillo y sea :

Si el producto de las matrices A y B está definido,

Si A es una matriz cuadrada cuyas entradas son números reales, entonces

(6)

4 DETERMINANATE

En matemáticas se define el determinante como una forma multilineal alternada de un cuerpo En. Esta definición indica una serie de propiedades matemáticas y generaliza el concepto de determinante haciéndolo aplicable en numerosos campos. Sin embargo, el concepto de determinante o de volumen orientado fue introducido para estudiar el número de soluciones de los sistemas lineales de ecuaciones.

MÉTODOS DE CALCULO

Para el cálculo de determinantes de matrices de cualquier orden, existe una regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de varios determinantes de un orden inferior. Este proceso se puede repetir tantas veces como sea necesario hasta reducir el problema al cálculo de múltiples determinantes de orden tan pequeño como se quiera. Sabiendo que el determinante de un escalar es el propio escalar, es posible calcular el determinante de cualquier matriz aplicando dicho teorema.

MATRICES DE ORDEN INFERIOR

El caso de matrices de orden inferior (orden 2 o 3) es tan sencillo que su determinante se calcula con sencillas reglas conocidas. Dichas reglas son también deducibles del teorema de Laplace

Los determinantes de una matriz de orden 2:

se calculan con la siguiente fórmula:

(7)

DETERMINANTES DE ORDEN SUPERIOR A 3

El determinante de orden n, puede desarrollarse a partir de una fila o columna, reduciendo el problema al cálculo de un determinante de orden n-1. Para ello se toma una fila o columna cualquiera, multiplicando cada elemento por su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i es el número de fila y j el número de columna). La suma de todos los productos es igual al determinante.

En caso de un determinante de orden 4, se obtienen directamente determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En cambio, en los determinantes de orden superior, como por ejemplo n = 5, al desarrollar los elementos de una línea, obtendremos determinantes de orden 4, que a su vez se deberán desarrollar en por el mismo método, para obtener determinantes de orden 3. Por ejemplo, para obtener con el método especificado un determinante de orden 4, se deben calcular 4 determinantes de orden 3. En cambio, si previamente se logran tres ceros en una fila o columna, bastara con calcular solo un determinante de orden 3 (ya que los demás determinantes estarán multiplicados por 0, lo que los anula).

La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos (sin obtener ceros en filas y columnas), para un determinante de orden 4 se deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5, se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates de orden 3. El número de determinates de orden 3 que se obtienen en el

desarrollo de un determinante de orden n es igual a

Por ejemplo, mediante este método, para un determinante de orden 10 se deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3. También puede utilizarse el Método de eliminación Gaussiana, para convertir la matriz en una matriz triangular. Si bien el proceso puede parecer tedioso, estará muy lejos de los 14.529.715.200 de determinantes de orden 3 necesarios para calcular el determinante de una matriz de orden 14.

(8)

.

Partiendo de una matriz 3×3:

Para calcular el determinante por los adjuntos de la primera fila:

Desarrollando los determinantes 2*2, tendremos:

Que podemos ordenar, para presentarlo en la forma usual de la Regla de Sarrus:

MATRIZ TRIANGULAR

En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más fáciles de resolver, las matrices triangulares son utilizadas en análisis numérico para resolver sistemas de ecuaciones lineales, calcular inversas y determinantes de matrices. El método de descomposición LU permite descomponer cualquier matriz invertible como producto de una matriz triangular inferior L y una superior U.

5 TRIANGULAR SUPERIOR

Es una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.

(9)

EJEMPLO

6 TRIANGULAR INFERIOR

Es una matriz triangular inferior los elementos situados por ensima de la diagonal principal son ceros.

EJEMPLO

(10)

Un gran número de sus componentes son cero:

8 MULTIPLICACIÓN DE MATRICES

En matemática, la multiplicación o producto de matrices es la operación de multiplicación que se efectúa entre dos matrices, o bien entre una matriz y un escalar.

Al igual que la multiplicación aritmética, su definición es instrumental, es decir, viene dada por un algoritmo capaz de resolverla. El algoritmo que resuelve la multiplicación matricial es diferente del que resuelve la multiplicación de dos números. La diferencia principal es que la multiplicación de matrices no cumple con la propiedad de conmutatividad.

(11)

Dada una matriz A de m filas y n columnas, lo que podemos denotar como:

la multiplicación de A por un escalar k, que se denota k·A, k×A o simplemente kA, está definida como:

es decir, corresponde a la matriz conformada por cada elemento de la matriz multiplicado por dicho escalar.

Gráficamente, si y

entonces

La multiplicación por escalar es análoga a la suma o resta de matrices, y cumple con las mismas características de la multiplicación aritmética. En efecto, podemos llegar al mismo resultado sumando k veces la misma matriz A entre sí.

PROPIEDAD DESCRIPCIÓN

CLAUSURA cA es también una matriz

ELEMENTO NEUTRO

Existe el elemento neutro uno, de manera que 1·A =

A

PROPIEDAD

ASOCIATIVA (cd)A = c(dA)

PROPIEDAD

(12)

- DE ESCALAR - DE MATRIZ

(c+d)A = cA+dA

MULTIPLICACION DE UNA MATRIZ POR UNA MATRIZ

Dadas dos matrices A y B, tales que el número de columnas de la matriz A es igual al número de filas de la matriz B; es decir:

y

a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está definida como:

donde cada elemento ci,j está definido por:

Gráficamente, Si

y

Entonces

PROPIEDADES

Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la multiplicación está definida, y de manera que el número de filas y de columnas permite realizar la multiplicación; entonces se cumplen las siguientes propiedades:

(13)

PROPIEDAD DESCRIPCIÓN

CLAUSURA AB es también una matriz

ELEMENTO NEUTRO

Si A es una matriz cuadrada de tamaño m, entonces la matriz identidad Im×mes elemento neutro, de manera

que I·A = A

PROPIEDAD

ASOCIATIVA (AB)C = A(BC)

PROPIEDAD DISTRIBUTIVA - POR LA DERECHA - POR LA IZQUIERDA (A + B)C = AC + BC C(A + B) = CA + CB

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.

Finalmente, note que tanto la multiplicación de una matriz por un escalar, como la multiplicación de dos escalares, puede representarse mediante una multiplicación de dos matrices.

APLICACIONES

La multiplicación de matrices es muy útil para la resolución de sistemas de ecuaciones de muchas variables, dado que son muy cómodas para ser implementadas mediante un computador. El cálculo numérico se basa en gran parte de estas operaciones, al igual que poderosasaplicaciones tales como MATLAB. También actualmente se utiliza mucho en el cálculo de microarrays, en el área de bioinformática.

(14)

9 APLICACION AL CALCULO DE LA MATRIZ INVERSA Planteamiento del problema

Sea una matriz A a la que se presente obtener su inversa X, entonces AX = I

Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz, donde los segundos miembros son los vectores de la base canonica. De cada sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:

Resolución del problema

El procedimiento mas adecuado es utilizar la factorización de Cholesky si el problema es simétrico o la LU si no lo es. De esta forma, las operaciones de triangulación solo se realizan una vez.

Esto supone el coste de una factorización y n procesos de remonte de dos sistemas triangulares. Numero de operaciones Caso simétrico *Raíces cuadradas: n *Multiplicaciones/divisiones: *Sumas/restas:

(15)

Caso no simétrico

*Multiplicaciones/divisiones:

*Sumas/restas:

ANEXOS

10 METODO DE GAUSS JORDAN

El método de gauss- jordan es una variable del método de gauss . Cuando se elimina una incognita en una ecuación , gauss-jordan elimina esa incognita en el resto de las ecuaciones , tomando como base para la eliminación a la ecuación pivote.Tambien todos los renglones se normalizan cuando se toma una ecuación pivote .El resultado final de este tipo de eliminación genera una matriz identidad en vez de una triangular como lo hace gauss, por lo que no se usa la sustitución hacia atrás.

(16)
(17)
(18)
(19)

Ver : http://www.youtube.com/watch?v=I1kexTz5GTM&feature=related

(20)

En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada".

ANALISIS DE COMPLEJIDAD

La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.

ALGORITMO DE ELIMINACION DE GAUSS JORDAN

1. Ir a la columna no cero extrema izquierda

2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga

3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él 4. Cubrir el renglón superior y repetir el proceso anterior con

la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón)

5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de este sumando múltiplos correspondientes a los renglones correspondientes EJEMPLO

Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:

 Multiplicar una ecuación por un escalar no nulo.  Intercambiar de posición dos ecuaciones

(21)

 Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LUo la diagonalización por congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.

Despejando, podemos ver las soluciones:

Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:

Primero:

(22)

Por último.

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.

(23)

VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw

12 ECUACIONES LINEALES SISTEMAS ESPECIALES Método de Cholesky

En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.

Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.

Definición

En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como

(24)

donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas, y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva.

El requerimento de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz positiva definida simétrica con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal, es factorizable como , donde es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior A =UT * U):

para los elementos de la diagonal principal, y:

para el resto de los elementos. Donde uij son los elementos de la matriz U.

(25)

La descomposición de Cholesky se usa principalmente para hallar la solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida, entonces se puede solucionar Ax = b calculando primero la descomposición de Cholesky A = LLT, luego resolviendo Ly =b para y, y finalmente resolviendo LTx = y para x.

Como método de factorización LU es aplicable a una matriz simétrica y definida positiva donde:

Por lo tanto T

L

U

b

x

LL

b

Ax

T

(26)

A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se tiene que:

Haciendo el barrido desde k=1 hasta n se tiene que

Por otro lado si multiplicamos la n-ésima fila de L por la columna (n-1) de LT se tiene que:

Haciendo el barrido para k=1 hasta n se tiene que:

MÉTODO DE THOMAS

Este método surge como una simplificación de una factorización LU sobre una matriz tridiagonal. 1 1 2 , 1 1 2 , 2 2 1 , 2 2 , 2 2 , 2 1 , 2 2 2 1 , 2 2 , 2 2 , 2 1 , n j j n nn nn n j j n nn nn n n n n n n nn nn nn nn n n n n n n L a L L a L L L L L a L a L L L L L   1 1 2 , k j j k kk kk a L L 2 1 , 1 , 1 , 1 , 1 , 1 2 , 1 2 , 2 , 1 2 , 1 , 1 1 , 1 , 1 , 1 , 1 , 1 1 , 2 , 1 2 , 2 , 1 2 , 1 , 1 1 , n j j n j n n n n n n n n n n n n n n n n n n n n n n n n n n n n n n n n n

L

L

a

L

L

L

L

L

L

L

L

a

L

a

L

L

L

L

L

L

L

L

1 1 1 1 , , , , k i donde L L a L i j j i j k i k i k

(27)

Basados en el producto matricial mostrado anteriormente se obtienen las siguientes expresiones:

Por lo que haciendo el barrido desde k=2 hasta n se llega a lo siguiente:

0 0 , 1 , 1 1 , , 1 , 1 1 , 1 1 , 1 11 n n n n n n n n n n n n n n n n c y a Donde U L b U c U U a L b U k k k k k k k k k k k k k k k U L b U c U U a L , 1 1 , , 1 , 1 1 , 1 1 ,

(28)

Si LUx=r y Ux=d entonces Ld=r, por lo tanto :

Por lo que a partir de una sustitución progresiva

Finalmente resolvemos Ux=d a partir de una sustitución regresiva:

1 1 , 1 1 2 k k k k k r L d d n hasta k Desde r d

(29)

METODOS ITERATIVOS 1 JACOBI

En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo Ax = b. Elalgoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi.

Descripción

La base del método consiste en construir

una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.

La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente: n n n n U d x Donde , , k k n k j j kj k k U x U d x hasta n k Para , 1 , 1 1

(30)

donde

, es una matriz diagonal.

, es una matriz triangular inferior. , es una matriz triangular superior.

Partiendo de , podemos reescribir dicha ecuación como:

Luego,

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de

Jacobi puede ser expresado de la forma:

donde k es el contador de iteración, Finalmente tenemos:

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),

excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario

para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un copiado explícito. Algoritmo en java

public class Jacobi {

double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}}; double []vector={2,1,3}; double []vectorR={1,2,3}; double []x2=vectorR; double sumatoria=1; int max=50;

public void SolJacobi(){ int tam = matriz.length; for (int y = 0; y < 10; y++) {

(31)

system.outtt.println("\nvector " + y + "\n"); for(int t=0;t>max;t++){

x2=vectorR.clone(); for (int i = 0; i < tam; i++) { sumatoria=0;

for (int s = 0; s < tam; s++) {

if(s!=i)sumatoria += matriz[i][s]*x2[s]; } vectorR[i]=(vector[i]-sumatoria)/matriz[i][i]; System.out.print(" " + vectorR[i]); } } } }

public static void main(String[] args) { jacobi obj=new Jacobi();

obj.SolJacobi(); }

}

VER : http://www.youtube.com/watch?v=HbqGnFU62-Y 2 GAUSS- SEIDEL

METODO DE GAUSS SEIDEL

En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.

Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:

El método de iteración Gauss-Seidel es

(32)

para i=j, o para . y

Esto es también que : Si

definimos

y

.

Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n. Entonces podemos escribir la fórmula de iteración del método

, i=1,...,n(*)

La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones. CONVERGENCIA

Teorema: Suponga una matriz es una matriz no singular que cumple la condición de

ó .

Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi.

Para ver los casos en que converge el método primero mostraremos que se puede escribir de la siguiente forma:

(**)

(el término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de unmétodo iterativo estacionario.

(33)

Primeramente debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), para este motivo debemos tratar de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=D(L+I+U),D=diag( ). Haciendo los despejes necesarios escribimos el método de esta forma

por lo tanto B=-(L+I)-1 U.

Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer x=Bx+c de (**)

Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los vectores propios ui, i= 1,..., n, los cuales

son linealmente independientes, entonces podemos escribir el error inicial

(***)

Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende el siguiente teorema: Teorema: Una condición suficiente y necesaria para que un método iterativo estacionario converja para una aproximación arbitraria x^{(0)} es que

donde ρ(B) es el radio espectral de B. EXPLICACION

Se elige una aproximación inicial para .

Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite hasta que xk sea lo suficientemente cercano axk − 1, donde k representa el número de pasos en la iteración.

(34)

CÓDIGO FORTRAN MULTIPLICACIÓN DE MATRICES

(35)
(36)
(37)

CODIGO FORTRAN TRASPUESTA

BIBLIOGRAFÍA

ALGEBRA LINEAL 6TA EDICION DE STANLEY GROSSMAN.

HTTP://THALES.CICA.ES/RD/RECURSOS/RD99/ED99-0289-02/ED99-0289-02.HTML

HTTP://ES.WIKIPEDIA.ORG/WIKI/MATRIZ_TRASPUESTA_CONJUGA DA

ALGEBRA LINEAL Y SUS APLICACIONES - DAVID C. LAY MATRICES Y DETERMINANTES

HTTP://KAMBRY.WIKISPACES.COM/MATRICES+Y+DETERMINANTE S?F=PRINT

Referencias

Documento similar

Luego se abre la ventana gráfica f2 y sobre ella se grafica la función w de color negro, con el comando hold on se pega sobre este gráfico la otra función y de color rojo, con

En el método de la rigidez para el análisis estructural será la matriz de coeficientes de un sistema de ecuaciones lineales en el que el vector de términos independientes recoge

Iniciamos el estudio de los métodos de solución de Ecuaciones Diferenciales Ordinarias (EDO) con la resolución de ecuaciones separables por simple integración de la expresión

que hasta que llegue el tiempo en que su regia planta ; | pise el hispano suelo... que hasta que el

-Los aspectos analíticos, numéricos y gráficos de las ecuaciones diferenciales ordinarias de primer orden y de orden superior, y de los sistemas de ecuaciones lineales , así como de

-Los aspectos analíticos, numéricos y gráficos de las ecuaciones diferenciales ordinarias de primer orden y de orden superior, y de los sistemas de ecuaciones lineales , así como de

En estas modificaciones se busca aumentar el orden, mejorar la rapidez de convergencia (m´ etodos aceleradores de la convergencia), tratar de eliminar el uso de derivadas, aplicar el

• El conjunto solución de un sistema de ecuaciones lineales, está formado por todas las soluciones del sistema.. • Dos sistemas de ecuaciones lineales son equivalentes, si tienen