• No se han encontrado resultados

Resolución numérica de campos electromagnéticos

N/A
N/A
Protected

Academic year: 2021

Share "Resolución numérica de campos electromagnéticos"

Copied!
113
0
0

Texto completo

(1)

Resoluci´

on num´erica de campos

electromagn´eticos

(2)
(3)

Prefacio

El prop´osito de este escrito es servir de apoyo al laboratorio de m´etodos num´ eri-cos de la asignatura de Electrotecnia I de la Escuela T´ecnica Superior de Inge-nier´ıa Industrial de la Universidad Pontificia Comillas.

Por otra parte, se ha intentado incluir no solamente el material que se impar-te en esta asignatura, sino tambi´en material adicional que pueda ser de utilidad en cursos superiores. Se ha diferenciado estos dos tipos de materiales se˜nal´ ando-les como “b´asico” y “avanzado”.

En este texto no se trata de los aspectos f´ısicos de las ecuaciones tratadas, lo que es, por supuesto, la preocupaci´on principal en la asignatura de Electrotec-nia I. En cambio, si que se incluye un cap´ıtulo (el segundo) sobre la resoluci´on num´erica de sistemas lineales. Aunque este tema debiera serle familiar a los alumnos al finalizar el segundo curso, no lo es todav´ıa cuando comienza el labo-ratorio de m´etodos num´ericos, por lo que unas ligeras nociones preliminares son deseables. Por otra parte, creo que es ´util que tengan una peque˜na descripci´on de los algoritmos ´utiles en la resoluci´on de las ecuaciones de campo.

Tras este cap´ıtulo, el tercero trata de la resoluci´on de la ecuaci´on de Poisson mediante diferencias finitas, y el cuarto mediante elementos finitos. En el quinto se estudian otras ecuaciones el´ıpticas de inter´es en electromagnetismo.

El sexto cap´ıtulo aborda el tratamiento de la ecuaci´on de difusi´on, y el ´ultimo de su resoluci´on en r´egimen senoidal.

No se han tratado ecuaciones hiperb´olicas. La raz´on es que estas ecuaciones no se tratan en la asignatura con el detenimiento de las el´ıpticas o las parab´ oli-cas, tanto por el (muy relativo) menor inter´es t´ecnico, como porque se estudian con menos intensidad en segundo curso, debido, entre otras cosas, a que los alumnos todav´ıa no han visto an´alisis de Fourier.

Madrid, octubre de 1996.

(4)
(5)

´

Indice general

1 Introducci´on 1

2 Resoluci´on de sistemas lineales 3

2.1 Introducci´on . . . 3

2.2 M´etodo directo: la factorizaci´on LU . . . 5

2.2.1 Factorizaci´on LU de matrices llenas . . . 5

2.2.2 Factorizaci´on LU de matrices ralas . . . 9

2.3 M´etodos iterativos . . . 11

2.3.1 Los m´etodos de Jacobi y Gauss-Seidel . . . 11

2.3.2 El m´etodo de la sobrerrelajaci´on sucesiva . . . 17

2.4 M´etodos semidirectos: el gradiente conjugado . . . 19

3 Ecuaciones de Laplace y Poisson: diferencias finitas 27 3.1 Introducci´on . . . 27

3.2 Preliminares matem´aticos . . . 28

3.3 Construcci´on de la malla y planteamiento de las ecuaciones . . . 29

3.4 El principio del m´aximo . . . 33

3.5 Errores y convergencia . . . 34

3.5.1 Anexo: prueba del teorema . . . 36

3.6 Problemas con los contornos . . . 38

3.6.1 Condiciones de von Neumann no nulas . . . 38

3.6.2 Tratamiento de contornos curvos . . . 39

3.7 Diferencias finitas en otros sistemas coordenados . . . 40

3.7.1 Diferencias finitas en coordenadas polares . . . 41

3.7.2 Diferencias finitas con simetr´ıa axial . . . 41

4 Ecuaciones de Laplace y Poisson: elementos finitos 45 4.1 Introducci´on . . . 45

4.2 Forma variacional de la ecuaci´on de Poisson . . . 45

4.3 Aproximaci´on funcional . . . 48

4.3.1 Un ejemplo . . . 51

4.4 Nomenclatura y propiedades . . . 54

4.5 El espacio de funciones admisibles . . . 55

4.6 Elementos finitos triangulares . . . 58 v

(6)

4.7 Otros elementos . . . 64

4.8 Errores y convergencia . . . 66

4.9 Elementos finitos y diferencias finitas . . . 69

5 Otros problemas est´aticos 71 5.1 Introducci´on . . . 71

5.2 Corrientes estacionarias . . . 71

5.3 Magnetost´atica en medios lineales . . . 72

5.4 Magnetost´atica no lineal . . . 76

5.4.1 Planteamiento de la forma variacional . . . 76

5.4.2 Resoluci´on num´erica de la forma variacional . . . 78

6 La ecuaci´on de difusi´on 83 6.1 Introducci´on . . . 83

6.2 La ecuaci´on de difusi´on en 1 dimensi´on . . . 84

6.3 Resoluci´on de las ecuaciones . . . 86

6.3.1 M´etodo expl´ıcito cl´asico . . . 87

6.3.2 M´etodo impl´ıcito cl´asico . . . 88

6.3.3 M´etodo de Crank-Nicholson . . . 89

6.4 Estabilidad de la soluci´on . . . 91

6.5 Convergencia de los algoritmos . . . 94

6.6 Elementos finitos y la ecuaci´on de difusi´on . . . 97

7 Problemas arm´onicos 101 7.1 Introducci´on . . . 101

7.2 Notaci´on compleja . . . 102

(7)

Cap´ıtulo 1

Introducci´

on

Hace ya m´as de 200 a˜nos, Leonard Euler, de quien dicen que jam´as dejaba de calcular1, decidi´o abordar el problema del flujo del agua. El conoc´ıa las ecuaciones de Newton, y sab´ıa como aplicarlas a part´ıculas o s´olidos r´ıgidos. En estos casos, el estado del sistema f´ısico est´a descrito por un n´umero finito de cantidades: las posiciones y las velocidades de las part´ıculas, o la posici´on y velocidad del centro de masas junto con la orientaci´on del cuerpo y su velocidad angular. No as´ı con el agua: para definir su estado se necesita saber la velocidad de cada part´ıcula.

Matem´aticamente, su estado se puede representar mediante el campo de velocidadesv(x, y, z). Euler logr´o derivar una ecuaci´on que relacionaba el cambio de la velocidad con el tiempo con su cambio en el espacio, una ecuaci´on en derivadas parciales, o una ecuaci´on de campo.

100 a˜nos despu´es, James Maxwell logr´o dar forma matem´atica a las ideas de Michel Farady sobre las leyes del campo electromagn´etico. De nuevo se en-contr´o con ecuaciones en derivadas parciales, que en teor´ıa permitir´ıan calcular los campos el´ectricoE(x, y, z) y magn´eticoB(x, y, z).

Este fue, sin duda alguna2, el hecho m´as importante del siglo XIX, el comien-zo de la era el´ectrica. Durante los a˜nos siguientes, el final del siglo XIX y el siglo XX, los ingenieros aplicar´ıan estas ecuaciones en un n´umero creciente de dispo-sitivos. Sin embargo, es curioso de que, salvo en raras ocasiones, no las resolv´ıan: las simplificaban. La raz´on, por supuesto, es que no se sab´ıa resolverlas, salvo en casos de una extrema idealizaci´on.

Hoy la situaci´on es distinta. La raz´on es que la aparici´on de los ordenado-res (lejanos descendientes de Farady y Maxwell, por otra parte) permiten la resoluci´on de grandes sistemas de ecuaciones algebraicas. Este escrito trata, por tanto, de la aproximaci´on de ecuaciones en derivadas parciales por ecuaciones algebraicas.

En electromagnetismo, casi todas las ecuaciones de inter´es tienen un mismo aspecto: son ecuaciones de segundo orden. Por ejemplo, en dos dimensiones

1De hecho, muri´o rico. 2Y que digan lo que quieran.

(8)

toman la forma: a∂ 2φ ∂x2 +b ∂2φ ∂x∂y +c ∂2φ ∂y2 +d ∂φ ∂x+e ∂φ ∂y +f φ+g= 0 (1.1) dondea,b,c,d,e,f ygson funciones conocidas de xey, yφes la funci´on (el campo) a resolver. El caracter cualitativo de la soluci´on depende, sin embargo, de los coeficientes de los t´erminos de segundo orden:a, byc. En concreto:

• b2−4ac < 0. Se llaman ecuaciones el´ıpticas. Describen situaciones de equilibrio, como el potencial el´ectrico en problemas electrost´aticos, o las tensiones mec´anicas en una viga.

• b24ac= 0. Son ecuaciones parab´olicas. Describen fen´omenos de difusi´on, tales como la conducci´on del calor, o el efecto pelicular en conductores.

• b24ac >0. Se trata de las ecuaciones hiperb´olicas. Describen campos que se propagan a una velocidad dada, tales como el sonido o la luz. Es curioso constatar como comportamientos tan diferentes dependen de mo-dificaciones aparentemente tan peque˜nas en la ecuaci´on. De todas formas, aqu´ı se trataran tan solo los dos primeros tipos de ecuaciones.

(9)

Cap´ıtulo 2

Resoluci´

on de sistemas

lineales

5 B´asico

2.1

Introducci´

on

La mayor parte de este escrito trata sobre la forma en que las ecuaciones de campo son aproximadas por sistemas de ecuaciones algebraicas. Estos sistemas son muy a menudo sistemas lineales. Cuando no son sistemas lineales, su reso-luci´on suele requerir la de varios sistemas lineales. Por todo ello, las t´ecnicas num´ericas de resoluci´on de estos sistemas son de una importancia crucial.

El tratamiento sistem´atico de estos procedimientos hace muy conveniente, de hecho casi imprescindible, el que estos sistemas lineales se planteen de forma matricial. As´ı pues, se puede reescribir el p´arrafo anterior diciendo que este cap´ıtulo trata de la resoluci´on del sistema

Ax=b (2.1)

A, la matriz del sistema, es una matriz cuadrada que depende de la ecuaci´on a resolver y, naturalmente, del m´etodo escogido. El t´ermino independiente b

depende del valor de las condiciones de contorno y de la densidad de carga (o de fuerzas volum´etricas, o de generaci´on de calor) dentro del dominio. x es, naturalmente, la inc´ognita, los valores del campo.

Una caracter´ıstica muy importante de la matriz A es que casi todos sus elementos son nulos. Por ejemplo, la figura 2.1 muestra la malla de elementos finitos utilizada para analizar el flujo alrededor del ala de un avi´on y la matriz A que tiene asociada. Se ha dibujado un punto en la posici´on de todos los elementos de la matriz cuyo valor es distinto de cero. Obs´ervese que exigua minor´ıa constituyen.

Una matriz con esta caracter´ıstica es llamada rala o cuasivac´ıa1. Esta carac-ter´ıstica ofrece la posibilidad de tratar matrices de mucha mayor dimensi´on de

1En ingl´es, sparse. Cierta similitud fon´etica parece haber llevado en ocasiones a traducirlo

(err´oneamente) como dispersa.

(10)

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 500 1000 1500 2000 2500 3000 3500 4000 0 500 1000 1500 2000 2500 3000 3500 4000 nz = 28831 The adjacency matrix.

Figura 2.1: Ala de avi´on, su malla y su matriz asociadas.

lo que ser´ıa de otra forma posible. Por ejemplo, es posible almacenar solamente los elementos que sean distintos de cero, junto con sus posiciones. En el caso de la matriz del ejemplo, de dimensi´on 1700 y con 3500 elementos no nulos, no es necesario almacenar 1700×1700 = 3, 500, 000 posiciones de memoria, sino que bastan con 3500 ×3 = 10,500 posiciones (1 para el valor del elemento y dos para su posici´on en la matriz).

De hecho, no es solamente la necesidad de memoria la que se puede reducir de una forma muy marcada, sino tambi´en el tiempo de c´omputo requerido. Son as´ı las t´ecnicas de resoluci´on de sistemas ralos las que hacen posibles el tratamiento de problemas que no sean de dimensi´on muy reducida.

Existen tres tipos de m´etodos fundamentales para la resoluci´on de sistemas lineales: los directos, los iterativos y los semidirectos.

Los m´etodos directos resuelven las ecuaciones en un n´umero finito de pa-sos. Los m´etodos iterativos van mejorando una estimaci´on inicial de la soluci´on (a menudo x = 0), aunque sin llegar jam´as a la soluci´on exacta. Tienen, sin embargo, menores requerimientos de memoria que los m´etodos directos. Los se-midirectos pueden, en principio, resolver tambi´en el sistema en un n´umero finito de pasos, pero en su planteamiento y an´alisis son m´as parecidos a los iterativos. El resto del cap´ıtulo explicar´a alg´un m´etodo, o algunos m´etodos, pertene-cientes a cada categor´ıa. Son, de todas formas, los m´as usados en la resoluci´on num´erica de campos.

(11)

2.2. M ´ETODO DIRECTO: LA FACTORIZACI ´ON LU 5

2.2

etodo directo: la factorizaci´

on LU

4 asico

5 Avanzado

Un m´etodo directo es un m´etodo que alcanza la soluci´on tras un n´umero finito de pasos. De todos ellos, el m´as empleado en el problema que aqu´ı se trata es una generalizaci´on del m´etodo de eliminaci´on de Gauss conocida como factorizaci´on LU.

En el resto de la secci´on se explica la factorizaci´on de Gauss en el contexto de las matrices llenas. Despu´es se exponen las modificaciones necesarias para su aplicaci´on a matrices ralas.

2.2.1

Factorizaci´

on LU de matrices llenas

La eliminaci´on de Gauss (y la factorizaci´on LU) se basan en una observaci´on aparentemente trivial: es muy f´acil resolver un sistema lineal cuando la matriz Aes triangular. En efecto, si se tiene un sistema como

    2 0 0 0 3 1 0 0 −4 0 3 0 7 1 0 −4         x1 x2 x3 x4     =     3 −1 5 0     (2.2)

se puede resolver primerox1de la primera ecuaci´on (la primera fila), conocidox1 se resuelvex2de la segunda, conocidosx1yx2se puede resolverx3de la tercera, y as´ı sucesivamente. Evidentemente, se puede proceder as´ı porque la matriz del sistema tiene elementos no nulos solamente por debajo de la diagonal principal (los elementos aij,coni≥j). Si la matriz fuera triangular superior (elementos

no nulos solamente por encima de la diagonal superior) se podr´ıa proceder de la misma forma, salvo que se tendr´ıa que comenzar por la ´ultima componente dex, en vez de por la primera (¡compru´ebese!).

Esta observaci´on no dejar´ıa de ser trivial sino fuera por que toda matrizA no singular se puede escribir como el producto de una matriz triangular inferior por una superior:

A=LU (2.3)

Es costumbre denotar al factor triangular inferior porL(del ingl´es lower) y al superior porU (de upper). La factorizaci´on LU es, esencialmente, el procedi-miento de c´alculo de estos dos factores a partir de la matrizA.

Sup´ongase entonces que se ha logrado calcularL y U. Ahora la resoluci´on del sistema Ax=bes inmediata. En efecto, este sistema es equivalente a

LUx=b (2.4)

Consideremos tambi´en el sistema

Ly=b (2.5)

Como este es un sistema triangular inferior, es f´acil de resolver. La soluci´on esy=L−1b. Adem´as, de la ecuaci´on (2.4)

(12)

Ux=L−1b=y (2.6) ¡Pero esto vuelve a ser una ecuaci´on con matriz triangular!. Como y es conocida (se ha resuelto (2.5)), es ahora f´acil calcularx.

En resumen, se han resuelto sucesivamente los sistemas

Ly = b (2.7)

Ux = y (2.8)

El primer sistema es triangular inferior, luego las inc´ognitas se resuelven iendo de la primera a la ´ultima. El segundo es triangular superior, en el que las inc´ognitas se resuelven de la ´ultima a la primera. Es por esto que el procedi-miento completo se conoce por la substituci´on hacia delante y hacia atr´as.

El problema que queda es, naturalmente, el c´alculo de los factores L y U. Es esta la tarea, con mucho, m´as complicada y costosa del procedimiento.

La t´ecnica consiste en ir eliminado sucesivamente los elementos deAque se encuentren por debajo de la diagonal. Quiz´a la forma m´as sencilla de explicarlo es mediante un ejemplo. Sup´ongase as´ı que se desea factorizar la matriz

A=     3 1 0 1 1 4 2 0 0 2 5 2 1 0 2 6     (2.9)

Consid´erese el elemento (2,1) (segunda fila, primera columna). Este elemento (un 1) est´a por debajo de la diagonal principal e impide, por tanto, que la matriz A sea diagonal superior. Para eliminar este elemento, se puede premultiplicar por una triangular inferior:

    1 0 0 0 −l2,1 1 0 0 0 0 1 0 0 0 0 1         3 1 0 1 1 4 2 0 0 2 5 2 1 0 2 6     =     3 1 0 1 1−l2,13 4−l2,1 2 −l2,1 0 2 5 2 1 0 2 6     (2.10) El t´erminol2,1 se escoge de manera que anule al t´ermino (2,1) de la nueva matriz, es decir 1−3l2,1= 0⇒l2,1= 1 3 (2.11) Luego,     1 0 0 0 −1 3 1 0 0 0 0 1 0 0 0 0 1         3 1 0 1 1 4 2 0 0 2 5 2 1 0 2 6     =     3 1 0 1 0 113 2 −1 3 0 2 5 2 1 0 2 6     (2.12)

(13)

2.2. M ´ETODO DIRECTO: LA FACTORIZACI ´ON LU 7 Ahora, obs´ervese que

    1 0 0 0 −1 3 1 0 0 0 0 1 0 0 0 0 1     −1 =     1 0 0 0 1 3 1 0 0 0 0 1 0 0 0 0 1     (2.13)

En realidad, es en general cierto para todas las matrices triangulares infe-riores formadas por una diagonal de 1’s y un solo elemento adicional debajo de la diagonal, que su inversa es ella misma salvo por el elemento adicional que cambia signo.

Se sigue as´ı de (2.12) que:

A=     3 1 0 1 1 4 2 0 0 2 5 2 1 0 2 6     =     1 0 0 0 1 3 1 0 0 0 0 1 0 0 0 0 1         3 1 0 1 0 11 3 2 − 1 3 0 2 5 2 1 0 2 6     =L1A1 (2.14)

La matrizA1tiene todav´ıa un elemento en la primera columna por debajo de la diagonal distinto de 0: el 1 de la cuarta fila. Procediendo de manera an´aloga a la anterior se tiene: A1=     3 1 0 1 0 113 2 −1 3 0 2 5 2 1 0 2 6     =     1 0 0 0 0 1 0 0 0 0 1 0 1 3 0 0 1         3 1 0 1 0 11 3 2 − 1 3 0 2 5 2 0 −1 3 2 17 3     =L2A2 (2.15) N´otese que la matrizL2no afecta m´as que a la cuarta fila deA2. Por tanto, no puede cambiar los ceros de las filas segunda y tercera a algo no nulo. Esto es, naturalmente, lo que se pretende.

En todo caso, ya no hay elementos a eliminar en la primera columna deA2. En la segunda columna el elemento (3,2) es distinto de cero (2). As´ı, se tiene:

A2=     3 1 0 1 0 113 2 −1 3 0 2 5 2 0 −1 3 2 17 3     =     1 0 0 0 0 1 0 0 0 116 1 0 0 0 0 1         3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 −1 3 2 17 3     =L3A3 (2.16) Hay que notar ahora que la matrizL3no afecta a la primera columna deA3. Es por esto que se ha comenzado por eliminar la primera columna, y por lo que una vez que se elimine la segunda se comenzar´a por la tercera. Las matricesL’s que afectan a cada columna no pueden modificar las columnas anteriores.

(14)

A3=     3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 −1 3 2 17 3     =     1 0 0 0 0 1 0 0 0 0 1 0 0 1 11 0 1         3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 0 2411 6211     =L4A4 (2.17) Finalmente, solo queda eliminar el t´ermino (4,3) deA4. De aqu´ı resulta:

A4=     3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 0 2411 6211     =     1 0 0 0 0 1 0 0 0 0 1 0 0 0 2443 1         3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 0 0 2048473     =L5U (2.18) U es una matriz triangular superior. Ahora, de todo lo anterior se sigue:

A=L1A1=L1L2A2=L1L2L3A3=L1L2L3L4A4=L1L2L3L4L5U (2.19) Por otra parte, el producto de matrices triangulares inferiores es triangular inferior. Luego L1L2L3L4L5 es una triangular inferior que se llamar´a L. Es, adem´as, muy f´acil de calcular. En efecto

L=     1 0 0 0 1 3 1 0 0 0 6 11 1 0 1 3 1 11 24 43 1     (2.20)

Es decir, el efecto de cada Li es a˜nadir su t´ermino fuera de la diagonal.

Esto es v´alido en general, para matrices Li como las que resultan del proceso

de factorizaci´on (una diagonal de 1’s m´as un t´ermino fuera de diagonal). N´otese que para calcular cada matrizLi hay que resolver la ecuaci´on

−li,(k,l)ai−1,(l,l)+ai−1,(k,l)= 0 (2.21) siendo (k, l) el t´ermino a eliminar. Para resolver esta ecuaci´on en (li,(k,l) es preciso que el t´ermino de la diagonalai−1,(l,l)6= 0. Este t´ermino es llamado el pivote. Caso de ser nulo, se puede intentar permutar la fila l-´esima por otra situada m´as abajo. Esto equivale a reordenar las variables del sistema lineal. Si no hubiera ninguna permutaci´on que resolviera el problema (que todas dieran pivotes nulos) es que la matriz es singular y no hay, por tanto, soluci´on ´unica.

Por otra parte, en el ejemplo que se estudia, se puede comprobar que

U =     3 1 0 1 0 113 2 −1 3 0 0 4311 2411 0 0 0 2048 473     =     3 0 0 0 0 113 0 0 0 0 4311 0 0 0 0 2048 473         1 1 3 0 1 3 0 1 6 11 1 11 0 0 1 24 43 0 0 0 1     =DLT (2.22)

(15)

2.2. M ´ETODO DIRECTO: LA FACTORIZACI ´ON LU 9 Luego

A=LU =LDLT (2.23)

Esta expresi´on es conocida como la factorizaci´on triple LDLT. Es posible

llevarla a cabo si la matriz A es sim´etrica (¡pru´ebese!). Esta simetr´ıa se pre-senta a menudo en problemas de campos, y se puede explotar para mejorar el procedimiento de factorizaci´on LU arriba explicado.

2.2.2

Factorizaci´

on LU de matrices ralas

La factorizaci´on LU expuesta arriba tiene el inconveniente de que las operaciones se realizan sobre matrices llenas, es decir, sin tener en cuenta que la mayor parte de los elementos de la matriz son nulos.

Esencialmente, la factorizaci´on LU con matrices ralas procede de la misma forma que la factorizaci´on con matrices llenas. Las diferencias que existen son las siguientes:

1. Solamente se almacenan los elementos no nulos de las matrices, junto con su localizaci´on. As´ı, por ejemplo, en Matlab, la matriz:

    2 1 0 0 1 2 1 0 0 1 2 1 0 0 1 2    

se almacena en tres vectores, un primero que almacena los valores no nulos, y otros dos que almacenan las posiciones (fila y columna) donde se encuentran:

( 2 1 1 2 1 1 2 1 1 2 ) ( 1 1 2 2 2 3 3 3 4 4 ) ( 1 2 1 2 3 2 3 4 3 4 )

Existen otras formas de codificar la posici´on m´as eficientes que la anterior, aunque m´as complejas.

2. Existe una l´ogica que determina las operaciones y sumas que es preciso realizar, salt´andose todas las operaciones que consistan en multiplicar por cero, o sumar cero. Esto es posible porque se saben los elementos que son nulos (los que no est´en codificados en los vectores anteriores).

En cualquier caso, es claro que interesa conseguir que los factores LU que resulten tengan tantos elementos nulos como sea posible. En este sentido, el orden que adopten las variables y ecuaciones es de crucial importancia. Por ejemplo, consid´erese la matriz

(16)

A=     20 15 6 4 15 6 0 0 6 0 4 0 4 0 0 10    

Al ser sim´etrica, admite una descomposici´onLDLT. Es f´acil comprobar que

el factorLes     1 0 0 0 0,75 1 0 0 0,30 0,8571 1 0 0,20 0,5714 0,2264 1    

Es decir, a´un cuando la matriz original ten´ıa bastantes ceros, el factor L tiene todos los elementos posibles (los de debajo de la diagonal) no nulos.

En cambio, si se factoriza la matriz

B=     10 0 0 4 0 4 0 6 0 0 6 15 4 6 15 20     se obtiene el factorL     1 0 0 0 0 1 0 0 0 0 1 0 0,4 1,5 2,5 1    

N´otese que ahora el factorL tiene tantos ceros como la matrizB. Por otra parte, las matricesAyBrepresentan al mismo sistema lineal. En efecto, lo ´unico que se ha hecho es cambiar el orden de ecuaciones (filas) y variables (columnas), de manera que la que antes era la primera es ahora la ´ultima, y viceversa.

Por tanto, es importante ordenar adecuadamente las ecuaciones y las varia-bles al formar la matriz del sistema lineal a resolver. “A grosso modo”, el mejor sitio para los ceros es al principio de las filas, antes de los elementos no nulos. Esto es porque al hacer la eliminaci´on de Gauss, estos elementos ya no requieren ser eliminados.

Existen una serie de algoritmos que buscan el orden ´optimo en el que colo-car ecuaciones y variables. Matem´aticamente, este es un problema para el que todav´ıa no se ha encontrado soluci´on, aunque la experiencia demuestra que al-gunos de los algoritmos propuestos son muy eficaces.

En el ejemplo anterior se ve como lo m´as eficaz es colocar la fila con m´as elementos no nulos al final de la matriz. Esta es la idea subyacente al algoritmo del grado m´ınimo, quiz´a el m´as popular de los algoritmos de reordenaci´on. Por ejemplo, la figura 2.2 muestra la reordenaci´on que este algoritmo da para la matriz de la figura 2.1. Obs´ervense las estructuras en forma de flecha que se forman, que recuerdan lo obtenido en el ejemplo.

(17)

2.3. M ´ETODOS ITERATIVOS 11 0 500 1000 1500 2000 2500 3000 3500 4000 0 500 1000 1500 2000 2500 3000 3500 4000 nz = 28831 Minimum degree

Figura 2.2: Reordenaci´on de la matriz.

2.3

etodos iterativos

Los m´etodos iterativos resuelven el sistema lineal

Ax=b (2.24)

calculando una serie{x0,x1, . . . ,xk, . . .} que aproxima cada vez mejor la

solu-ci´on

l´ım

k→∞xk=x=A

−1b (2.25)

Los dos m´etodos iterativos de uso m´as frecuente en el c´alculo de campos son el de Jacobi y el de Gauss-Seidel, que se estudian en la siguiente secci´on. Despu´es, se expone una mejora a estos m´etodos, importante para obtener la convergencia de la serie a una velocidad razonable, conocida como sobrerelajaci´on sucesiva.

2.3.1

Los m´

etodos de Jacobi y Gauss-Seidel

Escr´ıbase de nuevo la ecuaci´on (2.24):

Ax−b=0 (2.26)

Sumando un t´ermino Px a cada t´ermino, siendoP una matriz que se defi-nir´a m´as tarde, de la misma dimensi´on queA:

(18)

La serie{xk}se construye dando una estimaci´on inicial{x0}(muy a menudo un vector con todas las componentes nulas), y calculando, a partir de aqu´ı, cada

xka partir de la estimaci´on anteriorxk−1. La regla para pasar de una estimaci´on a la siguiente es:

Pxk = (A+P)xk−1−b (2.28) En principio, no hay garant´ıa alguna de que la sucesi´on as´ı generada converja a la soluci´on del sistema (2.24), salvo que la matrizP haya sido adecuadamente escogida. Pero si la sucesi´on converge, en el l´ımite se cumple la ecuaci´on (2.27), que es equivalente a (2.24).

Para determinar en que condiciones la sucesi´on generada por la ley (2.28) converge, es conveniente analizar el comportamiento del error

ek=xk−xk−1 (2.29) Si l´ımk→∞xk =x, entonces l´ımk→∞ek =0. Ahora bien, de (2.28)

ek = P−1(A+P)xk−1−b−P−1(A+P)xk−2+b = P−1(A+P)ek−1

= Gek−1 (2.30)

con la matriz de errorG=P−1(A+P) Se sigue entonces:

ek = Gek−1 = G2ek−2 = G3ek−3

= Gke0 (2.31)

As´ı pues, l´ımk→∞ek =0implica que l´ımk→∞Gk = 0.

Para ver que significa esta condici´on, sup´ongase queG tienenautovalores distintosλi con autovectores asociadosvi:

Gvi=λivi (2.32)

Como los autovectores forman una base, es posible escribir e0 como una combinaci´on lineal de los mismos:

e0= n X i=1 civi (2.33) Entonces Ge1=Ge0= n X i=1 Gcivi= n X i=1 ciλivi (2.34)

(19)

2.3. M ´ETODOS ITERATIVOS 13 Iterando el procedimiento, se obtiene:

Gek = n X

i=1

ciλkivi (2.35)

El sumatorio solamente tender´a a cero si todos losλk

i tienden a cero, es decir,

sikλik<1 ∀i. Definiendo el radio espectral de la matrizGcomo

ρ(G) = m´ax

i kλik (2.36)

esta condici´on se puede reescribir como queρ(G)<1. En resumen, se ha de escoger una matrizP tal que

1. ρ(P−1(A+P))<1

2. Los sistemas de la formaPxk= (A+P)xk−1−b, donde la inc´ognita sea

xk, sean f´aciles de resolver.

Desde el punto de vista de la primera condici´on, la mejorP ser´ıa −A. En efecto, en este caso G=−A−1(AA) = 0, y por tanto el error se anular´ıa en la primera iteraci´on (e1=Ge0=0). El inconveniente es que, naturalmente, la matrizAno da un sistema de f´acil soluci´on: si lo fuera se resolver´ıa directamente el sistemaAx=b.

De todas formas, el p´arrafo anterior sugiere que la matriz P debiera ser parecida a −A. Los m´etodos de Jacobi y Gauss-Seidel se basan en tomar sus partes diagonal o triangular. Concretando, descomp´ongase Aen

A=N+D+S (2.37)

dondeN es la parte inferior, D la diagonal yS la superior. Por ejemplo, si

A=     2 1 0 0 1 2 1 0 0 1 2 1 0 0 1 2     (2.38) Entonces N =     0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0     D =     2 0 0 0 0 2 0 0 0 0 2 0 0 0 0 2    

(20)

S =     0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0     (2.39)

Entonces, se tiene que

• Jacobi haceP =−D. Por tanto, la iteraci´on de Jacobi es

−Dxk = (N+S)xk−1−b (2.40)

• Gauss-Seidel hace P =−(D+N). Luego, la iteraci´on es

−(D+N)xk=Sxk−1−b (2.41) Ambas f´ormulas son f´aciles de aplicar, pues la primera implica la resoluci´on de un sistema cuya matriz es diagonal, y la segunda la de una matriz triangu-lar inferior. Lo que es preciso es probar, adem´as, que convergen, es decir que ρ(D−1(N+S))<1 y queρ((D+N)−1S)<12.

En general estas desigualdades son falsas. Hay, sin embargo, un caso de gran importancia en que se verifican: cuando la matrizAes de diagonal dominante. Esto significa que los valores absolutos elementos de la diagonal son mayores que la suma de los valores de los elementos fuera de la diagonal. Es decir

|Ai,i|≥ X

j6=i

|Ai,j | (2.42)

De hecho, las matrices que aparecen en el c´alculo de la ecuaci´on de Poisson, y en otras, verifican esta desigualdad.

Se probar´a ahora esta afirmaci´on para los dos m´etodos. Para ello es conve-niente introducir otras medidas del “tama˜no” de una matriz, an´aloga al radio espectrales: las normas matriciales. Para ello, consid´erese primero las normas (“longitudes” ) de un vector x. Una norma de un vector de n dimensiones es una aplicaci´on de<n en<que verifica

1. kxk>0 si x6=0,kxk= 0 si x=0

2. kαxk=|α| kxk, siendoαun escalar. 3. kx+yk ≤ kxk+kyk

Existen varias de estas normas, tales como

• La norma eucl´ıdea

kxk2=

p

x(1)2+. . .+x(n)2 (2.43)

2Es evidente queρ(G) =ρ(G), puesto que el radio espectral se define por los m´odulos de

(21)

2.3. M ´ETODOS ITERATIVOS 15 • La norma-0 kxk0=|x(1)|+. . .+|x(n)| (2.44) • La norma-∞ kxk∞= m´ax k |x(k)| (2.45)

A cada una de estas normas vectoriales se les puede asociar una norma matricial. Por ejemplo, para la norma-∞

kAk∞= m´ax kxk=1k

Axk∞ (2.46)

y de forma an´aloga para las dem´as normas. N´otese que, a partir de esta defini-ci´on, sikxk∞= 1

kAxk∞≤ kAk∞kxk∞ (2.47)

Si kxk∞ 6= 1, esta f´ormula es tambi´en v´alida. En efecto, se ha de verificar

para el vectory= 1

kxk∞x

kAyk∞≤ kAk∞kyk∞ (2.48)

ya quekyk∞= 1. Multiplicando ahora por el escalarkxk∞se obtiene la

expre-si´on buscada.

Es ahora posible demostrar que una condici´on suficiente (aunque no nece-saria) para que un algoritmo iterativo converja es que la norma de la matriz G=P−1(A+P) sea menor que 1. En efecto, escribiendo la ecuaci´on de error, y teniendo en cuenta la desigualdad anterior

kekk∞ = kGek−1k∞

≤ kGk∞kek−1k∞

≤ kGkk

∞ke0k∞ (2.49)

SikGk∞<1, entonces l´ımk→∞kekk= 0. SikGk∞= 1, se tiene al menos la

garant´ıa de que el error no puede crecer, y de hecho normalmente disminuir´a. Si kGk∞>1, la serie podr´ıa ser, pese a todo, convergente.

Aunque el razonamiento anterior es v´alido para cualquier norma, ocurre que la norma-∞es particularmente f´acil de calcular. En efecto, siGtiene dimensi´on n, se tiene que kGk∞= m´ax 1≤i≤n n X j=1 |Gij| (2.50)

Para probar este resultado, partimos de la definici´on de norma (2.46). Te-niendo en cuenta que la componente idel vectorGeesP

(22)

kGk∞= m´ax

i | X

j

Gijej| (2.51)

supuesto, claro est´a, que kek∞ = 1. Pero esta igualdad significa que todas

las componentes de e est´an comprendidas entre 1 y -1, y que una al menos alcanza este extremo. Teniendo esto en cuenta, es f´acil ver que la manera de maximizar la componentei, que es P

jGijej, es considerar un vectorej cuyas

componentes valgan 1 si Gij >0, y -1 si Gij < 0. En este caso, se tiene que P

jGijej=Pj|Gij |, a partir de lo cual se deduce (2.50).

Es ahora posible probar la convergencia de los m´etodos de Jacobi y Gauss-Seidel para matrices diagonalmente dominantes.

• Jacobi. La matriz de la iteraci´on es

G=D−1(N+S) (2.52) es decir Gij= Aij Aii , i6=j, Gii = 0 (2.53) Entonces kGk∞= m´ax i X j |Aij | |Aii| ≤1 (2.54)

donde la ´ultima desigualdad se sigue del hecho de queAes diagonalmente dominante.

• Gauss-Seidel. La matriz de iteraci´on es

G= (D+N)−1S (2.55) Sea la ecuaci´ony=Gx. Esta ecuaci´on es equivalente a

(D+N)y=Sx (2.56)

Def´ınanse las matrices ˆN =D−1N y ˆS =D−1S. Los elementos de estas matrices son: ˆ Nij = Aij Aii j < i 0 j ≥i ˆ Sij = Aij Aii j > i 0 j ≤i (2.57)

(23)

2.3. M ´ETODOS ITERATIVOS 17 Se tiene entonces que

y= ˆSx−Nˆy (2.58)

Sea entonces k la componente para la cual kyk∞ = yk. De la ecuaci´on

k-´esima del sistema de ecuaciones anterior se sigue que:

yk =kyk∞≤skkxk∞+nkkyk∞ (2.59) donde si = n X j=i+1 |Aij | |Aii| ni= i−1 X j=1 |Aij | |Aii| (2.60)

As´ı se tiene que

kyk∞≤

sk

1−nk

kxk∞ (2.61)

Por otra parte, recu´erdese la definici´on de norma

kGk∞= m´ax kxk=1

kGxk (2.62)

Comoy=Gx, es claro que

kGk∞≤

sk

1−nk

(2.63) Y como, al serAdiagonalmente dominante,sk+nk ≤1, luegosk≤1−nk,

y por tanto

kGk∞≤1 (2.64)

2.3.2

El m´

etodo de la sobrerrelajaci´

on sucesiva

Se ha visto en la secci´on anterior que los m´etodos de Jacobi y Gauss-Seidel son convergentes cuando se cumple que la matriz A es diagonalmente dominante. Sin embargo, las matrices que aparecen t´ıpicamente en los problemas de campos presentan est´an dominadas “por los pelos” (se cumple el = pero no el<en la definici´on de dominancia), por lo que cabe temer que la convergencia sea lenta. Este temor se confirma en la pr´actica.

Existe una forma sencilla de modificar estos m´etodos que a menudo mejora substancialmente su velocidad de convergencia. Por ejemplo, consideremos la iteraci´on de Jacobi

(24)

xk=−D−1(N+S)xk−1+D−1b=xk−1+rk−1 (2.65) siendo por tanto

rk−1=−xk−1−D−1(N+S)xk−1+D−1b=−D−1Axk−1+D−1b (2.66) El residuork−1es la cantidad en que corregimosxk−1para intentar obtener la soluci´on. Los residuos son cada vez m´as peque˜nos, y tienden a cero conforme nos acercamos a la soluci´on.

El m´etodo de la sobrerrelajaci´on sucesiva de Jacobi viene dado por la ecua-ci´on

xk=xk−1+ωrk−1 (2.67) siendoωun n´umero que, como se ver´a m´as adelante, est´a comprendido entre 0 y 2. Por supuesto, siω= 1 se recupera el m´etodo de Jacobi.

El m´etodo de Jacobi es tambi´en conocido como m´etodo de relajaci´on de Jacobi. Como normalmenteω >1, al m´etodo propuesto se le llama m´etodo de sobrerrelajaci´on de Jacobi.

Existe tambi´en un m´etodo de sobrerrelajaci´on de Gauss- Seidel, dado por la misma f´ormula, pero donde rk−1 es el residuo que resulta de la iteraci´on de Gauss-Seidel

rk−1=−(D+N)−1Axk−1+ (D+N)−1b (2.68) Es esta segunda versi´on la que es utilizada con m´as frecuencia. La iteraci´on sobrerrelajada de Gauss-Seidel se puede escribir, substituyendo la expresi´on del residuo en (2.67), como:

xk = (I−ω(D+N)−1A)xk−1+ω(D+N)−1b (2.69) En estos algoritmos el error ek = ωrk. Por otra parte, la matriz de error

para este algoritmo es

Gω= (I−ω(D+N)−1A) (2.70)

Utilizando las matrices ˆN =D−1N y ˆS =D−1S, se tiene que

Gω = I−ω(D+N)−1A = I−ω(I+ ˆN)−1D−1A = I−ω(I+ ˆN)−1D−1(I+N+S) = I−ω(I+ ˆN)−1(I+ ˆN+ ˆS) = (I+ ˆN)−1((I+ ˆN)−ω(I+ ˆN+ ˆS) = (I+ ˆN)−1((1−ω)(I+ ˆN)−ωS)ˆ (2.71)

(25)

M ´ETODOS SEMIDIRECTOS 19 Por otra parte, recu´erdese que el determinante de una matriz es, por una parte, el producto de sus autovalores; y por otra el producto de los elementos de la diagonal. N yS son matrices inferior y superior, con elementos nulos en la diagonal. Por tanto

det(Gω) = Πni=1λGi

= det(I+ ˆN)−1det((1−ω)(I+ ˆN)−ωS)ˆ

= (1−ω)n (2.72) Por consiguiente ρ(G) = m´ax i |λ G i |≥|1−ω| (2.73)

Y como es condici´on necesaria para que el algoritmo converja que el radio espectral sea menor que 1, se sigue que 0≤ω≤2.

Se puede demostrar tambi´en que para matrices sim´etricas y positivas defini-das, el m´etodo converge para todoωentre 0 y 2. Por otra parte, existen algunas matrices para los que los valores ´optimos deω son conocidos. En el caso de las matrices que resultan al aplicar el m´etodo de diferencias finitas a la ecuaci´on de Laplace, un valor deω ligeramente por encima de 1 (1.1 por ejemplo) suele dar buenos resultados.

2.4

etodos semidirectos: el gradiente

conjuga-do

Los m´etodos semidirectos permiten, en principio, como los directos, resolver el sistema lineal Ax = b en un n´umero finito de pasos. Sin embargo, tanto en su implantaci´on como en su comportamiento pr´actico son m´as similares a los iterativos.

De entre todos ellos, el que tiene m´as predicamento es el m´etodo del gradiente conjugado. Tiene sin embargo una limitaci´on: solamente se aplica a matricesA que sean sim´etricas definidas positivas. Sin embargo, este es muy a menudo el caso en problemas de campos.

Recu´erdese queAes positiva definida cuando se cumple que

xTAx>0 ∀x (2.74) De la ecuaci´on anterior se sigue que la funci´on

F(x) = 1 2x

TAxxTb (2.75)

tiene un m´ınimo para

(26)

En efecto, escr´ıbasex=x∗+ ∆x. Entonces F(x) = 1 2(x ∗+ ∆x)TA(x+ ∆x)(x+ ∆x)Tb = 1 2x ∗TAx+ ∆xTAx+1 2∆x TA∆xx∗TbxTb = 1 2x ∗TAxx∗Tb+ +∆xT(Axb) +1 2∆x TA∆x = 1 2x ∗TAxx∗Tb+1 2∆x TA∆x = F(x∗) +1 2∆x TA∆xF(x) (2.77)

Se ha empleado el hecho de que A es sim´etrica para pasar de la primera a la segunda ecuaci´on, y el hecho de que es positiva definida para poder escribir la desigualdad en la ´ultima.

Se ha reducido, pues, el problema de resolver un sistema lineal al de encontrar el m´ınimo de una funci´on. Una algoritmo popular para encontrar el m´ınimo es el algoritmo del gradiente. Reu´erdese que el gradiente de una funci´on indica la direcci´on de m´axima pendiente. Parece pues razonable escoger esta direcci´on para minimizarF. En el caso presente, el gradiente deF en el puntoxes

∇F =Ax−b=g (2.78) y un posible algoritmo ser´ıa

xk+1=xk−αkgk (2.79)

La cantidadαk se calcula de forma que el decremento sea tan grande como

sea posible. Pero

F(xk+1) = F(xk−αkgk) = 1 2(xk−αkgk) T A(xk−αkgk)−(xk−αkgk) T b = 1 2α 2 k g T kAgk −αk gkTAxk−gTkb + 1 2x T kAxk−xTb (2.80)

Comoxk ygk ya estan fijos, elαk ´optimo se encuentra buscando el m´ınimo

de esta expres´on respecto aαk e igualando a 0. Luego

αk = gTkAxk−gTkb gT kAgk = gT k (Axk−b) gT kAgk = gT kgk gT kAgk (2.81)

(27)

M ´ETODOS SEMIDIRECTOS 21 gk = Axk−b αk = gTkgTk gT kAgk xk+1 = xk−αkgk (2.82)

siendo necesaria, por supuesto, alguna estimaci´on inicialx0(por ejemplo,x0=

0).

El algoritmo anterior (el algoritmo del gradiente) converge, aunque, en ge-neral, de una manera m´as bien lenta. Una forma de acelerar la convergencia es modificarlo de la siguiente manera:

gk = Axk−b βk = dT k−1Agk dT k−1Adk−1 dk = gk−βkdk−1 αk = dT kgk dT kAdk xk+1 = xk−αkdk (2.83)

La diferencia b´asica es que, en lugar de actualizarxk seg´un el gradientegk,

se baja a lo largo de una direcci´on modificadadk, eg´un se observa en la ´ultima

ecuaci´on. Esta direcci´on se calcula a partir del gradiente y de la direcci´on que se utiliz´o en la iteraci´on anterior:dk=gk−βkdk−1. El n´umeroβk se ha calulado

de forma que dT

k−1Adk = 0 (¡compr´uebese!). El valor αk se calcula seg´un el

mismo procediento que ya se emple´o en el algoritmo del gradiente.

Es de importancia b´asica para comprender la eficacia del algoritmo el que se verifica que

gTi gj = 0 ∀i6=j (2.84)

Para demostrar este hecho es preciso obtener unos resultados previos:

• gk =gk−1−αk−1Adk−1

Esta f´ormula se obtiene reescribiendo la definici´on degk

gk = Axk−b

= A[xk−1−αk−1dk−1]−b

= [Axk−1−b]−αk−1Adk−1

(28)

• dT

k−1gk = 0

Esta condici´on viene exigida por el hecho de que el punto xk se calcula

como el punto de la recta (el valor de α) x = xk−1−αdk−1 que hace m´ınimo aF. Pero en este punto m´ınimo, el gradiente deF (es decir, gk)

debe ser perpendicular a la recta, cuyo vector director esdk−1. Con estos resultados, el algoritmo puede resumirse en cuatro ecuaciones:

gk = gk−1−αk−1Adk−1 (2.86)

dk = gk−βkdk−1 (2.87)

dTkAdk−1 = 0 (2.88)

gTkdk−1 = 0 (2.89)

De hecho, a partir de estas f´ormulas se pueden despejar los valores de αk y

βk.

Se empezar´a por demostrar quegTkgk−1= 0. Naturalmente esto es lo mismo quegkTgk+1= 0. Para ello, primero hay que ver que

gkTdk−1 = 0 = (gk+1+αkAdk) T dk−1 = gkT+1dk−1 = gkTdk−2 (2.90)

donde se ha usado el hecho de queAT =A. Pero, por otra parte

gTkdk−1 = 0

= gTk (gk−1−βk−2dk−2)

= gTkgk−1 (2.91)

Con esto, ya se ha probado que el gradiente obtenido en una iteraci´on es perpendicular a los que se obtienen en la iteraci´on anterior y posterior. Pero adem´as Agk = Adk+βkAdk−1 = 1 αk (gk−gk+1) + βk αk−1 (gk−1−gk) = − 1 αk gk+1+ 1 αk − βk αk−1 gk+ βk αk−1 gk−1 = ak+1gk+1+bkgk+ck−1gk−1 (2.92)

(29)

M ´ETODOS SEMIDIRECTOS 23 Es esta f´ormula de 3 t´erminos, junto con la simetr´ıa de A, lo que permite asegurar la ortogonalidad de los vectores gk. Se empezar´a por comprobar que

gT

k−2gk = 0. Para ello, se necesita probar una f´ormula recursiva para el producto

gTkgk. Premultiplicando dk =gk−βkdk−1 porgTk−1:

gTk1dk = −βkgTk−1dk−1

= −βkgTk−1(gk−1−βk−1dk−2)

= −βkgTk−1gk−1 (2.93) Por otra parte

gTk−1dk = (gk+αk−1Adk−1)Tdk

= gkTdk

= gkT(gk−βkdk−1)

= gkTgk (2.94)

Por lo tanto, se concluye que

gTkgk=−βkgTk−1gk−1 (2.95) Premultiplicando ahora la f´ormula de tres t´erminos (2.92) porgT

k−1, se ob-tiene gTk1Agk =− 1 αk gkT1gk+1+ βk αk−1 gTk1gk−1 (2.96) Es claro que tambi´en es v´alida la f´ormula

Agk−1=− 1 αk−1 gk+ 1 αk−1 −βk−1 αk−2 gk−1+ βk−1 αk−1 gk−2 (2.97) Premultiplicando porgT k: gTkAgk−1=− 1 αk−1 gTkgk+ βk−1 αk−1 gTkgk−2 (2.98) Como la matrizAes sim´etrica,gT

k−1Agk=gTkAgk−1, y por tanto − 1 αk gTk1gk+1+ βk αk−1 gTk1gk−1=− 1 αk−1 gTkgk+ βk−1 αk−1 gTkgk−2 (2.99) Y teniendo en cuenta (2.95): − 1 αk gTk1gk+1= + βk−1 αk−1 gTkgk−2 (2.100)

(30)

Ahora bien, consid´erese la primera iteraci´on del algoritmo. Se parte dex1=

0. Entonces g1 = −b. Ahora, al ir a escoger la direcci´on d1, no existe d0 de alguna iteraci´on anterior. Por tanto, es natural hacer d1 =g1=−b. Con esta selecci´on se tiene que

gT3g1=gT3d1= 0 (2.101) como se demuestra en (2.90). Pero entonces, se puede usar la expresi´on (2.100) para demostrar, por inducci´on, que

gTk+2gk= 0 ∀k (2.102)

Se probar´a ahora que gT

i gj = 0 ∀i, j. Para ello sup´ongase que giTgj= 0 si

i, j≤k(es una prueba por inducci´on). De hecho, ya sabemos que, por lo menos, se cumplir´a para las primeras iteraciones: i, j = 1,2,3 o k = 3. Entonces, si i≤k−2

gTi (Agk) = (Agi)Tgk= (ai+1gi+1+bigi+ci−1gi−1)Tgk= 0 (2.103)

puesto que los productos escalares gT

i−1gk =gTigk =gTi+1gk = 0. Pero, de la

f´ormula de tres t´erminos

ak+1gk+1=Agk−bkgk−ck−1gk−1 (2.104) Premultiplicando porgT

i i < k−1, y teniendo en cuenta (2.103) se sigue que

giTgk+1= 0 i < k−1 (2.105) Como ya se hab´ıan probado los casos i=k−1 e i=k, queda demostrado que los vectoresgk son ortogonales. Ahora bien, si la dimensi´on de la matrizA

esn, solamente puede habernvectores ortogonales no nulos. Esto significa que, a m´as tardar para i=n+ 1, se ha tenido que cumplir quegi =0. Pero como

g=Ax−b, esto es lo mismo que decir que el algoritmo converge en, a lo m´as, n+ 1 iteraciones.

De hecho a menudo la situaci´on es todav´ıa m´as favorable. En efecto, obs´ erve-se que xk+1=xk−αkdk =x1− k X i=1 αidi=− k X i=1 αidi (2.106)

ya que x1 = 0. Ahora bien, el algoritmo tiende a calcular los mayores di en

las primeras iteraciones, dejando los m´as peque˜nos para el final. Por lo tanto, a menudo se llegan a precisiones razonables con muchas menos iteraciones quen. La restricci´on de que x1 = 0 no es tan seria como parece. Por ejemplo, sup´ongase que se tiene una soluci´on aproximada ˜xdesde la que se desea iniciar elalgoritmo. Entonces, se puede escribir la soluci´on exactaxcomo:

(31)

M ´ETODOS SEMIDIRECTOS 25 La ecuaci´onAx=bes equivalente entonces a

A(˜x+ ∆x) =b⇒A∆x=b−A˜x= ˜b (2.108) siendo ya razonable resolver este sistema por ∆x1=0.

(32)
(33)

Cap´ıtulo 3

Ecuaciones de Laplace y

Poisson: diferencias finitas

5 asico

3.1

Introducci´

on

Las ecuaciones de Laplace y Poisson aparecen con frecuencia en el estudio de situaciones est´aticas, de situaciones de equilibrio. Por ejemplo, la ecuaci´on que rige la distribuci´on del campo electrost´atico en el vac´ıo es

0∆V =−ρ (3.1)

dondeV es el potencial el´ectrico yρla densidad de carga. La ecuaci´on anterior, escrita de una forma menos compacta, ser´ıa:

0( ∂ 2 ∂x2 + ∂2 ∂y2 + ∂2 ∂z2)V(x, y, z) =−ρ(x, y, z) (3.2) Esta ecuaci´on es la ecuaci´on de Poisson en tres dimensiones. Frecuentemente se requiere su resoluci´on en dos, o incluso una dimensi´on. Esto significa que en la ecuaci´on anterior no se considera la coordenadaz, o layy laz. Por ejemplo, la ecuaci´on de Poisson en 2 dimensiones es:

0( ∂ 2 ∂x2 +

∂2

∂y2)V(x, y) =−ρ(x, y) (3.3) Sin embargo, se utilizar´a el operador laplaciano ∆ para indicar tambi´en el operador diferencial en dos dimensiones ∂x∂22 +

∂2

∂y2. De hecho, la dimensi´on del

operador denotado por ∆ ser´a determinada por el contexto.

La ecuaci´on de Poisson no sirve solamente para calcular el campo elec-trost´atico. De hecho, es preciso resolver la misma ecuaci´on para determinar el campo gravitacional en la teor´ıa de Newton, la distribuci´on estacionaria de temperaturas en los cuerpos, la velocidad con que fluyen los l´ıquidos ideales, o las tensiones que aparecen en una barra sometida a torsi´on.

(34)

b b ∂V ∂n ∆V =f V

Figura 3.1: Dominio de la ecuaci´on de Poisson

Un caso particular de gran inter´es es cuando la funci´onρes nula. En tal caso se tiene la ecuaci´on de Laplace:

∆V = 0 (3.4)

En este cap´ıtulo se expondr´a como resolver estas ecuaciones mediante el m´etodo de las diferencias finitas. El pr´oximo abordar´a su resoluci´on mediante el m´etodo de los elementos finitos.

3.2

Preliminares matem´

aticos

Antes de proceder a explicar cualquier procedimiento num´erico, es preciso que las ecuaciones a resolver hayan sido planteadas de una forma matem´aticamente correcta. En el caso de la ecuaci´on de Poisson, el problema a resolver es determi-nar el potencialV en el interior de un determinado dominioD. En la frontera de dicho dominio se da, o el propio potencialV o su derivada respecto a la normal de la superficie ∂Vn (ver figure 3.1)

En el caso de problemas electrost´aticos, el campo el´ectrico es el gradiente del potencial (E=−∇V), por lo que la derivada normal a la superficie no es m´as que la componente normal del campo (En =−∂Vn). Es esta, de hecho, una condici´on

natural en problemas electrost´aticos. Por ejemplo, si se est´a intentando calcular la resistencia de una determinada pieza, sabemos que no puede salir corriente por la superficie no conectada a electrodos (ver figura 3.2). As´ı, jn = 0. Pero

como, por la ley de Ohm,j=σE, se tiene tambi´en queEn= 0. O dicho de otra

forma ∂V ∂n = 0.

(35)

CONSTRUCCI ´ON DE LA MALLA 29

I

I

j=0

V=0

V=10

Figura 3.2: Una resistencia

En otro tipo de problemas (t´ermicos, hidra´ulicos, ...) esta condici´on suele tener tambi´en un sentido f´ısico bastante claro. Adem´as, y en cualquier caso, aparece tambi´en cuando se consideran ejes de simetr´ıa en la configuraci´on de estudio, como se ver´a m´as adelante.

De cualquier manera, se tiene el siguiente problema matem´atico:

∆V =f enD (3.5)

sujeto a V =g en∂D1 (3.6)

∂V

∂n =h en∂D2 (3.7)

donde f(x, y, z) = −ρ

0 (definida en todo D), g(x, y, z) (definida s´olo en ∂D1)

y h(x, y, z) (definida s´olo en ∂D2) son funciones conocidas, y V es la funci´on inc´ognita, a determinar enD.

Las condicionesV =g en ∂D1 y ∂Vn =hen∂D2 son colectivamente cono-cidas como condiciones de contorno. El primer tipo (V =g) es conocido como condici´on de Dirichlet, y el segundo como condici´on de von Neumann. N´ ote-se que entre la dos han de cubrir todo el contorno, pero que su dominio de definici´on no se puede superponer (∂D1∩∂D2=∅).

3.3

Construcci´

on de la malla y planteamiento de

las ecuaciones

En el m´etodo de las diferencias finitas se intenta calcular el valor de la funci´on V en una serie finita de puntos, situados en las intersecciones de una red o malla (ver figura 3.3). Por regla general, esta es una red cuadrada (en 2 dimensiones) o c´ubica (en 3 dimensiones), aunque otros tipos de red (rectangular, hexagonal, ...) son tambi´en posibles y se utilizan ocasionalmente.

(36)

Figura 3.3: Dominio mallado

En el resto de esta secci´on se estudiar´an problemas bidimensionales en re-des cuadradas. La generalizaci´on a otras dimensiones y redes es sencilla, y se estudiar´an algunos casos en otras secciones.

La ecuaci´on de Poisson es una ecuaci´on diferencial. Sin embargo, de lo ´unico que se dispone es del valor deV en una serie discreta de puntos, por lo que es preciso aproximar las derivadas por diferencias. De ah´ı el nombre del m´etodo.

Por ejemplo, consid´erese el punto P de la figura 3.4. Como la malla tiene anchura h, el punto P se encuentra situado en las coordenadas (ih, jh). Para simplificar la notaci´on, se escribir´a:

V(ih, jh) =Vi,j (3.8)

El valor deV en el punto (i+ 1, j) puede relacionarse con el que tiene en el punto (i, j) mediante la serie de Taylor:

Vi+1,j =Vi,j+ ∂V ∂x|i,jh+ 1 2 ∂2V ∂x2|i,jh 2+1 6 ∂3V ∂x3|i,jh 3+ 1 24 ∂4V ∂x4|ξ1,jh 4 (3.9) Donde x(i)< ξ1< x(i+ 1). An´alogamente, se pueden relacionar el valor de V en el punto (i−1, j) con el de (i, j):

Vi−1,j =Vi,j− ∂V ∂x|i,jh+ 1 2 ∂2V ∂x2|i,jh 2 −1 6 ∂3V ∂x3|i,jh 3 + 1 24 ∂4V ∂x4|ξ2,jh 4 (3.10) Sumando las ecuaciones (3.9) y (3.10) se obtiene:

Vi+1,j+Vi−1,j = 2Vi,j+ ∂2V ∂x2|i,jh 2+ 1 24 ∂4V ∂x4|ξ1,j+ ∂4V ∂x4|ξ2,j h4 (3.11)

(37)

CONSTRUCCI ´ON DE LA MALLA 31 O h h P ih jh i, j i, j+ 1 i, j−1 i+ 1, j i−1, j

Figura 3.4: La malla, de cerca

= 2Vi,j+

∂2V ∂x2|i,jh

2+O(h4) (3.12) donde O(h4) denota t´erminos de grado cuarto o mayor en h. Suponiendo que estos t´erminos son despreciables (lo que suceder´a si hes lo bastante peque˜no) se tiene:

∂2V ∂x2|i,j=

Vi+1,j +Vi−1,j−2Vi,j

h2 (3.13)

De forma similar se obtiene que: ∂2V

∂y2|i,j=

Vi,j+1+Vi,j−1−2Vi,j

h2 (3.14) Luego (∂ 2V ∂x2 + ∂2V ∂y2)|i,j=

Vi+1,j+Vi−1,j+Vi,j+1+Vi,j−1−4Vi,j

h2 (3.15)

Ahora bien, el t´ermino izquierdo de esta ecuaci´on es precisamente el opera-dor diferencial ∆ (el laplaciano), luego el t´ermino derecho es la aproximaci´on buscada que solo involucra el valor deV en los nodos de la red. De esta manera, la ecuaci´on de Poisson en el punto (i, j) se puede aproximar mediante la f´ormula en diferencias finitas:

Vi+1,j+Vi−1,j+Vi,j+1+Vi,j−1−4Vi,j

(38)

Figura 3.5: Problema electrost´atico

As´ı se tiene ya una ecuaci´on para todos los puntos internos a la malla. Los nodos que est´en en el contorno, o pr´oximos a ´el, requieren un tratamiento especial. La situaci´on se simplifica notablemente si la malla es escogida de tal forma que se adapte al contorno. Esto es lo que se supondr´a en esta secci´on, dejando el caso m´as general para m´as adelante.

Por ejemplo, sup´ongase que se desea calcular el potencial electrost´atico en el espacio entre los dos conductores que se muestran en la figura 3.5. El conductor interno est´a a un potencial V = 100 y el externo a V = 0. En el espacio intermedio se verifica la ecuaci´on de Laplace:

∆V = 0 (3.17)

Es tambi´en claro que, debido a la simetr´ıa de la configuraci´on, basta con resolver un octavo. En concreto, se tienen las siguientes ecuaciones:

2Vb+ 0 + 100−4Va = 0 puntoa (3.18)

Va+Vc+ 0 + 100−4Vb = 0 puntob (3.19)

Vb+Vd+Ve+ 0−4Vc = 0 puntoc (3.20)

2Vc+ 2∗0−4Vd = 0 puntod (3.21)

2Vc+ 2∗100−4Ve = 0 puntoe (3.22)

N´otese que los nodos de la red donde se dan condiciones de Dirichlet (los conductores) no son inc´ognitas, puesto que, por definici´on, se conocen all´ı los valores de los potenciales. Hay adem´as dos nodos internos (b y c) y otros tres en el contorno (a,dye).

En este caso, debido a la simetr´ıa de la configuraci´on, se puede suponer que estos tres nodos son internos, puesto que sabemos como se relacionan los potenciales de los nodos que est´an a ambos lados de la l´ınea de simetr´ıa (as´ı, por

(39)

3.4. EL PRINCIPIO DEL M ´AXIMO 33 ejemplo, en el caso del nodoalos valores de las tensiones a derecha e izquierda son iguales, que es por lo que ambos nodos se han denotado como b).

Pero hay otra forma de considerar este problema. Notemos que sobre la l´ınea de simetr´ıa se ha de verificar la anulaci´on de la derivada normal:

∂V

∂n = 0 en linea simetria (3.23)

En efecto, siendo las cargas sim´etricas a ambos lados de la l´ınea de simetr´ıa, no puede haber campo el´ectrico normal a la l´ınea. As´ı, en particular, se ha de verificar

∂V

∂x|a= 0 (3.24)

puesto que en el punto a no puede haber componente del campo Ex, ya que

ambas mitades “ tiran ” lo mismo.

Por lo tanto, en general una l´ınea de simetr´ıa implica la anulaci´on de la derivada normal. Pero es esta una condici´on de contorno de von Neumann. Por lo tanto, las condiciones de contorno nulas de von Neumann ∂Vn = 0 pueden tratarse a˜nadiendo nodos adicionales por fuera del dominio sim´etricos a los nodos internos. El caso de condiciones no nulas se ver´a en una secci´on posterior.

Las ecuaciones (3.18-3.22) se pueden escribir tambi´en en forma matricial:

      −4 2 0 0 0 1 −4 1 0 0 0 1 −4 1 1 0 0 2 −4 0 0 0 2 0 −4             Va Vb Vc Vd Ve       =       −100 −100 0 0 −200       (3.25) O, en notaci´on m´as compacta AV=b (3.26)

En esta ecuaci´on tanto la matrizA como el vectorbson conocidos, por lo que puede resolverse para determinar V. N´otese que los valores concretos de las condiciones de contorno est´an ´ıntegramente incluidos en el t´ermino indepen-diente b. As´ı, si se cambian el valor de los potenciales (por ejemplo, haciendo que el potencial del conductor interior valga 17, y el del exterior -313), lo ´unico que ser´ıa preciso modificar ser´ıa el vector b, pero no la matrizA.

Existen diversos m´etodos para resolver la ecuaci´on lineal (3.26). N´otese que las ecuaciones que resultan del m´etodo de diferencias finitas (!y de otros muchos!) tienen matrices A con un gran n´umero de ceros, o sea, son matrices ralas o cuasivac´ıas. Su resoluci´on se ha abordado en el cap´ıtulo anterior.

3.4

El principio del m´

aximo

4 B´asico

5 Avanzado

Consid´erese de nuevo la ecuaci´on (3.16), v´alida para puntos en el interior de la malla:

(40)

Vi+1,j+Vi−1,j+Vi,j+1+Vi,j−1−4Vi,j

h2 =fi,j (3.27)

En el caso de la ecuaci´on de Laplace, el t´ermino de la derecha fi,j es nulo.

As´ı pues, se puede escribir:

Vi,j=

1

4(Vi+1,j+Vi−1,j+Vi,j+1+Vi,j−1) (3.28) Es decir, el valor del potencial en el centro es la media de los cuatro que tiene alrededor. Esto significa que el valor centralVi,j no puede ser ni el m´

axi-mo ni el m´ıniaxi-mo, ya que la media se encuentra entre estos valores. Coaxi-mo esta conclusi´on es v´alida para todos los puntos en el interior del dominio, se sigue que el valor m´aximo y el m´ınimo deV se tienen que dar en puntos del contorno. Este resultado es conocido como el principio del m´aximo.

El p´arrafo anterior se refiere a los valores deV que resultan de resolver las ecuaciones en diferencias. Ahora bien, la misma conclusi´on se puede establecer para los valores deV soluci´on de la ecuaci´on diferencial. En efecto, conforme va disminuyendo la anchura de la mallahla soluci´on en diferencias va tendiendo a la soluci´on de la ecuaci´on diferencial (se da una prueba en la secci´on siguiente). Por tanto, como la soluci´on de la ecuaci´on diferencial es el l´ımite de la ecuaci´on en diferencias, y para todas estas se verifica el principio del m´aximo, se sigue que tambi´en se cumple para la ecuaci´on diferencial.

Existe una extensi´on del principio del m´aximo que ser´a de utilidad m´as adelante. Sea la ecuaci´on de Poisson

∆V =f (3.29)

conf >0. Entonces se tiene, de la f´ormula de diferencias finitas que

Vi,j= 1 4 Vi+1,j+Vi−1,j+Vi,j+1+Vi,j−1− 1 h2fi,j (3.30) Es decir, V en el nodo central ha de ser menor que en al menos uno de los que le rodean. Por tanto, el m´aximo de V ha de alcanzarse en el contorno (aunque nada puede decirse del m´ınimo en este caso).

3.5

Errores y convergencia

En la secci´on anterior se ha derivado una ecuaci´on algebraica con la que se espera aproximar la ecuaci´on diferencial que se desea resolver. Sin embargo, ser´ıa interesante contar con alguna idea del error cometido, y de como este error disminuye cuando la anchura de la mallahdisminuye tambi´en.

Se va a realizar este an´alisis para un problema particular: el problema puro de Dirichlet en dos dimensiones:

(41)

3.5. ERRORES Y CONVERGENCIA 35 ∂2 ∂x2 + ∂2 ∂y2 V =f enD (3.31) sujeto a V =g en∂D (3.32) siendoDel rect´angulo definido por 0< x < a,0< y < b.

Las ideas b´asicas de este an´alisis son, sin embargo, generalizables a otros casos; y las conclusiones que se obtengan tambi´en.

Para resolver las ecuaciones (3.31,3.32) por diferencias finitas se crear´ıa una malla, que definiremos por la intersecci´on de las l´ıneas verticales xi = ih, i=

1. . . m y las l´ıneas horizontales yj =jh, j = 1. . . n. Se supondr´a adem´as que

mh= ay nh=b, de forma que la malla se adapta perfectamente al dominio

D. Denotemos adem´as porDhel conjunto de nodos interiores al dominio y por

∂Dhel conjunto de nodos en la frontera del dominio.

La aproximaci´on a la ecuaci´on de Poisson dentro del dominio es 1

h2(vi+1,j+vi−1,j+vi,j+1+vi,j−1−4vi,j) =fi,j (3.33) En esta secci´on se denotar´a por V la soluci´on de la ecuaci´on diferencial y por v la soluci´on de la ecuaci´on en diferencias. El problema en diferencias se puede escribir por tanto como

Lvi,j =fi,j enDh (3.34)

sujeto a vi,j=gi,j en∂Dh (3.35)

siendoLes operador en diferencias

Lvi,j =

1

h2(vi+1,j+vi−1,j+vi,j+1+vi,j−1−4vi,j) (3.36) Consid´erese ahora el errorei,j en los nodos de la malla entre la soluci´on de

la ecuaci´on diferencialVi,j y la de la ecuaci´on en diferenciasvi,j:

Lei,j = LVi,j−Lvi,j (3.37)

= LVi,j−fi,j (3.38)

= Ti,j (3.39)

El error de truncaci´onTi,j puede estimarse a partir del desarrollo de Taylor

deV. En efecto, de la f´ormula de Taylor (3.11) se sigue que:

Ti,j= 1 24h 2 4V ∂x4|ξ1,j+ ∂4V ∂x4|ξ2,j+ ∂4V ∂y4|i,η1+ ∂4V ∂y4|i,η2 (3.40) Den´otese por ¯D la uni´on deD y ∂D. Entonces, def´ınase una constante M mediante la ecuaci´on

(42)

M = m´ax m´ax ¯ D |∂ 4V ∂x4|,m´¯ax D |∂ 4V ∂y4| (3.41) As´ı pues, puede escribirse

m´ax Dh |Ti,j| ≤ 1 6h 2M (3.42) Y por tanto m´ax Dh |Lei,j|= m´ax Dh |Ti,j| ≤ 1 6h 2M (3.43)

Ahora lo que se necesita es alg´un resultado que relacioneei,jconLei,j. En el

anexo de esta secci´on se prueba que en el rect´anguloDdefinido por 0< x < a y 0< y < bse tiene para cualquier funci´onudefinida en la malla

m´ax ¯ Dh |u| ≤m´ax ∂Dh |u|+1 4(a 2+b2) m´ax Dh |Lu| (3.44)

Aplicando este teorema el errorei,j se tiene que

m´ax ¯ Dh |ei,j| ≤m´ax ∂Dh |ei,j|+ 1 4(a 2+b2) m´ax Dh |Lei,j| (3.45)

Pero, en la frontera∂Dh,ei,j = 0 ya que se est´an cumpliendo las condiciones

de contorno. Luego m´ax ¯ Dh |ei,j| ≤ 1 24(a 2+b2)h2M (3.46) Este resultado muestra que, si la soluci´on tiene derivada cuarta, el error se reduce conforme la anchura de la malla se reduce. Prueba adem´as que el error es de orden h2, informaci´on de utilidad para varios m´etodos de mejora de la soluci´on.

En el caso m´as general, se obtienen f´ormulas semejantes, con errores propor-cionales ah2. El paso m´as complicado suele ser el de buscar una relaci´on entre ei,j yLei,j. Sin embargo, existen algunas pocas situaciones peligrosas donde es

imposible encontrar cotas de error como la anterior. La m´as importante es si hay esquinas con ´angulos internos mayores de 180 grados. En estos casos, hay que desconfiar de la soluci´on cerca de estos puntos1.

3.5.1

Anexo: prueba del teorema

Si ues cualquier funci´on definida en el conjunto de los nodos ¯Dh=Dh∪∂Dh

de la regi´on rectangular 0≤x≤a,0≤y≤b, se verifica

m´ax ¯ Dh |u| ≤m´ax ∂Dh |u|+1 4(a 2+b2) m´ax Dh |Lu| (3.47)

(43)

3.5. ERRORES Y CONVERGENCIA 37 siendo

Lui,j=ui+1,j+ui−1,j+ui,j+1+ui,j−1−4ui,j (3.48)

Prueba

Def´ınase la funci´onφi,j mediante la ecuaci´on:

φi,j= 1 4 i 2+j2 h2,(i, j)∈D¯h (3.49) Claramente 0≤φi,j≤ 1 4 a 2+b2 ∀(i, j)∈D¯h (3.50)

Adem´as, en todos los puntos (i, j)∈ Dh

Lφi,j = 1 4 (i+ 1) 2+j2+ (i1)2+j2+i2 +(j+ 1)2+i2+ (j−1)2−4i2−4j2 (3.51) = 1 (3.52)

Def´ınanse ahora las funcionesw+ ywmediante

w+ =u+N φ y w− =u−N φ (3.53) donde

N= m´ax

Dh

|Lui,j| (3.54)

Operando en las ecuaciones (3.53) conLy usando (3.52) se obtiene que:

Lwi,j± =±Lui,j+N ≥0∀(i, j)∈ Dh (3.55)

donde la desigualdad se sigue de la definici´on deN. Pero, por la extensi´on del principio de m´aximo expuesta al final de la secci´on anterior, se sigue de esta ´

ultima inecuaci´on quew± alcanza su m´aximo en el contorno. As´ı pues

m´ax ¯ Dh w±i,j ≤ m´ax ∂Dh w±i,j (3.56) = m´ax ∂Dh (±vi,j+N φi,j) (3.57) ≤ m´ax ∂Dh |vi,j|+ m´ax ∂Dh N|φi,j| (3.58) ≤ m´ax ∂Dh |vi,j|+ 1 4 a 2+b2 N (3.59)

donde, para dar el ´ultimo paso, se utiliza la expresi´on (3.50). Por otra parte, comow± =u±N φ, yN φ≥0, se sigue que ±ui,j≤w±i,j. Luego, por (3.53)

(44)

Figura 3.6: Condiciones de von Neumann no nulas m´ax ¯ Dh ±ui,j≤m´ax ∂Dh |vi,j|+ 1 4 a 2+b2 N (3.60) Es decir m´ax ¯ Dh |ui,j| ≤m´ax ∂Dh |ui,j|+ 1 4(a 2+b2) m´ax Dh |Lui,j| (3.61)

3.6

Problemas con los contornos

4Avanzado

5asico

En esta secci´on se estudian algunos problemas que se pueden presentar en los contornos. Espec´ıficamente, se estudia el tratamiento de condiciones de von Neumann no nulas y qu´e hacer cuando la malla no se adapta bien al contorno. Existe, por supuesto, otros problemas distintos a estos que se tratan. Las f´ ormu-las a aplicar en estos casos suelen ser bastante complicadas, aunque, despu´es de leer esta secci´on, el estudiante interesado no debiera tener dificultades en esta-blecerlas.

3.6.1

Condiciones de von Neumann no nulas

Consid´erese la figura 3.6. Se desea encontrar una f´ormula de diferencias finitas que aproxime la condici´on de Dirichlet

∂V

∂x =g(y) enx=x0 (3.62) Para obtener la ecuaci´on en el puntoOexisten varias posibilidades. Una de ellas es introducir un punto “fantasma” F de forma que la ecuaci´on en O se reduzca a la f´ormula habitual

(45)

3.6. PROBLEMAS CON LOS CONTORNOS 39

1

h2(vF+vA+vB+vC−4vO) =fO (3.63) Ahora se tiene una variable m´as: el potencial en el nudo “fantasma” F. As´ı pues, se necesita una ecuaci´on adicional para este nudo, que debiera estar relacionada con la condici´on de von Neumann, que no se ha usado todav´ıa. Para ello, consid´erese de nuevo los desarrollos de Taylor expuestos en la secci´on 3.3:

Vi+1,j =Vi,j+ ∂V ∂x|i,jh+ 1 2 ∂2V ∂x2|i,jh 2+1 6 ∂3V ∂x3|i,jh 3+ 1 24 ∂4V ∂x4|ξ1,jh 4 (3.64) Dondex(i)< ξ1< x(i+ 1). An´alogamente,

Vi−1,j =Vi,j− ∂V ∂x|i,jh+ 1 2 ∂2V ∂x2|i,jh 2 −1 6 ∂3V ∂x3|i,jh 3+ 1 24 ∂4V ∂x4|ξ2,jh 4 (3.65) Si las dos ecuaciones anteriores se restan se obtiene:

Vi+1,j−Vi−1,j = 2

∂V

∂x|i,jh+O(h

3) (3.66)

siendoO(h3) t´erminos de orden c´ubico o superior. Despreciando estos t´erminos, se obtiene: ∂V ∂x|i,j= 1 h(Vi+1,j−Vi−1,j) (3.67) o, en nuestro caso ∂V ∂x|0=gO = 1 h(VA−VF) (3.68) que es la ecuaci´on adicional buscada.

3.6.2

Tratamiento de contornos curvos

Consid´erse una malla cuadrada pero con la frontera curva como en la figura 3.7. Se desea determinar que ecuaci´on en diferencias finitas hay que aplicar al nodoO. Aplicando de nuevo el teorema de Taylor:

VA = VO+hθ1 ∂V ∂x|O+h 2θ2 1 ∂2V ∂x2|O+O(h 3) (3.69) V3 = VO−h ∂V ∂x|O+h 2∂2V ∂x2|O+O(h 3) (3.70) Eliminando ∂V∂x|O se sigue que:

∂2V ∂x2|O= 1 h2 2 θ1(1 +θ1)VA+ 2 (1 +θ1)V3− 2 θ1VO (3.71)

(46)

Figura 3.7: Contorno curvo

Realizando cuentas similares en la direcci´ony, se obtiene la aproximaci´on a la ecuaci´on de Poisson: 2VA θ1(1 +θ1)+ 2VB θ2(1 +θ2)+ 2V3 (1 +θ1)+ 2V4 (1 +θ2) =−2 1 θ1 + 1 θ2 VO=h2fO (3.72)

3.7

Diferencias finitas en otros sistemas

coorde-nados

En este cap´ıtulo se ha venido tratando el an´alisis de problemas bidimensionales en coordenadas cartesianas. Hay, sin embargo, circunstancias en que es preciso tratar problemas de m´as dimensiones o en sistemas coordenados no cartesianos. El establecimiento de las ecuaciones tridimensionales en coordenadas carte-sianas es bastante trivial: lo ´unico que hay que hacer es repetir lo que se ha hecho a˜nadiendo la coordenada z. En particular, con una malla c´ubica se obtiene la aproximaci´on a la ecuaci´on de Laplace:

Vi+1,j,k+Vi−1,j,k+Vi,j+1,k+Vi,j−1,k+Vi,j,k+1+Vi,j,k+1−6Vi,j,k= 0 (3.73)

en que de nuevo se ve que el potencial central es la media de los adyacentes. En el caso de coordenadas no cartesianas el an´alisis es tambi´en similar. Se parte de la ecuaci´on diferencial, cuyas derivadas se aproximan por diferencias finitas a partir de desarrollos de Taylor en las coordenadas utilizadas. Los dos siguientes apartados realizan estas aproximaciones, de forma somera, para dos casos particulares de cierta relevancia. Otros casos se tratar´ıan de forma similar.

Referencias

Documento similar

Package Item (Container) Type : Vial (100000073563) Quantity Operator: equal to (100000000049) Package Item (Container) Quantity : 1 Material : Glass type I (200000003204)

De hecho, este sometimiento periódico al voto, esta decisión periódica de los electores sobre la gestión ha sido uno de los componentes teóricos más interesantes de la

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

El nuevo Decreto reforzaba el poder militar al asumir el Comandante General del Reino Tserclaes de Tilly todos los poderes –militar, político, económico y gubernativo–; ampliaba

No había pasado un día desde mi solemne entrada cuando, para que el recuerdo me sirviera de advertencia, alguien se encargó de decirme que sobre aquellas losas habían rodado

De acuerdo con Harold Bloom en The Anxiety of Influence (1973), el Libro de buen amor reescribe (y modifica) el Pamphihis, pero el Pamphilus era también una reescritura y

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,