• No se han encontrado resultados

Precondicionamiento en matrices de Toeplitz por bloques - aplicación en elasticidad

N/A
N/A
Protected

Academic year: 2020

Share "Precondicionamiento en matrices de Toeplitz por bloques - aplicación en elasticidad"

Copied!
47
0
0

Texto completo

(1)Precondicionamiento en Matrices de Toeplitz por Bloques: Aplicación en Elasticidad. por. Mauricio Junca Peláez. Tesis presentada al departamento de Matemáticas como parte de los requisitos para optar el grado de Magister en Matemáticas. Director Ph.D. Ahmed Ould. Universidad de los Andes Bogotá Colombia Julio, 2006.

(2) Índice general Índice de guras. iii. Índice de cuadros. iv. Introducción. v. 1. Solución de Sistemas Lineales Toeplitz por Bloques. 1.1. Preliminares matriciales . . . . . . . . . . . . . . . . . . . . . . . 1.1.1. Matrices unitarias y normales . . . . . . . . . . . . . . . . 1.1.2. Matrices Hermitianas . . . . . . . . . . . . . . . . . . . . 1.1.3. Matrices Toeplitz y circulantes . . . . . . . . . . . . . . . 1.1.4. Normas matriciales . . . . . . . . . . . . . . . . . . . . . . 1.1.5. Producto de Kronecker . . . . . . . . . . . . . . . . . . . . 1.2. Gradiente conjugado precondicionado . . . . . . . . . . . . . . . . 1.2.1. Método del gradiente conjugado . . . . . . . . . . . . . . . 1.2.2. Precondicionadores basados en problemas de optimización 1.2.3. Otros precondicionadores . . . . . . . . . . . . . . . . . . 1.3. Sistemas por bloques . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . . .. . . . . . . . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. 3.1. Formulación variacional . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Teoremas de Stampacchia y Lax-Milgram y espacios de Sobolev 3.1.2. Formulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Discretización y numeración del dominio . . . . . . . . . . . . . . . . . 3.2.1. Numeración XYXY . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2. Numeración XXYY . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Condición de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Resultados numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . .. 2. Planteamiento del Problema de Elasticidad Lineal 2.1. 2.2. 2.3. 2.4. 2.5.. Tensor de esfuerzo . . . . Ecuaciones de equilibrio . Tensor de deformación . . Ley de Hook . . . . . . . . Formulación del problema. 3. Solución del Problema. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. 1. 1 1 2 3 4 5 6 6 8 11 12. 17 17 19 20 20 21. 23. 23 23 24 25 27 29 30 32.

(3) 4. Conclusiones. 39. Bibliografía. 40. ii.

(4) Índice de guras 1.1. Algoritmo del gradiente conjugado. . . . . . . . . . . . . . . . . . . . . . 1.2. Algoritmo del gradiente conjugado precondicionado. . . . . . . . . . . .. 7 8. 2.1. Dominio con frontera Lipschitz. . . . . . . . . . . . . . . . . . . . . . . . 2.2. Descripción del vector de esfuerzo. . . . . . . . . . . . . . . . . . . . . . 2.3. Descripción del problema. . . . . . . . . . . . . . . . . . . . . . . . . . .. 18 19 22. 3.1. Discretización del dominio Ω. . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Perl de la matriz K con la numeración XYXY. h =0.1, BW=122 y N =220. 3.3. Composición de algunas diagonales no nulas de la matriz K con la numeración XYXY y h=0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Perl de la matriz K con la numeración XXYY. h = 0,1, BW=122 y N =220. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Composición de algunas diagonales no nulas de la matriz K con la numeración XXYY y h=0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. Dominio Ω dividido en dos materiales. . . . . . . . . . . . . . . . . . . . 3.7. Perl de la matriz K con la numeración XXYY para dos materiales. h=0.1, BW=122 y N =220. . . . . . . . . . . . . . . . . . . . . . . . . . 3.8. Composición de algunas diagonales no nulas de la matriz K para dos materiales con la numeración XYXY. h=0.2 y E2 /E1 = 16 . . . . . . . . 3.9. Composición de algunas diagonales no nulas de la matriz K para dos materiales con la numeración XXYY. h=0.2, d1 =0.4 y E2 /E1 = 16 . . . 3.10. Número de iteraciones en función de E2 /E1 . Numeración XYXY. . . . . 3.11. Número de iteraciones en función de E2 /E1 . Numeración XXYY. . . . .. 26 28 29 30 31 31 33 33 34 35 36.

(5) Índice de cuadros 3.1. Número de iteraciones sin precondicionador para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Número de iteraciones con el precondicionador cF (K) para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 . . . . . . . . . . . . . . . . . . . 3.3. Número de iteraciones con el precondicionador SSOR con ω =1.35 para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 . . . . . . . . . . . . (1) 3.4. Número de iteraciones con el precondicionador cF (K) para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 . . . . . . . . . . . . . . . . . . . 3.5. Número de iteraciones con diferentes precondicionadores para cada tipo de numeración con un solo material. σ = 0.3 y E = 108 . . . . . . . . . .. 35 36 37 37 38.

(6) Introducción El método más común y efectivo para resolver numéricamente problemas que involucran ecuaciones diferenciales parciales es el de los elementos nitos. Este trabajo plantea uno de tales problemas, propio de la teoría de elasticidad lineal en materiales homogéneos e isotrópicos, y su solución numérica por medio del método de elementos nitos. La fase nal del método consiste en establecer un sistema lineal de ecuaciones, cuya solución describe el comportamiento de cada uno de los nodos que componen la discretización del poblema. Usualmente este sistema de ecuaciones se resuelve usando el método del gradiente conjugado precondicionado. El objetivo de este trabajo es reducir el número de iteraciones usadas para resolver, por medio del método del gradiente conjugado precondicionado, el sistema lineal que resulta del método de elementos nitos. Se busca acercar la visión teórica de los precondicionadores y el análisis matricial al análisis numérico y en particular al método de los elementos nitos. Este trabajo se compone de tres capítulos. El primero de ellos resume algunos resultados importantes del análisis matricial que se usan a lo largo del texto, presenta el método del gradiente conjugado y su variante precondicionado, junto con algunos de los precondicionadores más importantes y conocidos. Por último, se introducen los sistemas lineales por bloques, algunas de sus características y se presenta un precondicionador especial para este tipo de sistemas. En el segundo capítulo se presenta el problema de elasticidad lineal que se quiere resolver, el cual se enmarca dentro de la clase de problemas elípticos. Se inicia con las deniciones relevantes, algunos aspectos generales del problema, sus características más importantes y se llega a la formulación nal del problema. Por último, en el tercer capítulo, el cual recoge todos los resultados de este trabajo, se resuelve una instancia particular del problema expuesto en el segundo capítulo por medio del método de elementos nitos. Se presenta la formulación variacional del pro-.

(7) blema, todo el desarrollo estándar del método, y lo más importante, modicaciones a su numeración clásica. Se presentan luego los resultados numéricos obtenidos y sus consideraciones.. vi.

(8) Capítulo 1. Solución de Sistemas Lineales Toeplitz por Bloques Este capítulo recoge los aspectos más importantes del método del gradiente conjugado precondicionado para resolver sistemas lineales, en los cuales la matriz es Toeplitz por bloques.. 1.1. Preliminares matriciales En esta sección se introducen algunos preliminares de análisis matricial que se usarán más adelante. Se denotará como Mm×n (F) al conjunto de matrices de m×n con entradas en el campo F y como Mn (F) si son de n × n. Cuando F = C, se omitirá el campo. La matriz adjunta Hermitiana de A se denotará como A∗ .. 1.1.1. Matrices unitarias y normales Denición 1.1.1. Una matriz U ∈ Mn es unitaria si U ∗ U = I . Si U es real se le dice ortogonal. De la anterior denición se deduce que si U es unitaria, entonces U U ∗ = I y U ∗ = U −1 . Uno de los resultados más importantes de la teoría elemental de matrices es el siguiente teorema.. Teorema 1.1.2. [5] (Schur) Dada una matriz A ∈ Mn , existe una matriz unitaria U ∈ Mn tal que U ∗ AU = T , donde T es una matriz triangular superior con los valores. propios de A en la diagonal.. Denición 1.1.3. Una matriz A ∈ Mn es normal si A∗ A = AA∗ , es decir, si A conmuta con su adjunta Hermitiana..

(9) Ÿ1.1. 2. La forma del teorema de Schur para matrices normales es muy especial, por esto se le llama frecuentemente teorema espectral.. Teorema 1.1.4. [5] Una matriz A ∈ Mn es normal si y solo si existe una matriz unitaria U ∈ Mn tal que U ∗ AU = D, donde D es una matriz diagonal con los valores propios de A, es decir, si A es unitariamente diagonalizable.. 1.1.2. Matrices Hermitianas Denición 1.1.5. Una matriz A ∈ Mn es Hermitiana si A∗ = A. Si A es real se le dice simétrica. Puesto que toda matriz Hermitiana es normal, como consecuencia del teorema espectral se tiene que una matriz A es Hermitiana si y solo si existe una matriz unitaria U ∈ Mn y una matriz real Λ ∈ Mn tales que A = U ∗ ΛU . A este importante resultado se le conoce como el teorema espectral para matrices Hermitianas. Como los valores propios de una matriz Hermitiana son reales, se puede adoptar como convención numerarlos no descendentemente, esto es:. λmín = λ1 ≤ λ2 ≤ . . . ≤ λn−1 ≤ λn = λmáx Los valores propios de una matriz Hermitiana se pueden caracterizar resolviendo ciertos problemas de optimización, como lo muestra el siguiente teorema:. Teorema 1.1.6. [5] (Courant-Fischer) Sea A ∈ Mn una matriz Hermitiana con valores propios λ1 , . . . λn , y sea k un entero con 1 ≤ k ≤ n. Entonces λk = mı́n. máx. dim X =k x6=0,x∈X. x∗ Ax x∗ Ax = máx mı́n dim X =n−k+1 x6=0,x∈X x∗ x x∗ x. Para k = 1, n se obtienen las siguientes caracterizaciones, conocidas como el teorema de. Rayleigh-Ritz :. x∗ Ax x6=0 x∗ x x∗ Ax = λ1 = mı́n ∗ x6=0 x x. λmáx = λn = máx λmín. Teorema 1.1.7. [5] Sea A ∈ Mn Hermitiana con valores propios λ1 ≤ λ2 ≤ . . . ≤ λn−1 ≤ λn. y sean µ1 ≤ µ2 ≤ . . . ≤ µn−1. los valores propios de una submatriz de A de orden n − 1. Entonces λ1 ≤ µ1 ≤ λ2 ≤ µ2 ≤ . . . ≤ λn−1 ≤ µn−1 ≤ λn ..

(10) Ÿ1.1. 3. Denición 1.1.8. Una matriz A ∈ Mn es denida (semidenida) positiva si es Hermitiana y para todo x ∈ Cn , x 6= 0, se tiene que x∗ Ax > 0(≥ 0). Como consecuencia del teorema de Courant-Fisher, los valores propios de una matriz denida positiva son estrictamente positivos (si la matriz es semidenida positiva son no negativos). Dada A ∈ Mn arbitraria, la matriz A∗ A es semidenida positiva. En efecto, claramente es Hermitiana y dado x ∈ Cn , x 6= 0, sea y = Ax, entonces. x∗ A∗ Ax = y ∗ y = kyk2 ≥ 0 donde k · k es la norma Euclidiana. Además, si A es invertible, y 6= 0, luego A∗ A es denida positiva. A los valores propios de A∗ A (que son no negativos) se les llama. valores singulares de A.. 1.1.3. Matrices Toeplitz y circulantes Una matriz T ∈ Mn es una matriz Toeplitz si existen complejos ti , i = 1 − n, . . . , n − 1 tales que tij = ti−j , es decir, si es constante en cada una de sus diagonales:. . t0. t−1. t−2 · · ·.  t0 t−1 · · ·  t1   T =  t2 t1 t0  . ..  . .  . tn−1 tn−2 ···. t1−n t2−n .. ..         . (1.1). t0. Un tipo especial de matrices Toeplitz son las circulantes. Una matriz circulante C ∈ Mn es una matriz Toeplitz tal que c−k = cn−k para 1 ≤ k ≤ n − 1, esto es, tienen la siguiente forma:. . c0. c1. c2 · · ·.   cn−1 c0 c1 · · ·   C =  cn−2 cn−1 c0  . ..  . .  . c1 c2 ···. cn−1 cn−2 .. ..         . (1.2). c0. Ahora, sean y = (y0 , y1 , . . . , yn−1 )T y λ un vector y un valor propio de una matriz circulante C ∈ Mn tales que Cy = λy . Para todo 0 ≤ m ≤ n − 1, se tiene: n−1−m X k=0. ck ym+k +. n−1 X k=n−m. ck yk−n+m = λym.

(11) Ÿ1.1. 4. Si suponemos una solución de la forma ym = ρm para este sistema de ecuaciones, entonces:. n−1−m X. m+k. ck ρ. +. k=0. y. n−1 X k=n−m. n−1−m X. Si se escoge ρ tal que. n−1 X. ck ρk + ρ−n. k=0. ρ−n. ck ρk−n+m = λρm. ck ρk = λ. k=n−m. = 1, es decir, una raíz n-ésima de la unidad, se obtiene n−1 X. ck ρk = λ. k=0. Puesto que ρ es una raíz de la unidad, ρ = e2πij/n , con 0 ≤ j ≤ n−1, y por tanto un vector propio de C es y (j) = (1, e2πij/n , . . . , e2πij(n−1)/n )T . Como ky (j) k = n y hy (j) , y (k) i = δjk , la matriz F ∈ Mn dada por. 1 fjk = √ e2πijk/n n. con 0 ≤ j, k ≤ n − 1, es una matriz unitaria, conocida como la matriz de Fourier. De lo anterior se concluye que toda matriz circulante es unitariamente diagonalizable por la matriz de Fourier.. 1.1.4. Normas matriciales Una norma matricial sobre Mn es una norma vectorial que además cumple el axioma de submuliplicatividad, es decir, es una función k| · |k : Mn → R tal que para toda. A, B ∈ Mn y todo α ∈ Cn cumple: (i) k|A|k > 0 si A 6= 0 y k|0|k = 0 (ii) k|αA|k = |α|k|A|k (iii) k|A + B|k ≤ k|A|k + k|B|k (iv) k|AB|k ≤ k|A|kk|B|k No todas las normas vectoriales son normas matriciales, algunas que si los son, son las. lp con p = 1, 2, ∞. Cuando p = 2 se tiene la norma Euclidiana, que aplicada a matrices se le conoce como la norma de Frobenius. Dada A ∈ Mn , se dene como.  kAkF = . n X. i,j=1. 1/2 |ai,j |2 . = (tr(A∗ A))1/2.

(12) Ÿ1.1. 5. Vericar que en efecto es una norma matricial es consecuencia directa de la desigualdad de Cauchy-Schwarz. Ahora, sean U, V ∈ Mn unitarias, entonces. kU AV k2F = tr(V ∗ A∗ U ∗ U AV ) = tr(V ∗ A∗ AV ) = tr(A∗ AV V ∗ ) = tr(A∗ A) = kAk2F , usando que tr(AB) = tr(BA). Esto muestra que la norma de Frobenius es invariante unitariamente, una propiedad muy importante de esta norma. Dada cualquier norma vectorial, se puede denir una norma matricial de una forma natural como la muestra la siguiente denición:. Denición 1.1.9. Sea k · k una norma vectorial sobre Cn . A la norma matricial k| · |k sobre Mn denida como. k|A|k = máx kAxk kxk=1. se le llama norma inducida por la norma vectorial k · k. Un ejemplo importante de estas normas es la norma matricial inducida por la norma Euclidiana, conocida como la norma espectral k| · |k2 . Dada A ∈ Mn se dene como p k|A|k2 = λmáx (A∗ A) = σmáx (A) donde σmáx (A) es el valor singular máximo de A. Puesto que kAxk2 = x∗ A∗ Ax, el teorema de Rayleigh-Ritz muestra que en efecto la norma espectral es la norma inducida por la norma Euclidiana. Esta norma también es invariante unitariamente, como consecuencia de que la norma Euclidiana también lo es. Sean U, V ∈ Mn unitarias, entonces. k|U AV |k22 = máx kU AV xk2 = máx x∗ V ∗ A∗ U ∗ U AV x kxk=1. kxk=1. ∗. ∗. ∗. = máx x V A AV x = máx x∗ V ∗ A∗ AV x kxk=1. kV xk=1. = máx kAyk2 = k|A|k22 kyk=1. 1.1.5. Producto de Kronecker Sean A ∈ Mm×n y B ∈ Mp×q , se dene el producto de Kronecker o producto tensorial de A y B , A ⊗ B ∈ Mmp×nq , como . a11 B. a12 B. ···.   a21 B a22 B · · · A⊗B = .. .. ..  . . .  am1 B am2 B · · ·. a1n B a2n B .. ..      . amn B. Algunas de las propiedades más importantes del producto de Kronecker son las enunciadas en el siguiente teorema..

(13) Ÿ1.2. 6. Teorema 1.1.10. [6] Sean A ∈ Mm×n y B ∈ Mp×q . Entonces: (i) rango(A ⊗ B) =rango(A)rango(B) (ii) (A ⊗ B)∗ = A∗ ⊗ B ∗ (iii) (A ⊗ B)(C ⊗ D) = (AC) ⊗ (BD), donde C ∈ Mn×k , D ∈ Mq×r (iv) Si A y B son invertibles, entonces (A ⊗ B) es también invertible y (A ⊗ B)−1 = A−1 ⊗ B −1 De las propiedades (ii) y (iii) se concluye que si U ∈ Mn , V ∈ Mm son unitarias, U ⊗ V también lo es.. 1.2. Gradiente conjugado precondicionado Esta sección describe el método del gradiente conjugado precondicionado, mostrando algunos precondicionadores existentes, tanto para matrices en general, como para matrices Toeplitz. El método de gradiente conjugado es un método iterativo muy eciente y popular para resolver sistemas lineales donde la matriz es denida positiva.. 1.2.1. Método del gradiente conjugado Dada A ∈ Mn Hermitiana denida positiva, es fácil ver que la función k · kA : Cn → R denida por. kxkA =. √ x∗ Ax. dene una norma en Cn . Ahora, consideremos el sistema lineal de ecuaciones Ax = b donde A ∈ Mn es Hermitiana denida positiva y b ∈ Cn . Sea x0 ∈ Cn , su correspondiente vector residuo y vector error son r0 = b − Ax0 y e0 = A−1 b − x0 , respectivamente. La. k -ésima iteración xk del método está dada por xk+1 = xk + ak pk donde. p0 = r0 rk = rk−1 − ak−1 Apk−1 ak = pk = rk +. krk k2 kpk k2A krk k2 pk−1 krk−1 k2.

(14) Ÿ1.2. 7 Dadas las entradas A, b, un vector inicial x, un número máximo de iteraciones imax y una tolerancia ε:. i←0 r ← b − Ax p←r δn ← krk2 δ ← δn Mientras i < imax y δn > ε2 δ. a←. δn kpk2A. x ← x + ap r ← r − aAp δo ← δn δn ← krk2 b←. δn δo. p ← r + bp i←i+1 Figura 1.1: Algoritmo del gradiente conjugado. Además el vector error satisface ek = ek−1 − ak−1 pk−1 . Usualmente el criterio de parada del algoritmo se da mediante una tolerancia permitida en la norma euclidiana del vector residuo, o por un número máximo de iteraciones. De acuerdo a todo lo anterior, el algoritmo del método del gradiente conjugado se muestra en la gura 1.1. El siguiente teorema muestra algunas características importantes del método.. Teorema 1.2.1. [4] Sea A ∈ Mn denida positiva. El algoritmo del gradiente conjugado genera la solución exacta del sistema lineal Ax = b, con b ∈ Cn , en a lo sumo n pasos (asumiendo que no hay errores de redondeo). Además, para todo k anterior a la solución del sistema se tiene que ∗ e∗k+1 Apj = p∗k+1 Apj = rk+1 rj = 0,. ∀j ≤ k.. Y además, si se dene Kk+1 = gen{Ae0 , A2 e0 , . . . , Ak+1 e0 }, el k + 1-ésimo espacio de Kyrlov, entonces kek+1 kA = mı́n kxkA . x∈e0 +Kk+1. El método del gradiente conjugado converge muy rápido cuando la matriz A es cercana a la identidad. Como este no es siempre el caso, se puede reemplazar el sistema original por el sistema precondicionado:. M −1 Ax = M −1 b.

(15) Ÿ1.2. 8 Dadas las entradas A, b, un vector inicial x, un precondicionador. M (posiblemente denido implicitamente), un número máximo de iteraciones imax y una tolerancia ε:. i←0 r ← b − Ax p ← solución del sistema M x = r δn ← r ∗ p δ ← δn Mientras i < imax y δn > ε2 δ. a←. δn kpk2A. x ← x + ap r ← r − aAp s ← solución del sistema M x = r δo ← δn δn ← r∗ s b←. δn δo. p ← r + bp i←i+1 Figura 1.2: Algoritmo del gradiente conjugado precondicionado. donde M ∈ Mn es denida positiva y además cumple dos características importantes: El sistema M r = d es fácil de resolver Los valores propios de M −1 A están todos muy cercanos entre sí. El algoritmo del gradiente conjugado precondicionado se muestra en la gura 1.2.. 1.2.2. Precondicionadores basados en problemas de optimización Dada A ∈ Mn , se quiere encontrar precondicionadores que resulten de minimizar cierta norma matricial de la matriz A−B , donde B está en cierto conjunto especial de matrices fácilmente describible. El hecho de que se minimice la norma de A − B busca garantizar la segunda condición enunciada anteriormente de un buen precondicionador. Y el hecho de buscar el precondicionador en conjuntos fácilmente describibles, garantiza la primera condición. Se hará especial énfasis en el precondicionador de T. Chan por su importancia a lo largo del trabajo..

(16) Ÿ1.2. 9. 1.2.2.1. Precondicionadores circulantes Desde 1986 se han propuesto varios precondicionadores circulantes para resolver sistemas lineales y, en su mayoría, sistemas Toeplitz [7].. Precondicionador de Strang Dada T de la forma (1.1) el precondicionador de Strang de T , s(T ), se dene como la matriz circulante tal que [10]. s(T ) = arg mı́n kC − T k1 C∈C. donde C es el conjunto de las matrices circulantes y k · k1 es la norma l1 . s(T ) entonces es una matriz de la forma (1.2) donde ( tk , 0 ≤ k ≤ bn/2c sk = tk−n , bn/2c < k < n.. Precondicionador de T. Chan Aunque el precondicionador de T. Chan se usa especialmente para matrices Toeplitz, se puede denir para matrices en general. Dada U ∈ Mn unitaria, sea. MU = {U ∗ ΛU | Λ es una matriz diagonal de n × n}.. (1.3). Del desarrollo presentado en la sección 1.1.3 se tiene entonces que C = MF , donde F es la matriz de Fourier. Ahora, sea A ∈ Mn una matriz arbitraria, se dene. cU (A) = arg mı́n kW − AkF . W ∈MU. Lema 1.2.2. [7] Sea A ∈ Mn , se tiene entonces (i) cU (A) está únicamente determinada por A y está dada por cU (A) = U ∗ δ(U AU ∗ )U. (1.4). donde δ(A) es la matriz diagonal cuya diagonal es igual a la diagonal principal de A. (ii) Si A es Hermitiana entonces cU (A) también lo es. Además se tiene que λmín (A) ≤ λmín (cU (A)) ≤ λmáx (cU (A)) ≤ λmáx (A).. En particular, si A es denida positiva, entonces cU (A) también lo es..

(17) Ÿ1.2. 10. Demostración. (i) Puesto que la norma de Frobenius es invariante unitariamente, entonces. kW − AkF = kU ∗ ΛU − AkF = kΛ − U AU ∗ kF . Así que minimizar kW − AkF sobre MU es equivalente a minimizar kΛ − U AU ∗ kF sobre las matrices diagonales, cuya solución es Λ = δ(U AU ∗ ). Luego la única solución al problema de minimización original es cU (A) = U ∗ δ(U AU ∗ )U . (ii) Si A es Hermitiana, también lo es U AU ∗ , luego δ(U AU ∗ ) es real, y por tanto Hermitiana, y así cU (A) es Hermitiana. Ahora, los valores propios de cU (A) son las entradas de δ(U AU ∗ ) = diag(λ1 , . . . , λn ). Sea λj = λmín (cU (A)) y λk = λmáx (cU (A)). Ahora, por el teorema de Rayleigh-Ritz se tiene. e∗k U AU ∗ ek e∗k ek x∗ U AU ∗ x x∗ Ax ≤ máx = máx x6=0 x6=0 x∗ x x∗ x. λmáx (cU (A)) = λk =. = λmáx (A). Análogamente,. λmín (cU (A)) = λj = ≥ mı́n x6=0. e∗j U AU ∗ ej e∗j ej. x∗ U AU ∗ x x∗ Ax = mı́n x6=0 x∗ x x∗ x. = λmín (A).. Si T es una matriz de Toeplitz de la forma (1.1) entonces el precondicionador circulante de T. Chan cF (T ) está dado por. ck =. (n − k)tk + ktn−k , 0 ≤ k < n. n. 1.2.2.2. Precondicionadores no circulantes Algunas transformadas de matrices se usan para denir precondicionadores, tal es el caso de la Transformada Rápida de Fourier, con la cual se obtiene el precondicionador de T. Chan. Tomando U en (1.3) como otras matrices basadas en transformadas rápidas se obtienen nuevos precondicionadores para sistemas Toeplitz..

(18) Ÿ1.2. 11. Precondicionador basado en la transformada seno Se dene Φs ∈ Mn , la matriz de transformada discreta del seno, como r µ ¶ πjk 2 s (Φ )jk = sen n+1 n+1 para 1 ≤ j, k ≤ n y el conjunto. S = {Φs ΛΦs | Λ es una matriz diagonal de n × n}. Entonces, dada T ∈ Mn de Toeplitz, se dene el precondicionador como. Ψs (T ) = arg mı́n kB − T kF . B∈S. La construcción explícita del precondicionador se pueder ver en [3].. Precondicionador basado en la transformada coseno Se dene Φc ∈ Mn , la matriz de transformada discreta del coseno, como r µ ¶ 2 − δj1 π(j − 1)(2k − 1) c (Φ )jk = cos n 2n para 1 ≤ j, k ≤ n, donde δij es el delta de Kronecker, y el conjunto. CS = {(Φc )T ΛΦc | Λ es una matriz diagonal de n × n}. Entonces, dada T ∈ Mn de Toeplitz, se dene el precondicionador como. Ψc (T ) = arg mı́n kB − T kF . B∈CS. La construcción explícita del precondicionador se pueder ver en [2].. 1.2.3. Otros precondicionadores Precondicionador SSOR Dado un precondicionador M para el sistema lineal Ax = b, si M −1 A se aproxima a la identidad, entonces M −1 (b − Axk ) = M −1 rk se aproxima al error ek . Luego. xk+1 = xk + sk , donde sk es la solución del sistema M x = rk , es una mejor aproximación de la solución del sistema . Este es el origen de los métodos iterativos para resolver sistemas lineales y se llama iteración simple. Ahora, si A se escribe de la forma A = M − N , donde M es.

(19) Ÿ1.3. 12. invertible (este tipo de descomposición se le llama descomposición regular ), el sistema lineal se convierte en. M x = N x + b. Dada una aproximación xk , una mejor aproximación de la solución es. M xk+1 = N xk + b.. (1.5). Si (1.5) se multiplica por M −1 y se sustituye M −1 N por I −M −1 A se obtiene la iteración simple, luego las dos aproximaciones son equivalentes. Se concluye entonces que de una descomposición regular se puede obtener un precondicionador y viceversa. Si M = δ(A) entonces se conoce como el método de Jacobi. Si A se escribe de la forma. A = δ(A) − L − U , donde L es estrictamente diagonal inferior y U es estrictamente diagonal superior, y M = ω −1 δ(A) − L, con ω ∈ (0, 2), se obtiene entonces el método. SOR. Cuando ω = 1 se le llama el método de Gauss-Seidel. Cuando A es Hermitiana, se puede usar la versión simétrica del método SOR, conocido como SSOR. En este caso se tiene que M = T T ∗ , con r ω T = (ω −1 δ(A) − L)δ(A)−1/2 . 2−ω Puesto que T es triangular inferior, el sistema M x = r es fácil de resolver, propiedad importante para un precondicionador.. Factorización incompleta de Cholesky Toda matriz Hermitiana denida positiva A se puede descomponer en A = LL∗ , donde. L es una matriz triangular inferior. Esta descomposición se conoce como la factorización. de Cholesky. Si A es dispersa, usualmente L lo es mucho menos. Se puede obtener una factorización aproximada de A, restringiendo la matriz L, para que tenga un perl determinado, por ejemplo, el perl de la parte triangular inferior de A. De esta forma, los elementos no nulos de A se pueden escoger para que LL∗ coincida con A en los elementos no nulos de A, pero con más elementos diferentes a cero. Este tipo de aproximación se le llama descomposición incompleta de Cholesky. Así, la matriz M = LL∗ se puede usar como precondicionador [4].. 1.3. Sistemas por bloques En esta sección se presenta un precondicionador por bloques circulantes para sistemas por bloques, tanto generales, como con estructura Toeplitz..

(20) Ÿ1.3. 13. Un sistema general por bloques se describe como Amn x = b, donde Amn ∈ Mmn está particionada así:.  Amn. A1,1. A1,2. ···. A1,m.   A2,1 A2,2 · · · = .. ..  .. . .  . Am,1 Am,2 · · ·. A2,m .. ..      . (1.6). Am,m. con Ai,j ∈ Mn . Se dene ahora δ (1) (Amn ) como . δ. (1). δ(A1,1 ). δ(A1,2 ). ···.   δ(A2,1 ) δ(A2,2 ) · · · (Amn ) =  .. .. ..  . . .  δ(Am,1 ) δ(Am,2 ) · · ·. δ(A1,m ) δ(A2,m ) .. ..    ,  . (1.7). δ(Am,m ). donde δ está denido en el lema 1.2.2.. Lema 1.3.1. [7] Sea A ∈ Mmn de la forma (1.6), entonces σmáx (δ (1) (Amn )) ≤ σmáx (Amn ).. (1.8). Además, si Amn es Hermitiana se tiene que λmín (Amn ) ≤ λmín (δ (1) (Amn )) ≤ λmáx (δ (1) (Amn )) ≤ λmáx (Amn ).. (1.9). En particular, si Amn es denida positiva, (δ (1) (Amn )) también lo es. Demostración. Se dene (Amn )i,j;k,l = (Ak,l )i,j , la (i, j)-ésima entrada del (k, l)-ésimo bloque de Amn . Sea P ∈ Mmn la matriz de permutación tal que (P ∗ Amn P )k,l;i,j = (Amn )i,j;k,l. (1.10). para 1 ≤ i, j ≤ n y 1 ≤ k, l ≤ m, y sea.  ∗ (1). Bmn = P δ.   (Amn )P =   . B1,1 0 .. .. 0. ···. 0. B2,2 · · · .. .. . .. 0 .. .. 0. 0. ···.      . Bn,n. con Bk,k ∈ Mm . Se tiene entonces que Bmn y δ (1) (Amn ) tienen los mismos valores singulares y los mismos valores propios. Además, como Bk,k es una matriz principal de. Amn , entonces σmáx (Bk,k ) ≤ σmáx (Amn ), [5]. Así que σmáx (δ (1) (Amn )) = σmáx (Bmn ) = máx σmáx (Bk,k ) ≤ σmáx (Amn ). k.

(21) Ÿ1.3. 14. Si Amn es Hermitiana, usando el teorema 1.1.7, se tiene. λmín (Amn ) ≤ mı́n λmín (Bk,k ) = λmín (δ (1) (Amn )) k. ≤ λmáx (δ (1) (Amn )) = máx λmáx (Bk,k ) k. ≤ λmáx (Amn ).. (1). Sea Dm,n el conjunto de todas las matrices de la forma (1.7) y sea (1). (1) (1) MU = {(I ⊗ U )∗ Λ(1) mn (I ⊗ U ) | Λmn ∈ Dm,n }. donde I ∈ Mm es la identidad y U ∈ Mn es unitaria. Se dene (1). cU (Amn ) = arg. mı́n. (1). kWmn − Amn kF .. Wmn ∈MU. Teorema 1.3.2. [7] Sea Amn ∈ Mmn de la forma (1.6), se tiene entonces (1). (i) cU (Amn ) está únicamente determinada por Amn y está dada por (1). cU (Amn ) = (I ⊗ U )∗ δ (1) [(I ⊗ U )Amn (I ⊗ U )∗ ](I ⊗ U )   cU (A1,1 ) cU (A1,2 ) · · · cU (A1,m )    cU (A2,1 ) cU (A1,2 ) . . . cU (A2,m )    = .. .. .. ..  . . . .   cU (Am,1 ) cU (Am,2 ) · · ·. (1.11). (1.12). cU (Am,m ). donde cU (A) está denido por (1.4). (ii). (1). σmáx (cU (Amn )) ≤ σmáx (Amn ).. (1.13). (1). (iii) Si Amn es Hermitiana entonces cU (Amn ) también lo es. Además se tiene que (1). (1). λmín (Amn ) ≤ λmín (cU (Amn )) ≤ λmáx (cU (Amn )) ≤ λmáx (Amn ). (1). En particular, si Amn es denida positiva, entonces cU (Amn ) también lo es. (1). (1). (iv) El operador cU es una proyección lineal de Mmn → MU con las normas (1). k|cU |k2 =. y. (1). kcU kF =. (1). sup k|Amn |k2 =1. sup kAmn kF =1. k|cU (Amn )|k2 = 1. (1). kcU (Amn )kF = 1..

(22) Ÿ1.3. 15. Demostración. (i) Siguiendo el mismo razonamiento del lema 1.2.2 y puesto que I ⊗ U es una matriz (1). unitaria, cU (Amn ) = arg. (1). mı́n. (1) (1) Λmn ∈Dm,n. kΛmn −(I ⊗U )Amn (I ⊗U )∗ kF , cuya solución es. δ (1) [(I ⊗U )Amn (I ⊗U )∗ ], y por tanto se tiene (1.11). (1.12) es tan solo la denición del producto de Kronecker. (ii) De (1.8) y (1.11) se tiene que (1). σmáx (cU (Amn )) = σmáx (δ (1) [(I ⊗ U )Amn (I ⊗ U )∗ ]) ≤ σmáx ((I ⊗ U )Amn (I ⊗ U )∗ ) = σmáx (Amn ). (1). (iii) Si Amn es Hermitiana, de (1.12) y el lema 1.2.2 se tiene que cU (Amn ) también lo es. Ahora, usando (1.9) y (1.11) se tiene. λmín (Amn ) = λmín ((I ⊗ U )Amn (I ⊗ U )∗ ) ≤ λmín (δ (1) [(I ⊗ U )Amn (I ⊗ U )∗ ]) (1). (1). = λmín (cU (Amn )) ≤ λmáx (cU (Amn )) = λmáx (δ (1) [(I ⊗ U )Amn (I ⊗ U )∗ ]) ≤ λmáx ((I ⊗ U )Amn (I ⊗ U )∗ ) = λmáx (Amn ). (1). (1). (iv) De (1.13) se tiene que k|cU (Amn )|k2 ≤ k|Amn |k2 y como k|cU (Imn )|k2 = k|Imn |k2 = (1). 1, entonces k|cU |k2 = 1. Ahora, como (1). kcU (Amn )kF = kδ (1) [(I ⊗ U )Amn (I ⊗ U )∗ ]kF ≤ k(I ⊗ U )Amn (I ⊗ U )∗ kF = kAmn kF y. ° µ ¶° ° (1) ° 1 °c ° = √ 1 kImn kF = 1 √ I mn ° U ° mn mn F. se tiene el resultado del teorema.. (1). Cuando U = F , la matriz de Fourier, el precondicionador cF (Amn ) es por bloques circulantes. Para poder usar el método del gradiente conjugado precondicionado ecien(1). temente, se debe poder resolver el sistema cF (Amn )y = r fácilmente. De (1.11), la solución del sistema es. y = (I ⊗ F )∗ [δ (1) ((I ⊗ F )Amn (I ⊗ F )∗ )]−1 (I ⊗ F )r luego se debe formar la matriz. ∆ = δ (1) ((I ⊗ F )Amn (I ⊗ F )∗ ).

(23) Ÿ1.3. 16. y hallar su inversa. El (i, j)-ésimo bloque de ∆ es F cF (Ai,j )F ∗ = δ(F Ai,j F ∗ ). Ahora, usando la matriz de permutación P denida en (1.10), se obtiene Bmn = P ∗ ∆P . De esta forma, se reduce el problema de hallar la inversa de una matriz de mn × mn, a hallar las inversas de n matrices de m × m, lo que es más eciente..

(24) Capítulo 2. Planteamiento del Problema de Elasticidad Lineal Este capítulo presenta los aspectos generales del problema mecánico de elasticidad lineal que se busca resolver.. 2.1. Tensor de esfuerzo Se considera una transformación ortogonal de Rn → Rn , x → x0 , de la forma. x0 = Ax + c. (2.1). donde A = (aij ) ∈ Mn (R) es una matriz ortogonal.. Denición 2.1.1. Una matriz T = (tij ) ∈ Mn (R) es un tensor de orden dos si la transformación (2.1) cambia los elementos de T a. t0ij. =. n X. aik ajm tkm. k,m=1. Aunque la denición de tensor se extiende a cualquier orden, en este trabajo solo se usarán tensores de orden dos. En adelante se llamará dominio a un conjunto acotado, abierto y conexo Ω ⊂ Rn . Si n = 3, se le llamará cuerpo.. Denición 2.1.2. Sea Ω un dominio. Se dice que Ω tiene una frontera de Lipschitz Γ si existen reales α, β > 0 tales que para cada x0 ∈ Γ, el sistema Cartesiano de coordenadas se puede rotar y trasladar a x0 de tal forma que se tiene:.

(25) Ÿ2.1. 18. Ω Xn. β. X0. β. α. X'. α. Figura 2.1: Dominio con frontera Lipschitz. (i) Sea Kn−1 = {x ∈ Rn−1 : |xi | < α para i = 1, . . . , n − 1}. Entonces existe una función b : Kn−1 → R tal que con (x1 , . . . , xn ) ∈ Γ. b(x1 , . . . , xn−1 ) = xn , y esta función es Lipschitz continua.. (ii) Todos los puntos x = (x1 , . . . , xn ) ≡ (x0 , xn ) tales que x0 ∈ Kn−1 y b(x0 ) < xn <. b(x0 ) + β están dentro de Ω y todos los puntos tales que b(x0 ) − β < xn < b(x0 ) están fueran de Ω. Una esfera, un cubo y una pirámide, por ejemplo, tienen frontera de Lipschitz. Un círculo sin un radio no la tiene. Dado Ω ⊂ RN , se denota por C(Ω) al espacio de funciones continuas en Ω. C k (Ω) denota el espacio de funciones k veces continuamente diferenciables en Ω. El Teorema de Green será importante en el desarrollo de este capítulo; la siguiente es la versión más apropiada.. Teorema 2.1.3. [8] (Green) Sea Ω un dominio con frontera de Lipschitz Γ y sea u ∈ C 1 (Ω). Entonces. Z Ω. ∂u dx = ∂xi. Z Γ. uni dS. donde ni son las componentes del vector normal unitario saliente de Γ. Dado un cuerpo Ω, una fuerza de cuerpo F = (F1 , F2 , F3 ) es la densidad de fuerzas que actúan en cada elemento de volumen del cuerpo. Se asume que Fi ∈ C(Ω), i = 1, 2, 3. Ahora, sea Ω0 tal que Ω0 ⊂ Ω y con frontera Γ0 de Lipschitz. Sea x ∈ Γ0 y sea n el vector unitario saliente normal a Γ0 en el punto x, tal como se ve en la gura 2.2. El vector de.

(26) Ÿ2.2. 19. n T(x,n) x. Ω0. Ω. Figura 2.2: Descripción del vector de esfuerzo.. esfuerzo T (x, n) representa la densidad de las fuerzas internas en el cuerpo que actúan desde la parte Ω\Ω0 sobre Ω0 en el punto x. Se asume que Ti ∈ C(Ω × S), i = 1, 2, 3, con S la supercie de la esfera unitaria. Se busca expresar el vector de esfuerzo solo en términos de las direcciones paralelas a los ejes, así que se dene τij = Tj (x, ei ), para i, j = 1, 2, 3, donde ei son los vectores canónicos de R3 . Se puede mostrar [8] que para todo x ∈ Ω se tiene. Ti (x, n) =. 3 X. (2.2). nj τij , i = 1, 2, 3. j=1. La matriz τ = τij (x) se llama el tensor de esfuerzos en el punto x.. 2.2. Ecuaciones de equilibrio Sea x0 ∈ Ω tal que Bh = B(x0 , h) ⊂ Ω. Si se supone que τij ∈ C 1 (Ω), de la condición de equilibrio de fuerzas que actuan sobre Bh se tiene, para i = 1, 2, 3, que Z Z Ti (x, n)dS + Fi (x)dx = 0 ∂Bh. Bh. y usando (2.2) junto con el Teorema de Green. Z Bh. Z Fi dx +. 3 X. ∂Bh j=1. Z nj τij dS =. Bh.  Fi +. 3 X ∂τij j=1. ∂xj.   dx = 0.. Si se divide la expresión anterior por el volumen de Bh y h → 0, dada la continuidad del integrando se obtienen las ecuaciones de equilibrio. Para todo x ∈ Ω se cumple que. Fi (x) +. 3 X ∂τij j=1. ∂xj. (x) = 0 (i = 1, 2, 3). (2.3).

(27) Ÿ2.4. 20. o lo que es lo mismo. −div τ = F. en Ω.. (2.4). Usando la condición de equilibrio, ya no de fuerzas, sino de momentos se puede mostrar [8] que τij es un tensor simétrico, es decir, τij (x) = τji (x) para todo x ∈ Ω e i, j = 1, 2, 3.. 2.3. Tensor de deformación A diferencia del tensor de esfuerzo, el cual está relacionado con el cuerpo antes de la deformación, el tensor de deformación está relacionado con el cuerpo ya deformado. Se considera un cuerpo Ω y un punto x ∈ Ω. Luego de la deformación, el cuerpo Ω se transforma en Ω0 , y el punto x en el punto y ∈ Ω0 . Se asume que existe una función que describe la deformación,. y = x + u(x) donde u : Ω → R3 es el vector de desplazamiento. Se asume además que y(x) es un difeomorsmo. Se le llama tensor de deformación a la matriz e = eij donde µ ¶ ∂uj 1 ∂ui eij = + 2 ∂xj ∂xi. (2.5). Es evidente que el tensor de deformación, al igual que el de esfuerzo, también es simétrico.. 2.4. Ley de Hooke Interesa ahora estudiar la relación entre el esfuerzo y la deformación. Esta relación no es lineal, pero siempre tiene una parte lineal para esfuerzos menores a cierto valor σA , conocido como el límite proporcional. Este valor depende del material del cuerpo y las condiciones del medio. Se le llama límite elástico, σE , al máximo esfuerzo permitido por un cuerpo, tal que la deformación sufrida sea reversible completamente una vez se le quite la fuerza, esto es, el cuerpo vuelve a su estado original. Como regla general se tiene que σA ≤ σE . La teoría de elasticidad lineal se encarga de estudiar los esfuerzos menores al límite proporcional, para los cuales se tiene la Ley de Hooke. τ = Ee donde E es llamado el módulo de Young de la elasticidad.. (2.6).

(28) Ÿ2.5. 21. Dado un cuerpo Ω y un punto x ∈ Ω la relación lineal entre el esfuerzo y la deformación se puede expresar como 3 X. τij (x) =. cijkl (x)ekl (x) i, j = 1, 2, 3.. (2.7). k,l=1. Si cijkl (x) no depende de x, al material del cuerpo se le llama homogéneo. Si cijkl (x) no depende del sistema de coordenadas, al material del cuerpo se le llama isotrópico. En adelante solo se tratará con materiales homogéneos isotrópicos para los cuales se tiene:. Teorema 2.4.1. [8] La ley de Hooke generalizada para materiales homogéneos isotrópicos está dada por: τij (x) = λtr(e(x))δij + 2µeij (x). (2.8). donde δij es el delta de Kronecker. Los coecientes λ y µ dependen del material y se les llama los coecientes de Lamé. Generalmente los coecientes de Lamé no se usan para describir las propiedades de un material, en lugar de ellos se usan el módulo de Young E y la razón de Poisson σ . Los coecientes de Lamé se pueden expresar en términos de E y σ de la siguiente forma:. E 2(1 + σ). (2.9). Eσ (1 + σ)(1 − 2σ). (2.10). µ= λ=. 2.5. Formulación del problema Sea Ω un cuerpo con frontera de Lipschitz Γ = Γ0 ∪ Γ1 , una fuerza de cuerpo F y fuerzas superciales T = (T1 , T2 , T3 ), con Ti ∈ C(Γ1 ). Se desea encontrar un vector de desplazamiento u (en algún espacio de funciones apropiado), tal que se cumplan las ecuaciones (2.2), (2.4) y (2.7), además de ciertas condiciones en la frontera del cuerpo. Es decir que cumpla explícitamente:   −div τ = F    3  P    cijkl ekl (u) i, j = 1, 2, 3 τ = ij  k,l=1.  u=0    3  P    nj τij = Ti , i = 1, 2, 3  j=1. en Ω en Ω en Γ0. (2.11). en Γ1. donde ni son las componentes del vector normal unitario saliente de Γ (Figura 2.3). Si el material del cuerpo es homogéneo e isotrópico las condiciones anteriores se es-.

(29) Ÿ2.5. 22. T F. Γ0 Figura 2.3: Descripción del problema. criben así:  P ∂2u  Fi + µ∆ui + (λ + µ) ∂xi ∂xj j = 0, i = 1, 2, 3    j  u=0 ´  P ³ ∂ui P ∂uj  ∂uj   + µ n + λn j ∂xj i  ∂xj ∂xi = Ti , i = 1, 2, 3 j. j. en Ω en Γ0 en Γ1. (2.12).

(30) Capítulo 3. Solución del Problema Este capítulo muestra la solución del problema expuesto en el capítulo anterior usando el método de elementos nitos. El sistema lineal que resulta se resuelve con el método del gradiente conjugado precondicionado presentado en el capíulo 1. Se muestran los resultados numéricos obtenidos con diferentes precondicionadores y, lo que es más importante, con diferentes formas de numeración en el método de elementos nitos.. 3.1. Formulación variacional 3.1.1. Teoremas de Stampacchia y Lax-Milgram y espacios de Sobolev Denición 3.1.1. Sea H un espacio de Hilbert, una forma bilineal a(u, v) : H × H → R es (i) continua si existe una constante C tal que |a(u, v)| ≤ CkukH kvkH , para todo. u, v ∈ H , (ii) coerciva si existe una constante α > 0 tal que a(v, v) ≥ αkvkH , para todo v ∈ H donde k · kH es la norma en H .. Teorema 3.1.2. [1] (Stampacchia) Sea a(u, v) una forma bilineal continua y coerciva. Sea K un convexo, cerrado y no vacío. Dado ϕ ∈ H 0 , una forma lineal continua, existe un único u ∈ K tal que a(u, v − u) ≥ ϕ(v − u),. para todo v ∈ K.. Además, si a es simétrica, entonces u se caracteriza por   u∈K  21 a(u, u) − ϕ(u) = mı́n 12 a(v, v) − ϕ(v) v∈K.

(31) Ÿ3.1. 24. Cuando K = H se obtien el siguiente corolario:. Corolario 3.1.3. [1] (Lax-Milgram) Sea a(u, v) una forma bilineal, continua y coerciva. Entonces para todo ϕ ∈ H 0 existe un único u ∈ H tal que para todo v ∈ H.. a(u, v) = ϕ(v),. (3.1). Además, si a es simétrica, entonces u se caracteriza por   u∈H  21 a(u, u) − ϕ(u) = mı́n 21 a(v, v) − ϕ(v). (3.2). v∈H. A la N -tupla de enteros no negativos α = (α1 , . . . , αN ) se le llama multíndice de longitud. |α| = α1 + . . . + αN ≥ 0. Se denota por Dα = (∂/∂x1 )α1 · · · (∂/∂xN )αN al operador diferencial de orden |α|.. Denición 3.1.4. Sean Ω ⊂ RN un dominio. En el espacio vectorial de la funciones m veces diferenciables continuamente C m (Ω) se introduce la norma. kukH m,s (Ω) =. X. kDα ukLs (Ω) ,. 1≤s<∞. (3.3). 0≤|α|≤m. y se denota por H m,s (Ω) el completado de C m (Ω) bajo esta forma. Estos espacios se llaman espacios de Sobolev. Cuando s = 2, se denota por H m (Ω).. 3.1.2. Formulación Sea Ω un cuerpo tal como se describió en la sección 2.5. Se dene el conjunto. V0 (Ω) = {u ∈ H 1 (Ω) | u|Γ0 = 0}. Se considera el problema (2.11) y sea v ∈ [V0 (Ω)]3 . Si se multiplica (producto interno) la primera condición del problema por v y se integra sobre el cuerpo se obtiene X Z ∂τij XZ vi dx = − Fi vi dx. ∂xj i,j Ω. i. Ω. Además, de la derivación de un producto se tiene. ∂τij ∂ ∂vi (τij vi ) = vi + τij . ∂xj ∂xj ∂xj Así que,. XZ i,j Ω. X ∂ (τij vi )dx + − ∂xj. Z. i,j Ω. X ∂vi dx = τij ∂xj i. Z Fi vi dx. Ω.

(32) Ÿ3.2. 25. Ahora, usando el teorema de Green y el hecho de que τ es simétrico se tiene   Z Z XZ X XZ 1  τij ∂vi dx + τij ∂vj dx = −τij vi nj dS + Fi vi dx. 2 ∂xj ∂xi i,j Γ. i,j. Ω. i. Ω. Ω. De la denición del tensor de deformación y la última condición del problema XZ XZ XZ Ti vi dS. Fi vi dx + τij eij (v)dx = i,j Ω. i. i Γ 1. Ω. Así pues, se quiere encontrar u ∈ [V0 (Ω)]3 tal que XZ XZ XZ cijkl ekl (u)eij (v)dx = Fi vi dx + Ti vi dS, para todo v ∈ [V0 (Ω)]3 . i. i,j,k,l Ω. i Γ 1. Ω. (3.4). La ecuación (3.4) se llama formulación variacional del problema (2.5). Se puede mostrar además [8] que la forma bilineal. a(u, v) =. XZ. cijkl ekl (u)eij (v)dx. i,j,k,l Ω. es continua y coerciva en el espacio de Hilbert [V0 (Ω)]3 , y deniendo XZ XZ Fi vi dx + Ti vi dS ϕ(v) = i. Ω. i Γ 1. el teorema de Lax-Milgram garantiza la existencia y unicidad de tal u. Además a es simétrica (cijkl = cklij ,[8]), luego se cumple (3.2), que en este contexto se conoce como el Principio de la energía potencial mínima.. 3.2. Discretización y numeración del dominio El planteamiento presentado en las secciones anteriores es igualmente válido para dominios bidimensionales. En lo que sigue del trabajo se limitará al estudio del dominio. Ω = [0, 1] × [0, 1], con Γ0 = [0, 1] × {0}. Además, como ya se dijo, se asumen materiales homogéneos e isotrópicos, fuerza de cuerpo F = 0 y fuerzas superciales T solo en. [0, 1] × {1}. La discretización de Ω se hace en triángulos de tres nodos (P1), numerando los nodos y los elementos de izquierda a derecha y de arriba a abajo como lo muestra la gura 3.1. Se denota por h a la longitud de cada cateto de cada elemento. Los tres nodos de cada elemento se numeran en sentido de las manecillas del reloj empezando por el vértice.

(33) Ÿ3.2. 26 T. 2. 1. 3. 4. 5. h 7. 6. 8. Figura 3.1: Discretización del dominio Ω. del ángulo recto. Siguiendo la metodología de los elementoS nitos con polinomios interpolantes de grado 1 [11], la ecuación (3.4) se vuelve X X (vth )∗ Kt uht = (vth )∗ bt , para todo vth ∈ V h t∈T h. (3.5). t∈T1h. donde V h es el espacio asociado a la discretización descrita arriba de tamaño h, T h el conjunto de elementos de la discretización, T1h = {t ∈ T h | ∂t ∩ [0, 1] × {1} = 6 ∅}, y Kt y bt están dados por . λ + 3µ.   −(λ + 2µ)  −µ 1  Kt =  2 λ+µ   −µ  −λ. −(λ + 2µ) −µ λ + 2µ 0 −λ 0 λ. λ+µ. −µ. −λ. −λ. 0. λ. .     µ −µ µ 0   −µ λ + 3µ −µ −(λ + 2µ)    µ −µ µ 0  0 −(λ + 2µ) 0 λ + 2µ 0. con λ y µ los coecientes de Lamé del material, y   T1t h/2   t  T1 h/2      0   bt =  t   T2 h/2     T t h/2    2 0 con Tit las componentes de T sobre el elemento t. A Kt y bt se les llama matriz elemental y vector elemental respectivamente..

(34) Ÿ3.2. 27. Puesto que vth denota los desplazamientos en las direcciones x y y de cada uno de los nodos del elemento t, no es posible sumar vth1 y vth2 para t1 6= t2 , así que, para poder hacer la suma sobre los elementos y formar el sistema lineal, es necesario pasar de la numeración del elemento a una numeración global, es decir, pasar de un vector en R6 a uno en R2ng , donde ng = (1/h + 1)2 es el número total de nodos usados en la discretizacíón de Ω. Para esto se introduce la matriz booleana Bt ∈ M6×2ng . La construcción de. Bt depende de la numeración de los nodos y sus desplazamientos en el sistema lineal resultante. Se presentarán dos tipos de numeración diferentes que se denominarán XYXY y XXYY, al igual que la forma de construir la matriz Bt para cada tipo. Una vez se construye Bt , la ecuación (3.5) se convierte en.  (vg )∗ .  X t∈T. Si se llama Kg =. Bt∗ Kt Bt  ug = (vg )∗. h. P. t∈T. h. X. Bt∗ bt , ∀vg tal que vth = Bt vg .. (3.6). t∈T1h. Bt∗ Kt Bt y bg =. P. t∈T1h. Bt∗ bt , la matriz global Kg ensambla las. matrices elementales y el vector global bg ensambla los vectores elementales. Ahora, como se debe cumplir que v|Γ0 = 0, ciertos nodos del dominio deben tener desplazamientos nulos en ambas direcciones, a esto se le llama condición de empotramiento. Sea I el conjunto de índices con desplazamiento cero, sea K la submatriz principal de Kg que resulta de eliminar las las y columnas que están en I y sea b el vector que resulta de eliminar de bg las entradas que están en I , entonces (3.6) resulta como. v ∗ Ku = v ∗ b,. ∀v ∈ R2ng −|I| ,. con |I| = 2(1/h + 1). Así, se llega al sistema lineal que se debe resolver, el cual es simétrico y denido positivo:. Ku = b.. (3.7). 3.2.1. Numeración XYXY En este tipo de numeración global se construye una matriz booleana Bt para cada elemento t ∈ T h , de tal forma que están primero los desplazamientos del primer nodo, luego están los del segundo nodo y así sucesivamente. Sea. gt : {1, 2, 3} → {1, 2, . . . , ng }. (3.8). una función que asigna a cada nodo del elemento t, su correspondiente numeración global, entonces se tiene. ( (Bt )pq =. 1, 2(gt (j) − k) = l − i 0, de lo contrario.

(35) Ÿ3.2. 28. 0. 50. 100. 150. 200 0. 50. 100 nz = 2390. 150. 200. Figura 3.2: Perl de la matriz K con la numeración XYXY. h =0.1, BW=122 y N =220. donde p = 3(i − 1) + j y q = 2(k − 1) + l, y 1 ≤ i ≤ 2, 1 ≤ j ≤ 3, 1 ≤ k ≤ ng y 1 ≤ l ≤ 2. Como ejemplo, sea h = 1/3, luego Bt ∈ M6×32 , para t = 1, según la gura 3.1, se tiene. g1 (1) = 5 g1 (2) = 6 g1 (3) = 1 y.       B1 =     . 0 0 0 0 0 0 0 0 1 0 0 0 0. .  0 0 0 0 0 0 0 0 0 0 1 0 0 ...    1 0 0 0 0 0 0 0 0 0 0 0 0   0 0 0 0 0 0 0 0 0 1 0 0 0 ...    0 0 0 0 0 0 0 0 0 0 0 1 0  0 1 0 0 0 0 0 0 0 0 0 0 0. Este tipo de numeración es la usual en el método de elementos nitos. Una primera caracterísica importante de la matriz K de la ecuación (3.7) es su perl. La gura 3.2 muestra el perl de la matriz que resulta con la numeración XYXY, donde N es el tamaño de la matriz. En este caso el ancho de banda (BW) de la matriz es 2/h + 5. Otra característica importante que se debe tener en cuenta para resolver el sistema lineal (3.7) es la composición de las entradas de las diagonales. La gura 3.3 muestra las grácas de algunas de sus diagonales no nulas. Se puede ver que, a excepción de la diagonal principal, todas las diagonales presentan un comportamiento alternante. En las demás diagonales no nulas no presentadas en la gura el comportamiento es el mismo..

(36) Ÿ3.2. 29. 8. 9. 8. x 10. 4. 8. x 10. 3. 7 2 6 1 5 0 4 −1. 3. 2. 0. 10. 20. 30. 40. 50. −2. 60. 0. 10. 20. Diagonal principal 18 16. −4. 14. −6. 12. −8. 10. −10. 8. −12. 6. −14. 4. −16. 2. 0. 50. 60. 7. x 10. −2. −18. 40. Diagonal 1. 7. 0. 30. 10. 20. 30. 40. 0. 50. x 10. 0. Diagonal 11. 5. 10. 15. 20. 25. 30. 35. 40. 45. Diagonal 15. Figura 3.3: Composición de algunas diagonales no nulas de la matriz K con la numeración XYXY y h=0.2. 3.2.2. Numeración XXYY En este tipo de numeración los desplazamientos en x de todos los nodos están primero y luego todos los desplazamientos en y . Para obtener esta numeración se constuye Bt de la siguiente forma:. ( (Bt )pq =. 1, 2(gt (j) − k) = l − i 0, de lo contrario. donde gt es la función descrita en (3.8), p = 3(i − 1) + j y q = ng (l − 1) + k , y 1 ≤ i ≤ 2,. 1 ≤ j ≤ 3, 1 ≤ k ≤ ng y 1 ≤ l ≤ 2. El mismo ejemplo descrito en la numeración XYXY, para este tipo daría como resultado la matriz: columna 17. . B1 =.          . ↓ 0 0 0 0 1 0. 0 0 0 0 0 0. .  0 0 0 0 0 1 ... 0 0 0 0 0 0 ...    1 0 0 0 0 0 0 0 0 0 0 0   0 0 0 0 0 0 ... 0 0 0 0 1 0 ...    0 0 0 0 0 0 0 0 0 0 0 1  0 0 0 0 0 0 1 0 0 0 0 0.

(37) Ÿ3.3. 30. 0. 50. 100. 150. 200 0. 50. 100 nz = 2390. 150. 200. Figura 3.4: Perl de la matriz K con la numeración XXYY. h = 0,1, BW=122 y N =220. Al igual que en la numeración anterior, es necesario ver el perl y la composición de las diagonales de la matriz. En el primer caso vemos que el ancho de banda es mucho mayor para esta numeración, BW=(1/h + 1)2 + 1, gura 3.4. En el segundo caso, la composición de las diagonales ya no es alternante como en la numeración XYXY, gura 3.5. Este hecho va a tener mucha relevancia a la hora de resolver el sistema lineal.. 3.3. Condición de continuidad Hasta el momento solo se ha considerado el dominio Ω compuesto por un solo material. Se considera ahora Ω = Ω1 ∪ Ω2 dividido en dos partes, cada una de un material diferente, tal como lo muestra la gura 3.6. Además, se denota por Γint = Ω1 ∩ Ω2 , P (i) la frontera compartida por los dominios. En este caso, sea Kg = Bt∗ Kt Bt y (i) bg. =. P t∈T1h ∩Ωi. t∈T h ∩Ωi. Bt∗ bt , para i = 1, 2. Se dene entonces à 0. K = y. (1). Kg. 0. 0. Kg. à 0. b =. !. (2). (1). bg. (2). bg. ! .. Puesto que los nodos en Γint están numerados dos veces, el mismo nodo podría tener dos desplazamientos diferentes. Para garantizar que esto no suceda se debe aplicar la. condición de continuidad. Si ui y uj , con i 6= j corresponden al desplazamiento en la.

(38) Ÿ3.3. 31. 8. 9. 8. x 10. 0. x 10. −0.5. 8. −1. 7. −1.5 6 −2 5 −2.5 4. −3. 3. 2. −3.5. 0. 10. 20. 30. 40. 50. −4. 60. 0. 10. Diagonal principal. 30. 40. 50. 60. 25. 30. Diagonal 1. 8. 3.5. 20. 7. x 10. 0. x 10. −2. 3. −4 2.5 −6 2. −8. 1.5. −10 −12. 1 −14 0.5. 0. −16. 0. 5. 10. 15. 20. 25. −18. 30. 0. 5. Diagonal 30. 10. 15. 20. Diagonal 31. Figura 3.5: Composición de algunas diagonales no nulas de la matriz K con la numeración XXYY y h=0.2. Ω1. d1. Ω2. d2. Figura 3.6: Dominio Ω dividido en dos materiales..

(39) Ÿ3.4. 32. misma dirección del mismo nodo sobre Γint , la condición de continuidad consiste en hacer. ui = uj , [9]. Para esto, se realiza un cambio de variable en el sistema lineal de tal forma que aparezca la variable ui − uj y además se conserve la simetría de K 0 , claro está, sin cambiar el sistema. Para introducir la nueva variable se suma la columna i a la columna. j. . k11 · · ·  .  ..    k1i · · ·   ..  .   k  1j · · ·  .  .. . k1i · · · .. .. k1j + k1i .. .. ···. kii .. .. ···. kij + kii .. .. ···. kij .. .. ···. kjj + kij .. .. ···. k1n · · ·. kin · · ·. kjn + kin · · ·.  u1 k1n  .. ..   . .     kin    ui − uj .. ..    . .     uj kjn    .. ..    . .  un knn. y para consevar la simetría se suma la la i a la la j  k11 ··· k1i ··· k1j + k1i ···  . . .  .. .. ..    k1i ··· kii ··· kij + kii ···   .. .. ..  . . .   k +k  1j 1i · · · kij + kii · · · kjj + 2kij + kii · · ·  . .. ..  .. . .  k1n ··· kin ··· kjn + kin ···. k1n .. . kin .. . kjn + kin .. . knn.  b1   .    ..          bi       ..  = .       b    j    .    ..     bn . . . u1 .. ..       ui − uj   ..  .   uj   ..  .  un. . .           bi     .. = .     b +b   j i   ..   .   bn. Si I 0 es el conjunto de índices que debe cumplir la condición de empotramiento, incluyendo las nuevas variables, entonces el nuevo sistema es Kx = u con K ∈ M (R)2n0g −|I 0 | , 0. b1 .. .. 0. b ∈ R2ng −|I | , n0g = ng + 2(1/h + 1) y |I 0 | = 4(1/h + 1).. Cuando interactúan dos materiales en el dominio, el perl de la matriz K cambia cuando se usa la numeración XXYY y depende, a su vez, del tamaño de cada material tal como se ve en la gura 3.7. En el caso de la numeración XYXY el perl permanece igual (gura 3.2). La composición de las diagonales sí cambia para las dos numeraciones. Como se verá más adelante la razón entre los módulos de Young de cada uno de los materiales es un factor determinante para resolver el sistema lineal. Las guras 3.8 y 3.9 muestran algunas diagonales de K en cada una de las numeraciones.. 3.4. Resultados numéricos Una vez se obtiene el sistema lineal que se debe resolver para encontrar la solución al problema, se procede a usar el método del gradiente conjugado precondicionado para.               .

(40) Ÿ3.4. 33. 0. 0. 50. 50. 100. 100. 150. 150. 200. 200 0. 50. 100 nz = 2390. 150. 200. 0. 50. 100 nz = 2390. d1 =0.7. 150. 200. d1 =0.5. Figura 3.7: Perl de la matriz K con la numeración XXYY para dos materiales. h=0.1, BW=122 y N =220.. 9. 14. 9. x 10. 6. x 10. 5. 12. 4 10 3 8. 2. 6. 1 0. 4 −1 2. 0. −2. 0. 10. 20. 30. 40. 50. 60. −3. 0. 10. 20. Diagonal principal. 50. 60. 9. x 10. 3. −0.5. x 10. 2.5. −1. 2. −1.5. 1.5. −2. 1. −2.5. 0.5. −3. 40. Diagonal 1. 9. 0. 30. 0. 10. 20. 30. 40. 50. 0. 0. 5. 10. Diagonal 11. 15. 20. 25. 30. 35. 40. 45. Diagonal 15. Figura 3.8: Composición de algunas diagonales no nulas de la matriz K para dos materiales con la numeración XYXY. h=0.2 y E2 /E1 = 16.

(41) Ÿ3.4. 34. 9. 14. 9. x 10. 0. 12. −1. 10. −2. 8. −3. 6. −4. 4. −5. 2. −6. 0. 0. 10. 20. 30. 40. 50. 60. −7. x 10. 0. 10. 20. Diagonal principal. 40. 50. 60. Diagonal 1. 9. 0. 30. 7. x 10. 18. x 10. 16 −0.5 14 −1. 12 10. −1.5 8 −2. 6 4. −2.5 2 −3. 0. 5. 10. 15. 20. 25. Diagonal 24. 30. 35. 40. 0. 0. 5. 10. 15. 20. 25. Diagonal 37. Figura 3.9: Composición de algunas diagonales no nulas de la matriz K para dos materiales con la numeración XXYY. h=0.2, d1 =0.4 y E2 /E1 = 16. ello. Los resultados se centrarán, básicamente, en el número de iteraciones usadas para llegar a la solución del sistema con una tolerancia de ε = 10−6 (ver gura 1.2). Todos los resultados aquí presentados fueron obtenidos usando el software MATLABr . En primera instancia se resuelve el sistema sin precondicionador alguno usando ambas numeraciones. Tal como se anunció anteriormente, se encontró que la razón E2 /E1 de los módulos de Young son determinantes en el número de iteraciones usadas en el método. No es el caso del tipo de numeración usado, pues contrario a lo que se esperaba, por tener la numeración XXYY un ancho de banda mucho mayor que el de la XYXY, el número de iteraciones es muy similar en las dos numeraciones.Los resultados los muestra el cuadro 3.1 (N es el tamaño del sistema). La gura 3.10 presenta la gráca de las iteraciones en función de E2 /E1 para diferentes valores de h. Como se puede ver, el número de iteraciones es rápidamente muy superior al tamaño del sistema. El siguiente paso fue usar algún precondicionador apropiado para tratar de obtener mejores resultados. Se usó entonces un precondicionador circulante, y puesto que el de T. Chan es más general, se probó con este. El cuadro 3.2 muestra los resultados obtenidos. Es clara la disminución en las iteraciones para ambas numeraciones, aunque siempre fueron menos en el caso de la numeración XYXY, es decir, inuyó el hecho.

(42) Ÿ3.4. 35. h = 0.1. h = 0.05. h = 0.033. N = 220. N = 840. N = 1860. E2 /E1. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. 1. 108. 108. 211. 211. 313. 313. 10. 207. 206. 458. 454. 674. 674. 100. 449. 443. 1163. 1168. 1844. 1844. 1000. 782. 786. 2509. 2498. 4403. 4384. 5000. 1017. 1022. 3616. 3680. 6926. 6906. 10000. 1111. 1107. 4117. 4143. 8050. 8062. Cuadro 3.1: Número de iteraciones sin precondicionador para cada tipo de numeración.. σ1 = σ2 = 0.25 y d1 = d2. 9000 0.1 0.05 0.033. 8000 7000. Iteraciones. 6000 5000 4000 3000 2000 1000 0. 0. 2000. 4000. 6000. 8000. 10000. Figura 3.10: Número de iteraciones en función de E2 /E1 . Numeración XYXY..

(43) Ÿ3.4. 36. h = 0.1. h = 0.05. h = 0.033. N = 220. N = 840. N = 1860. E2 /E1. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. 1. 44. 56. 62. 85. 78. 111. 10. 113. 118. 115. 170. 197. 211. 100. 210. 214. 341. 363. 449. 487. 1000. 320. 326. 541. 579. 743. 805. 5000. 390. 403. 671. 737. 944. 1021. 10000. 413. 430. 723. 780. 1021. 1108. Cuadro 3.2: Número de iteraciones con el precondicionador cF (K) para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 1200 10 20 30. 1000. Iteraciones. 800. 600. 400. 200. 0. 0. 2000. 4000. 6000. 8000. 10000. Figura 3.11: Número de iteraciones en función de E2 /E1 . Numeración XXYY. de tener un menor ancho de banda. Otro aspecto que cabe resaltar, es que se sigue manteniendo la tendencia, mientras mayor es la razón E2 /E1 , mayor es el número de iteraciones, tal como se ve en la gura 3.11. Luego se usó un precondicionador de otras características, como el SSOR, para el cual se obtuvieron los resultados que muestra el cuadro 3.3. De nuevo el número de iteraciones bajo signicativamente y además se mantuvieron casi constantes para valores de E2 /E1 altos. En este caso la numeración que obtuvo menos iteraciones fue la XXYY. Por último, se analizó con más cuidado el comportamiento de las diagonales de la matriz. K , y como se pudo ver en las guras anteriores, cuando se usa la numeración XXYY, la matriz tiene una estructura muy similar a la Toeplitz por bloques, pues las diagonales se mantienen constantes durante ciertos intervalos. Así que se uso el precondicionador propuesto en la sección 1.3, donde m = 2/h y n = 1/h + 1. Sin duda, este precondicionador.

(44) Ÿ3.4. 37. h = 0.1. h = 0.05. h = 0.033. N = 220. N = 840. N = 1860. E2 /E1. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. 1. 30. 26. 53. 48. 77. 68. 10. 27. 24. 50. 41. 71. 59. 100. 27. 24. 47. 41. 67. 58. 1000. 26. 23. 45. 40. 65. 56. 5000. 26. 23. 45. 39. 64. 50. 10000. 25. 23. 45. 37. 64. 49. Cuadro 3.3: Número de iteraciones con el precondicionador SSOR con ω =1.35 para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2. h = 0.1. h = 0.05. h = 0.033. N = 220. N = 840. M = 1860. E2 /E1. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. 1. 42. 21. 62. 28. 80. 33. 10. 39. 20. 60. 24. 79. 28. 100. 39. 18. 57. 23. 76. 28. 1000. 38. 18. 56. 23. 73. 27. 5000. 37. 17. 56. 23. 72. 27. 10000. 37. 17. 55. 23. 71. 27. (1). Cuadro 3.4: Número de iteraciones con el precondicionador cF (K) para cada tipo de numeración. σ1 = σ2 = 0.25 y d1 = d2 arrojó los mejores resultados como se pueden ver en el cuadro 3.4. Incluso cuando el dominio está compuesto de un solo material, usando los mismo valores (1). para n y m, el precondicionador por bloques cF (K) con la numeración XXYY, es el que muestra el mejor comportamiento. En el cuadro 3.5 se pueden ver los resultados obtenidos (N es el tamaño del sistema)..

(45) Ÿ3.4. 38. I. (1). SSOR. cF (K). cF (K). h. N. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. XYXY. XXYY. 0.1. 220. 114. 115. 46. 41. 32. 28. 44. 21. 0.05. 840. 232. 231. 63. 62. 57. 50. 65. 29. 0.033. 1860. 342. 341. 79. 77. 81. 71. 85. 35. 0.025. 3280. 442. 442. 97. 95. 106. 92. 102. 40. 0.02. 5100. 535. 535. 117. 110. 131. 113. 120. 44. Cuadro 3.5: Número de iteraciones con diferentes precondicionadores para cada tipo de numeración con un solo material. σ = 0.3 y E = 108.

(46) Capítulo 4. Conclusiones Los resultados más importantes del presente trabajo de grado se recogen en el último capítulo y especícamente en los cuadros 3.4 y 3.5. Allí se muestran el número de iteraciones que se necesitan para resolver el sistema lineal de la instancia particular del (1). problema planteado, usando el precondicionador por bloques circulantes cF (K), y, lo que es más importante, con la numeración XXYY. Sin duda, buscar que la matriz del sistema tuviera una estructura por bloques Toeplitz, fue lo que impulsó el desarrollo de este trabajo y la obtención nal de los resultados. Otro resultado importante que se obtuvo con este precondicionador, al igual que con el SSOR, fue lograr que la variable E2 /E1 , para el caso de dos materiales, no fuera determinante en el número de iteraciones usadas. Trabajos futuros pueden ir encaminados a encontrar la característica puntual de los precondicionadores que logran esto. Por último, la numeración clásica XYXY busca siempre minimizar el ancho de banda; se encontró un caso en el que el ancho de banda no es la característica más importante para determinar el número de iteraciones. Por esto, se resalta una vez más la importancia de cumplir el objetivo de este trabajo, el de reducir el número de iteraciones usadas por el método del gradiente conjugado precondicionado, sin limitarse a buscar los precondicionadores más apropiados, sino devolviéndose en el proceso y modicando los estándares del método de elementos nitos. Varios pasos se pueden dar encaminados a complementar los resultados de este trabajo. El primero, y más corto, es ver el comportamiento de los precondicionadores para un dominio con tres o más materiales diferentes. Un reto mayor sería atacar el problema tridimensional. La discretización y numeración a usar se debe estudiar con mucho cuidado para garantizar que la estructura por bloques casi Toeplitz se mantenga..

(47) Bibliografía [1]. H. Brézis, Análisis funcional: Teoría y aplicaciones, Alianza Editorial, Madrid, 1984.. [2]. R. Chan, T. Chan, C. Wong, Cosine Transform Based Preconditioners for Total. Variation Deblurring, IEEE Trans. Image Proc., Vol 232, pp 237-259, 1996. [3]. R. Chan, M. Ng, C. Wong, Sine Transform Based Preconditioners for Symmetric. Toeplitz Systems, Linear Algebra Appl., Vol 8, pp 1472-1478, 1999. [4]. A. Greenbaum, Iterative methods for solving linear systems, Society for Industrial and Applied Mathematics, Philadelphia, 1997.. [5]. R. A. Horn, C. R. Johnson, Matrix Analysis, Cambridge University Press, Cambridge, England, 1985.. [6]. R. A. Horn, C. R. Johnson, Topics in Matrix Analysis, Cambridge University Press, New York/Cambridge, England, 1991.. [7]. X. Jin, Developments and Applications of Block Toeplitz Iterative Solvers, Science. Press,. Beijing/New. York;. Kluwer. Academic. Publishers,. Dor-. drecht/Boston/London, 2002. [8]. J. Ne£as, I. Hlavá£ek. Mathematical Theory of Elastic and Elasto-Plastic Bodies:. An Introduction, Studies in Appl. Math. 3, Elsevier, Amsterdam, 1981. [9]. A. Ould. Étude Théorique et Numérique des Problèmes de Couches Minces en. Elasticité. Tesis doctoral, 1995. [10] A. Ould, A. Rubiano. Toeplitz Preconditioners for Pseudo-Toeplitz Matrices, Apuntes Matemáticos No. 45, Universidad de los Andes, Bogotá, 2003. [11] A. Perronet. Des Equations Mathématiques au Programme, MODULEF: Une Bibilotèque Modulaire D'Eléments Finis, INRIA, París, 1988..

(48)

Referencias

Documento similar

Dos profesores en los grupos de no SSEE en Inglés, Matemáticas y Lengua Proyectos de Innovación Educativa: Trabajo por centros de interés (tecnología, E. Física, Plástica y

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

que hasta que llegue el tiempo en que su regia planta ; | pise el hispano suelo... que hasta que el

Esto viene a corroborar el hecho de que perviva aún hoy en el leonés occidental este diptongo, apesardel gran empuje sufrido porparte de /ue/ que empezó a desplazar a /uo/ a

En junio de 1980, el Departamento de Literatura Española de la Universi- dad de Sevilla, tras consultar con diversos estudiosos del poeta, decidió propo- ner al Claustro de la

[r]

SVP, EXECUTIVE CREATIVE DIRECTOR JACK MORTON

[r]