Estabilidad de los métodos espectrales como métodos numéricos: Caso de Fourier y Chebyshev

66  60  Descargar (3)

Texto completo

(1)UNIVERSIDAD NACIONAL DE SAN AGUSTÍN DE AREQUIPA ESCUELA DE POSGRADO UNIDAD DE POSGRADO DE LA FACULTAD DE CIENCIAS NATURALES Y FORMALES. “ESTABILIDAD DE LOS MÉTODOS ESPECTRALES COMO MÉTODOS NUMÉRICOS: CASO DE FOURIER Y CHEBYSHEV”. Tesis presentada por el Bachiller: Alexander Fernando Soncco Quispe Para optar el Grado Académico de Maestro en Ciencias: Matemáticas, con mención en Modelación Matemática Asesor: Dr. Ángel Sangiacomo Carazas. AREQUIPA - PERÚ 2019.

(2) “ESTABILIDAD DE LOS MÉTODOS ESPECTRALES COMO MÉTODOS NUMÉRICOS: CASO DE FOURIER Y CHEBYSHEV”. Tesis presentada por: Bach. Alexander Fernando Soncco Quispe. JURADO DICTAMINADOR. Dr. Daniel Octavio Roque Roque:. .................................................... (Presidente). Dr. Jesús Enrique Achire Quispe:. .................................................... Dr. Ángel Sangiacomo Carazas:. .................................................... (Asesor).

(3) Agradecimientos A la Universidad Nacional de San Agustı́n por haberme aceptado ser parte de ella, en especial a la Escuela Profesional de Matemáticas, por contribuir con mi formación académica, ası́ también a los diferentes docentes que brindaron sus conocimientos y su apoyo para seguir adelante. A mi familia que me han dado impulso a mi superación académica, y siempre han estado conmigo en todo momento. Finalmente, quiero agradecer al Dr. Ángel Sangiacomo Carazas, quien con su dirección, conocimiento y colaboración permitió el desarrollo de este trabajo. II.

(4) Índice general. 1. Preliminares. 1. 1.1. Métodos Espectrales y Pseudoespectrales . . . . . . . . . . . . . . . . . . . .. 1. 1.2. Polinomios de Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . .. 2. 1.2.1. Polinomios de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3. 1.2.2. Polinomios de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . .. 4. 1.3. Polinomios de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4. 1.4. Matrices de Diferenciación de Chebyshev . . . . . . . . . . . . . . . . . . . .. 8. 1.5. Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 11. 1.6. Matrices de Diferenciación de Fourier . . . . . . . . . . . . . . . . . . . . . .. 12. 1.7. Producto de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 13. 1.8. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 15. 1.9. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 2. Autovalores y PseudoEspectra. 20. 2.1. La Ecuación de Mathieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. III. 20.

(5) 2.2. La ecuación del Aire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 27. 2.3. Problema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 30. 3. Regiones de Paso de Tiempo y Estabilidad. 37. 3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 37. 3.2. Método de las lı́neas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 38. IV.

(6) Resumen En este trabajo, presentamos resultados de estabilidad de los métodos espectrales de Chebyshev y Fourier para la solución de ecuaciones diferenciales ordinarias y parciales, haciendo uso de sus respectivas matrices de diferenciación. Usaremos los métodos espectrales que consisten en buscar soluciones aproximadas u(x) en términos de series truncadas de PN la forma u(x) = n=0 an φn (x) donde los φn (x) pertenecen a una familia de polinomios ortogonales, los cuales serán llamados espectros. Una de las razones más importantes para su uso en este trabajo es la alta precisión en los resultados, comparado con otros métodos, a pesar de su alto costo computacional debido a la definición de las matrices de diferenciación, basadas en funciones trigonométricas, ya que a mayor tamaño de la matriz los cálculos aumentan considerablemente.. Palabras Clave Método Espectral, Chebyshev, Fourier, matriz de diferenciación, ecuación diferencial, ecuación de Mathieu, ecuación del aire, estabilidad, ecuación del calor, ecuación de la onda.. V.

(7) Abstract In this assignment, we are presenting stability results of the spectral Chebyshev and Fourier methods for the solution of ordinary and partial differential equations, making use of their respective differentiation matrixes. We will use the spectral methods that consist in finding PN approximate solutions u(x) in terms of truncated series of the form u(x) = n=0 an φn (x) where φn (x) belong to a family of orthogonal polynomials, which will be called specters. One of the most important reasons for their use in this assignment is the high accuracy of the results, compared to other methods despite their high computational cost due to the definition of the differentiation matrixes based on trigonometric functions, because increasing the size of the matrix increases the number of calculations considerably.. Keywords Spectral Method, Chebyshev, Fourier, differentiation matrix, differential equation, Mathieu’s equation, air equation, stability, heat equation, wave equation.. VI.

(8) Introducción Los métodos de colocación espectral se han vuelto cada vez más populares para la resolución de ecuaciones diferenciales. La solución desconocida de la ecuación diferencial se aproxima mediante un polinomio de interpolación o un polinomio trigonométrico de alto grado cuyos coeficientes de expansión se determinan al requerir que las ecuaciones se cumplan en un número apropiado de puntos de colocación. En contraste, los métodos de diferencia finita y de elemento finito utilizan interpolantes locales de orden inferior. Como interpolación, diferenciación y evaluación son todas operaciones lineales, el proceso de obtención de aproximaciones a los valores de la derivada de una función en los puntos de colocación puede expresarse como una multiplicación de matriz por un vector donde dichas matrices involucradas se llaman matrices de diferenciación espectral. En este trabajo desarrollaremos las matrices de diferenciación de Chebyshev y Fourier. La principal ventaja de los métodos espectrales es su precisión superior para problemas cuyas soluciones son funciones suficientemente suaves. Convergen con rapidez exponencial en comparación con las tasas de convergencia para los métodos de diferencias finitas y elementos finitos. En la práctica, esto significa que se puede lograr una buena precisión con discretizaciones bastante aproximadas. Las desventajas son las matrices de diferenciación por su alto costo computacional, restricciones de estabilidad más estrictas y menos flexibilidad cuando se trata de dominios irregulares. (Baltensperger y Trummer (2002)). VII.

(9) Marco teórico Gómez, C. A. (2004), implementa diferentes algoritmos de Diferenciación Semiesprectral en Mathematica, siguiendo la implementación hecha por Weideman y Reddy (2000), se hace modificaciones al método de Chebyshev usando simetrı́as de funciones trigonométricas, haciendo experimentos numéricos para un análisis comparativo. Cardoso, P. (2007), presenta una investigación sobre la simulación numérica de problemas de propagación de ondas 1D y 2D, basado en el método espectral de Chebyshev. Los resultados teóricos se ilustran a través de experimentos numéricos que ilustran las ventajas de los métodos propuestos. Fabiana Travessini, Universidad Federal de Santa Catalina (2007), presenta resultados de estabilidad y análisis de convergencia de los métodos espectrales de Chebyshev para ecuaciones diferenciales parciales. Establece resultados de estabilidad y convergencia de esquemas discretos. Baltensperger, R. y Trummer, M. R. (2002). Spectral Differencing with a Twist, Implementa métodos espectrales usando matrices de diferenciación. Demuestra que los algoritmos para calcular matrices sufren de pérdida de exactitud, debido a errores de redondeo. Se analizan y se comparan mejoras y se proporcionan una serie de ejemplos numéricos que muestran diferencias significativas.. Justificación de la investigación En general, encontrar una solución analı́tica de una ecuación diferencial no es fácil. Debido a esto surgieron varios métodos numéricos para encontrar una solución aproximada a la deseada. Mientras que los métodos de diferencias finitas dan soluciones aproximadas en los puntos de una malla computacional elegida, los métodos espectrales brindan soluciones aproximadas en forma de polinomio en todo su dominio los cuales tienen una mejor aproximación a la VIII.

(10) solución del problema que los métodos anteriores.. Objetivos Objetivo General Calcular y desarrollar los métodos espectrales en una presentación numérica respecto al cálculo de las matrices de diferenciación para estudiar su estabilidad y aplicarlo a los problemas de ecuación del calor y de onda.. Objetivos Especı́ficos 1. Desarrollar los métodos espectrales en una representación numérica mediante matrices de diferenciación. 2. Calcular las matrices de diferenciación de Fourier y Chebyshev para aplicarlo a un problema de la ecuación del calor y de onda. 3. Aplicar los métodos espectrales de Chebyshev para analizar la estabilidad y convergencia. IX.

(11) Capı́tulo 1 Preliminares. 1.1.. Métodos Espectrales y Pseudoespectrales Aún cuando existe una amplia variedad de métodos para resolver problemas de valores en. la frontera, tales como: Diferencias finitas, elementos finitos, etc. Cuando se desea aproximar la solución numérica de un problema con alta exactitud, los métodos espectrales representan la opción más acertada. Los métodos espectrales pueden dividirse en dos grupos:. 1. Métodos interpolantes o pseudoespectrales, que demandan la satisfacción exacta de la ecuación diferencial en un cierto conjunto de puntos en la malla. Generalmente la solución se busca en forma de una serie truncada. 2. Métodos no interpolantes, donde la función incógnita se aproxima por una serie truncada y los coeficientes se evalúan mediante multiplicaciones por las funciones base y algoritmos de integración.. Los métodos pseudoespectrales aproximan funciones como una combinación lineal de funciones tı́picamente elegidas como polinomios de Legendre, Chebyshev o Fourier. Los métodos pseudoespectrales tienen una tasa de convergencia exponencial (también llamada 1.

(12) “espectral”) y prácticamente no tienen errores de disipación o dispersión. Además, permiten buenas aproximaciones, incluso utilizando cuadrı́culas con un número relativamente pequeño de puntos (Trefethen (2000)). En los casos en que la ubicación global no es apropiada (por ejemplo, cuando la solución puede presentar discontinuidades), se pueden utilizar técnicas pseudoespectrales multidominio. Para esto, cada problema se divide en un conjunto de subintervalos, dentro de los cuales se realiza una colocación global (Becerra (2010)). 1.2.. Polinomios de Interpolación. Teorema 1.1 (Weirstrass). Sea f una función real definida en el intervalo [a, b], dado ε > 0, existe un polinomio P definido en [a, b] con la propiedad de que |f (x) − P (x)| < ε. para todo x ∈ [a, b]. Este teorema justifica el estudio de los polinomios de interpolación, el cual es muy importante desde un punto de vista teórico pero es inoperante para propósitos prácticos en los cálculos. (Burden y Faires (2002) p. 104) Dados n + 1 pares (x0 , f (x0 )), (x1 , f (x1 )), ..., (xn , f (xn )) queremos aproximar f por un polinomio Pn de grado menor o igual que n tal que: f (xk ) = P (xk ),. k = 0, 1, . . . , n. Expresando P en forma polinómica tenemos: P (x) = an xn + an−1 xn−1 + . . . + a1 x + a0 Existen diferentes métodos para el cálculo de los coeficientes. Con los n + 1 puntos podemos plantear el sistema de ecuaciones P (x0 ) = an xn0 + an−1 x0n−1 + . . . + a1 x0 + a0 = f (x0 ) P (x1 ) = an xn1 + an−1 x1n−1 + . . . + a1 x1 + a0 = f (x1 ) .. .. .. .. .. . . . . . P (xn ) = an xnn + an−1 xnn−1 + . . . + a1 xn + a0 = f (xn ) 2.

(13) Note que las n + 1 incógnitas son los coeficientes ai del polinomio. Matricialmente tenemos Vn a = f (x) donde:. . xn0. x0n−1.    Vn =    . xn1. x1n−1. .. .. .. ..     a=   . ··· ··· .. .. x0 1 x1 1 .. .. . ..        . xnn xnn−1 · · · xn 1   an f (x0 )      f (x1 ) an−1    f (x) =  .. ..   . .    a0 f (xn ).        . Vn es conocida como la matriz de Vandermonde Si x0 , x1 , . . . , xn son todos distintos entonces Y. det(Vn ) =. (xi − xj ) 6= 0. 0≤i,j≤n. Por tanto el sistema lineal tiene solución única.. 1.2.1.. Polinomios de Taylor. Un polinomio de Taylor de grado n de la función f en un punto x0 , está dado por: P (x) =. n X f (k) (x0 ) k=0. k!. (x − x0 )k. (1.1). El cual tiene por error o residuo P (x) − f (x) = R(x) = f (n+1) (q(x)). para algún q(x) entre x y x0 . 3. (x − x0 )n+1 (n + 1)!. (1.2).

(14) 1.2.2.. Polinomios de Lagrange. Dados los puntos (x0 , f (x0 )), (x1 , f (x1 )), ..., (xn , f (xn )). El polinomio interpolatorio de Lagrange tiene la forma: P (x) = f (x0 )L0 (x) + f (x1 )L1 (x) + . . . + f (xn )Ln (x) =. n X. f (xk )Lk (x). (1.3). k=0. donde, Lk (x), k = 0, 1, ..., n son polinomios construidos para que:   1 si k = j Lk (xj ) =  0 si k 6= j Una forma de construirlos es usando la expresión: Lk (x) =. (x − x0 )(x − x1 ) . . . (x − xk−1 )(x − xk+1 ) . . . (x − xn ) . (xk − x0 )(xk − x1 ) . . . (xk − xk−1 )(xk − xk+1 ) . . . (xk − xn ). Los Lk (x) se llaman polinomios de Lagrange. El cual tiene por error P (x) − f (x) = R(x) =. 1.3.. f (n+1) (q(x)) (x − x0 )(x − x1 ) . . . (x − xn ) (n + 1)!. Polinomios de Chebyshev Los polinomios de Chebyshev de primer tipo de grado n, se definen por la expresión Tn (x) = cos(n arc cos(x)). (1.4). donde 0 ≤ arc cos(x) ≤ π Ahora tomando x = cos(θ), se deduce Tn (cos(θ)) = cos(nθ) de aquı́ se obtienen los polinomios T0 (x) = 1. y 4. T1 (x) = x. (1.5).

(15) Teorema 1.2. Tn+1 (x) = 2xTn (x) − Tn−1 (x). (1.6). Demostración. Para n ≥ 1 usando la sustitución x = cos(θ) tenemos Tn (cos(θ)) = cos(nθ). donde θ ∈ [0, π]. de aquı́ obtenemos las ecuaciones Tn+1 (cos(θ)) = cos((n + 1)θ) = cos(nθ) cos(θ) − sen(nθ) sen(θ) Tn−1 (cos(θ)) = cos((n − 1)θ) = cos(nθ) cos(θ) + sen(nθ) sen(θ) sumando estas ecuaciones obtenemos: Tn+1 (cos(θ)) = 2 cos(nθ) cos(θ) − Tn−1 cos(θ) Volviendo la variable x tenemos, para n ≥ 1 Tn+1 (x) = 2 cos(n arc cos(x))x − Tn−1 (x) Tn+1 (x) = 2xTn (x) − Tn+1 (x). Ahora de las ecuaciones (1.5) y (1.6) se obtienen los polinomios de Chebyshev para n ≥ 1. A continuación citaremos algunos polinomios de Chebyshev T0 (x) = 1 T1 (x) = x T2 (x) = 2x2 − 1 T3 (x) = 4x3 − 3x T4 (x) = 8x4 − 8x2 + 1 T5 (x) = 16x5 − 20x3 + 5x. Los polinomios de Chebyshev tienen algunas propiedades que enunciaremos en el siguiente teorema: 5.

(16) Teorema 1.3. Los polinomios de Chebyshev Tn (x) tienen las siguientes propiedades. 1. Cuando n es par, el polinomio Tn es una función par 2. Cuando n es impar, el polinomio Tn es una función impar 3. El coeficiente mayor del polinomio Tn , cuando n ≥ 1 es igual a 2n−1 4. Tn (x) tiene raı́ces reales en el intervalo (−1, 1) siendo estas   (2k − 1)π k = 1, 2, ..., n − 1 xk = cos 2n 5. máx |Tn (x)| = 1 x∈[−1,1]. 6. Tn (xk ) = (−1)k. donde xk = cos( kπ ) k = 0, 1, ..., n n. 7. No existe polinomio Pn (x) de n-ésimo grado con coeficiente mayor igual a la unidad, que se verifique máx |Pn (x)| < máx |Tn (x)| = 21−n. x∈[−1,1]. Demostración.. x∈[−1,1]. 7. Supongamos que existe un polinomio mónico Pn (x) de grado n tal que. |Pn (x)| ≤ 21−n ,. x ∈ [−1, 1]. Definamos Q(x) = 21−n Tn (x) − Pn (x). Como. 21−n Tn (x) y Pn (x) son mónicos, entonces Q(x) tiene grado n − 1. Ahora Q(xk ) = 21−n Tn (xk ) − Pn (xk ) < ((−1)k − 1) · 21−n . De aquı́ Q(x) es negativo si k es impar y positivo si k es par, es decir cambia de signo (n − 1) veces, o sea tiene al menos n raı́ces, lo que es una contradicción al hecho que Q(x) tiene grado n − 1. Teorema 1.4. Tn0 (x) =. n Tn−1 (x) − Tn+1 (x) · 2 1 − x2. para todo x 6= ±1. Cuando x = ±1 se debe tomar el lı́mite. 6. (1.7).

(17) Demostración. Derivando tenemos: d d dθ (cos(nθ)) = (cos(nθ)) dx dθ dx −1 = −n sen(nθ) · √ 1 − x2 n Tn−1 (x) − Tn+1 (x) = · 2 1 − x2. Tn0 (x) =. Teorema 1.5. 2Tn (x) =. 0 0 (x) Tn−1 (x) Tn+1 − n+1 n−1. (1.8). Demostración. Usando el teorema anterior tenemos 0 0 (x) (x) Tn−1 Tn+1 2Tn (x) − Tn−2 (x) − Tn+2 (x) − = n+1 n−1 2(1 − x2 ) 2Tn (x) − x (Tn+1 (x) + Tn−1 (x)) = 1 − x2 = 2Tn (x). Ahora como tenemos las fórmulas de diferenciación de los polinomios de Chebyshev, estas fórmulas puedes ser usadas para desarrollar la integración de dichos polinomios Z T0 (x) dx = T1 (x) + C Z. 1 T1 (x) dx = T2 (x) + C 4. El caso general se da en el siguiente teorema: Teorema 1.6. Z.   1 Tn+1 (x) Tn−1 (x) Tn (x) dx = − +C 2 n+1 n−1. Demostración. Es una consecuencia inmediata del teorema anterior. También determinaremos la ortogonalidad de los polinomios de Chebyshev.. 7. (1.9).

(18) Recordemos que    0 si m 6= n  Z π  π cos(mθ) cos(nθ) dθ = si m = n 6= 0 2  0    π si m = n = 0 Sustituyendo cos(θ) = x obtenemos Z. 1. −1.    0 si m 6= n   Tm (x)Tn (x) π √ dx = si m = n 6= 0 2  1 − x2    π si m = n = 0. Ası́ los polinomios de Chebyshev son un conjunto ortogonal sobre [−1, 1] con respecto a la función peso (1 − x2 )−1/2 Reorganizando los polinomios de Chebyshev se pueden expresar las potencias de x en términos de ellos. Por ejemplo citemos algunos de ellos: 1 = T0 x = T1 1 x2 = (T0 + T2 ) 2 1 x3 = (3T1 + T3 ) 4 1 x4 = (3T0 + 4T2 + T4 ) 8 1 x5 = (10T1 + 5T3 + T5 ) 16. 1.4.. Matrices de Diferenciación de Chebyshev Sean los puntos de Chebyshev:  xj = cos. jπ N.  j = 0, 1, ..., N. (1.10). Usaremos estos puntos para construir las matrices de Chebyshev y aplicar estas matrices para diferenciar algunas funciones. Nuestro esquema es como sigue: 8.

(19) Sea p el único polinomio de grado menor o igual que N con p(xj ) = vj ,. 0≤j≤N. Hacer wj = p0 (xj ).. Esta operación es lineal, entonces puede ser representado por una matriz (N +1)×(N +1) que denotaremos por DN w = DN v Para ver como funciona este proceso tomemos dos casos, cuando N = 1 y N = 2 antes de ir con el caso general Para N = 1 Los puntos de Chebyshev son x0 = 1 y x1 = −1. Consideremos sus respectivos valores v0 = u(x0 ) = u(1). v1 = u(x1 ) = u(−1). y. Utilizando los polinomios de Lagrange con puntos de interpolación (x0 , v0 ), (x1 , v1 ), p(x) tiene la forma: 1 1 p(x) = (1 + x)v0 + (1 − x)v1 2 2 Tomando la derivada nos da: 1 1 p0 (x) = v0 − v1 2 2  De aquı́ w = . 1 v 2 0. − 12 v1. 1 v 2 0. 1 v 2 1. −. . .  y como v = . v0 v1.  ,. Entonces la igualdad: w = D1 v obtenemos.  D1 = . 1/2 −1/2 1/2 −1/2 9.  .

(20) Para N = 2 Los puntos de Chebyshev son x0 = 1, x1 = 0 y x2 = −1. Consideremos sus respectivos valores v0 = u(x0 ) = u(1). ,. v1 = u(x1 ) = u(0). v2 = u(x2 ) = u(−1). y. Usando los polinomios de Lagrange con puntos de interpolación (x0 , v0 ), (x1 , v1 ), (x2 , v2 ); p(x) tiene la forma: 1 1 p(x) = x(1 + x)v0 + (1 + x)(1 − x)v1 + x(x − 1)v2 2 2 Tomando la derivada nos da:     1 1 0 p (x) = x + v0 − 2xv1 + x − v2 2 2    De aquı́ w =  . − 23 v0. − 2v1 +. 1 v 2 2. . . . v   0     1  y como v =  v1  v − 12 v2 2 0    1 3 − 2 v0 + 2v1 − 2 v2 v2. Entonces de la igualdad: w = D2 v obtenemos. . . 3/2 −2 1/2     D2 =  1/2 0 −1/2    −1/2 2 −3/2 El caso general se dará a continuación: Sea N ≥ 1. La matriz de diferenciación de Chebyshev de primer orden DN , está dada por: (Trefethen L. N. (2000)) (DN )00 =. 2N 2 + 1 , 6. (DN )jj =. (DN )N N = −. −xj , 2(1 − x2j ) 10. 2N 2 + 1 6. j = 1, ..., N − 1. (1.11) (1.12).

(21) ci (−1)i+j , cj (xi − xj ). (DN )ij =. i 6= j,. i, j = 0, ..., N. (1.13). ∞   nπx   nπx  X 1 f (x) = a0 + an cos + bn sen 2 L L n=1. (1.14). donde.   2 i=0oN ci =  1 otro caso. Este tipo de matrices cumplen con la relación: D(l) u = Dl u. 1.5.. Series de Fourier Si una función f (x) se expresa como:. es de esperar que los an y los bn están ligados a la función f Para calcular los coeficientes an y bn , supongamos que la igualdad (1.14) converja uniformemente, entonces la suma de la serie es también una función continua (Véase Figueiredo  D. (1975) p. 206), por tanto puede ser integrada y debe ser de periodo 2L (pues cos nπx y L  sen nπx tienen periodo fundamental 2L). Integrando tenemos: L Z. L. 1 f (x) dx = a0 2 −L Z. L. cos. Como −L. Z.  nπx  L. L. dx + −L. ∞  X. L. dx =. sen −L. L. an. cos.  nπx . −L. n=1. Z. Z.  nπx  L. 1 a0 = L. L. Z dx + bn. dx = 0 obtenemos. Z. L. f (x) dx −L. 11. L. sen −L.  nπx  L.  dx. (1.15).

(22) Usando relaciones de ortogonalidad Z L  nπx   nπx  cos sen dx = 0 si L L −L  Z L  L si  nπx   nπx  cos cos dx =  0 si L L −L  Z L  L si  nπx   nπx  sen sen dx =  0 si L L −L. n, m ≥ 1 n=m≥1 n 6= m. n, m ≥ 1. n=m≥1 n 6= m. n, m ≥ 1. Obtenemos 1 an = L. Z. 1 bn = L. Z. L. f (x) cos.  nπx  L. −L L. f (x) sen.  nπx . −L. L. dx. n≥0. dx. n≥1. Sea f : R −→ R una función periódica deZ periodo 2L integrable y absolutamente L integrable en cada intervalo limitado, en particular |f (x)| dx < ∞. Los números an y bn −L. son definidos como los coeficientes de Fourier de la función f . Entonces podemos escribir ∞   nπx   nπx  X 1 an cos + bn sen f (x) ∼ a0 + 2 L L n=1. (1.16). donde el lado derecho es la serie de Fourier de la función f. 1.6.. Matrices de Diferenciación de Fourier Sean los puntos de Fourier: xj =. 2jπ N. j = 0, 1, ..., N − 1. (1.17). En el caso de dominio periódico, digamos con periodo 2π el polinomio trigonométrico de grado N/2 interpolando una función f de periodo 2π en los puntos de Fourier, está dado por: pN (x) =. N −1 X k=0. 12. fk Lk (x).

(23) donde fk es el vector con elementos f (xk ) y Lk son los polinomios trigonométricos de interpolación de Lagrange definidos por:. . k. Lk (x) = (−1) a0 L(x)cst con a0 =. N −1 Y.  sen. i=1. x0 − xi 2. x − xk 2.  ,. L(x) =. N −1 Y. .  sen. k=0. x − xk 2. . y   csc(x) si N es impar cst(x) =  cot(x) si N es par Ası́, la matriz de diferenciación de Fourier de primer orden está dada por (Baltensperger, R. y Trummer, M. R. (2002)). Dkj. 1 = (−1)k+j cst 2 Dkk = 0,. 1.7.. . xk − xj 2.  k 6= j. k = 0, 1, ..., N − 1. Producto de Kronecker En ocasiones el producto de matrices que se asocia a la composición de aplicaciones. lineales es insuficiente. El producto de Kronecker que a continuación se define lo generaliza. Definición 1.7 (Producto de Kronecker). Sea A una matriz de m × n y B una matriz de p × q. El producto de Kronecker de la matriz A por la matriz B, denotado como A ⊗ B, es la matriz bloque C de tamaño mp × nq definida como: (Lara F. (2007))  a B · · · a1n B  11 ..  . ... C = A ⊗ B =  .. .  am1 B · · · amn B. 13.     .

(24) y desarrollando las operaciones implı́citas en cada bloque aij B se tiene para C = A ⊗ B que:   a b a11 b12 · · · a11 b1q · · · · · · a1n b11 a1n b12 · · · a1n b1q  11 11     a11 b21 a11 b22 · · · a11 b2q · · · · · · a1n b21 a1n b22 · · · a1n b2q    .. .. .. .. .. ..   .. .. . .   . . . . . .      a11 bp1 a11 bp2 · · · a11 bpq · · · · · · a1n bp1 a1n bp2 · · · a1n bpq    .. .. .. .. .. ..   ...   . . . . . .  C=   .. .. .. .. .. .. .. .   . . . . . .      am1 b11 am1 b12 · · · am1 b1q · · · · · · amn b11 amn b12 · · · amn b1q       am1 b21 am1 b22 · · · am1 b2q · · · · · · amn b21 am1 b22 · · · amn b2q      .. .. .. .. .. .. . . . .   . . . . . . . .   am1 bp1 am1 bp2 · · · am1 bpq · · · · · · amn bp1 amn bp2 · · · amn bpq El producto de Kronecker también recibe el nombre de Producto Tensorial o Producto Directo Proposición 1.8 (Propiedades del Producto de Kronecker). Sean A1 , A2 ∈ Mm×n y B1 , B2 ∈ Mp×q . Para el producto de Kronecker se verifican las siguientes propiedades:. 1. (A1 ⊗ B1 ) + (A2 ⊗ B1 ) = (A1 + A2 ) ⊗ B1 (A1 ⊗ B1 ) + (A1 ⊗ B2 ) = A1 ⊗ (B1 + B2 ) 2. Dadas Am×n , Bp×q y α ∈ R, se verifica (αA ⊗ B) = (A ⊗ αB) = α(A ⊗ B) 3. Dadas las matrices Am×n , Bp×q , Cr×s , se verifica que: [(A ⊗ B) ⊗ C] = [A ⊗ (B ⊗ C)] 4. Dadas A1 ∈ Mm×n , A2 ∈ Mm×p , B1 ∈ Mq×r , B2 ∈ Mr×s , si se consideran las matrices C1 = A1 ⊗ B1 y C2 = A2 ⊗ B2 de órdenes mq × nr y nr × ps respectivamente entonces C1 C2 = (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 5. Dadas A y B matrices de órdenes m × n y p × q, respectivamente, en general A ⊗ B 6= B ⊗ A 6. Si A ∈ Mn y B ∈ Mm son dos matrices invertibles, entonces se verifica que A ⊗ B es invertible y su inversa (A ⊗ B)−1 = A−1 ⊗ B −1. 14.

(25) 7. Supuestas A y B dos matrices cualesquiera, se verifica que: (A ⊗ B)0 = A0 ⊗ B 0 8. Dadas A y B dos matrices cuadradas de ordenes m y n, respectivamente, se verifica que: tr(A ⊗ B) = tr(A) · tr(B) 9. Sean, A ∈ Mn×n y B ∈ Mm×m entonces se verifica que: |A ⊗ B| = |Am ||B n |. Demostración. Véase (Lara F. (2007)). 1.8.. Autovalores y Autovectores. Definición 1.9. Si A es una matriz cuadrada el polinomio definido por p(λ) = det(A − λI) recibe el nombre de polinomio caracterı́stico de A. Los ceros de p se llaman valores caracterı́sticos o propios de A. Si λ es un valor caracterı́stico de A y si x 6= 0 tiene la propiedad de que (A − λI)x = 0 entonces a x se le llama vector caracterı́stico o propio de la matriz A correspondiente al valor caracterı́stico λ. Definición 1.10 (Radio Espectral). El radio espectral ρ(A) de una matriz A está definido por: ρ(A) = máx |λ|. λ es un valor caravterı́stico de A. Definición 1.11. Si A es una matriz de n × n, entonces: ρ(A) ≤ ||A|| para cualquier norma Definición 1.12. Llamamos convergente a una matriz de n × n si lı́m (Ak )ij = 0. k→∞. i = 1, 2, ..., n. para cada. 15. j = 1, 2, ..., n.

(26) Teorema 1.13. Las siguientes afirmaciones son equivalentes:. 1. A es una matriz convergente. 2. lı́mn→∞ ||An || = 0, para toda norma natural. 3. ρ(A) < 1. 4. lı́mn→∞ An x = 0, para toda x.. Demostración. Veáse (Burden y Faires (2002) p. 434).  Definición 1.14. Sea v (1) , v (2) , . . . , v (k) un conjunto de vectores, el conjunto es linealmente independiente, en tanto α1 v (1) + α2 v (2) + . . . + αk v (k) = 0 entonces α1 = α2 = . . . = αk = 0. De lo contrario el conjunto es linealmente dependiente  Teorema 1.15. Si v (1) , v (2) , . . . , v (n) es un conjunto de vectores de n vectores linealmente dependientes de Rn , entonces cualquier vector x ∈ Rn puede escribirse de manera única como x = β1 v (1) + β2 v (2) + . . . + βn v (n) para algunas constantes β1 , β2 , . . . , βn. Demostración. Veáse (Burden y Faires (2002) p. 552). Teorema 1.16. Sea A una matriz y λ1 , λ2 , . . . , λn son valores caracterı́sticos distintos de A  con los vectores caracterı́sticos asociados x(1) , x(2) , . . . , x(n) , entonces x(1) , x(2) , . . . , x(n) es linealmente independiente.. Demostración. Veáse (Burden y Faires (2002) p. 552).  Definición 1.17. Se dice que un conjunto de vectores v (1) , v (2) , . . . , v (n) es ortogonal si t t v (i) v (j) = 0 para toda i 6= j. Además si v (i) v (i) = 1 para toda i = 1, 2, . . . , n, entonces se dice que el conjunto es ortonormal. 16.

(27)  Puesto que xt x = ||x||22 , un conjunto de vectores ortogonales v (1) , v (2) , . . . , v (n). es. ortogonal si y solo si ||v (i) ||2 = 1,. para cada i = 1, 2, . . . , n. Teorema 1.18. Un conjunto ortogonal de vectores distintos de cero es linealmente independiente.. Demostración. Veáse (Burden y Faires (2002) p. 553). Definición 1.19. Se dice que una matriz Q es ortogonal si Q−1 = Qt Definición 1.20. Se dice que dos matrices A y B son similares si existe una matriz S no singular con A = S −1 BS Teorema 1.21. Supongamos que A y B son matrices similares con A = S −1 BS y que λ es un valor caracterı́stico de A con el vector caracterı́stico x. Entonces, λ es un valor caracterı́stico de B con Sx como vector caracterı́stico asociado. Demostración. Veáse (Burden y Faires (2002) p. 554). Teorema 1.22 (Schur). Sea A una matriz arbitraria. Existe una matriz no singular U con la propiedad de que T = U −1 AU donde T es una matriz triangular superior cuyos elementos diagonales constan de los valores caracterı́sticos de A. Demostración. Veáse (Burden y Faires (2002) p. 555). Teorema 1.23. Si A es una matriz simétrica y D es una matriz ortogonal cuyos elementos diagonales son los valores caracterı́sticos de A, entonces existe una matriz ortogonal Q tal que D = Q−1 AQ = Qt AQ. Demostración. Veáse (Burden y Faires (2002) p. 555).. 17.

(28) Teorema 1.24. Si A es una matriz simétrica de n × n, entonces los valores caracterı́sticos de A son números reales, y existen n vectores caracterı́sticos de A que forman un conjunto ortonormal.. Demostración. Veáse (Burden y Faires (2002) p. 555). Definición 1.25. Una matriz A es definida positiva si es simétrica y si xt Ax > 0 para todo vector columna n dimensional x 6= 0 Teorema 1.26. Una matriz simétrica A es definida positiva si y sólo si todos los valores caracterı́sticos de A son positivos.. Demostración. Veáse (Burden y Faires (2002) p. 556).. 1.9.. Estabilidad En el análisis numérico, la estabilidad es una propiedad de los algoritmos numéricos.. Describe cómo los errores en los datos de entrada se propagan a través del algoritmo. En un método estable, los errores debidos a las aproximaciones se atenúan a medida que la computación procede. En un método inestable, cualquier error en el procesamiento se magnifica conforme el cálculo procede. Métodos inestables generan rápidamente anomalı́as y son inútiles para el procesamiento numérico. La estabilidad numérica de un método junto con el número de condición define cuán buen resultado podemos obtener usando métodos aproximados para calcular cierto problema matemático. Algunas veces un solo cálculo puede ser logrado de varias maneras, que pueden ser algebraicamente idénticas en términos de números reales o complejos, pero que en la práctica producen resultados diferentes según varı́an los niveles de estabilidad numérica. Una de las tareas comunes del análisis numérico es tratar de seleccionar algoritmos robustos: esto es, que tienen una buena estabilidad numérica en un amplio intervalo de situaciones.. 18.

(29) Definición 1.27 (Estabilidad). Dado un algoritmo f (x), con los datos de entrada y  el error en los datos de entrada, decimos que un algoritmo es numéricamente estable (es decir que el algoritmo depende continuamente de los parámetros) para el error absoluto si x − (x + ) ' f (x) − f (x + ) y numéricamente estable para el error relativo si f (x) − f (x + ) x − (x + ) ' x f (x) Decimos que un algoritmo es numéricamente inestable para el error absoluto si x − (x + ) << f (x) − f (x + ) y numéricamente inestable para el error relativo si x − (x + ) f (x) − f (x + ) << x f (x) (Wikipedia. 2019). 19.

(30) Capı́tulo 2 Autovalores y PseudoEspectra. 2.1.. La Ecuación de Mathieu Problema del Péndulo con longitud variable: Inicialmente, consideremos el péndulo. con longitud variable A, con una masa m, y un soporte que se mueve verticalmente con un desplazamiento ξ(t), sus coordenadas cartesianas son las siguientes x = A sen(θ) y = ξ(t) + A cos(θ). Derivando x, y obtenemos ẋ = A cos(θ)θ̇ ẏ = ξ˙ − A sen(θ)θ̇. Calculemos la energı́a cinética K m 2 (ẋ + ẏ 2 ) 2  2  2  m  ˙ = A cos(θ)θ̇ + ξ − A sen(θ)θ̇ 2 i m h ˙2 = ξ + A2 θ̇2 − 2Aξ˙θ̇ sen(θ) 2. K =. 20.

(31) Ahora la energı́a potencial U es: U = −mgy = −mg (ξ + A cos(θ)). Si reemplazamos K y U en la ecuación de Lagrange la cual es:   d ∂K ∂(K − U ) =0 − dt ∂ θ̇ ∂θ tenemos: h i mA Aθ̈ − ξ¨ sen(θ) − ξ˙ cos(θ)θ̇ + mAξ˙θ̇ cos(θ) + mAg sen(θ) = 0 de ahı́ ¨ sen(θ) = 0 Aθ̈ + (g − ξ) Para amplitudes pequeñas, θ ≈ 0, la ecuación se puede reescribir como ¨ =0 Aθ̈ + (g − ξ)θ. A esta ecuación la podemos escribir en la forma estándar: ẍ + (a + p(t)) x = 0. Si hacemos p(t) = −2q cos(2t) tenemos la ecuación: ẍ + (a − 2q cos(2t)) x = 0. Definimos la ecuación de Mathieu, una EDO que surgen en problemas de oscilaciones forzadas. Esta ecuación puede ser escrita por: − uxx + 2q cos(2x)u = λu. (2.1). donde q es un parámetro real y buscamos soluciones en [−π, π] La forma estándar de la ecuación de Mathieu con parámetros (a, q) es w00 + (a − 2q cos(2z)) w = 0 21. (2.2).

(32) Puesto que (2.2) no tiene singularidades finitas, sus soluciones son funciones de z. Además, una solución w con valores iniciales en el punto z0 , es una función de las variables z, a y q. Las siguientes transformaciones: z → −z z → z±π 1 z → z± π 2 q → −q cada uno deja (2.2) sin cambios. Ahora (2.2) posee un par fundamental de soluciones w1 (z; a, q) y w2 (z; a, q) llamadas soluciones básicas con:     w1 (0; a, q) w2 (0; a, q) 1 0  =  0 0 w1 (0; a, q) w2 (0; a, q) 0 1 donde w1 (z; a, q) es par y w2 (z; a, q) es impar. Otras propiedades son las que siguen: W {w1 , w2 } = 1. w1 (z ± π; a, q) = w1 (π; a, q)w1 (z; a, q) ± w10 (π; a, q)w2 (z; a, q). (2.3). w2 (z ± π; a, q) = ±w2 (π; a, q)w1 (z; a, q) + w20 (π; a, q)w2 (z; a, q). (2.4). w1 (π; a, q) = w20 (π; a, q) 1 1 w1 (π; a, q) − 1 = 2w10 ( π; a, q)w2 ( π; a, q) 2 2 1 1 w1 (π; a, q) + 1 = 2w1 ( π; a, q)w20 ( π; a, q) 2 2 1 1 w10 (π; a, q) = 2w1 ( π; a, q)w10 ( π; a, q) 2 2 1 1 w2 (π; a, q) = 2w2 ( π; a, q)w20 ( π; a, q) 2 2. (2.5). 22. (2.6) (2.7) (2.8) (2.9).

(33) Teorema 2.1 (Floquet). Sea ν cualquier constante real o compleja. Entonces la ecuación de Mathieu (2.2) tiene una solución no trivial w(z) tal que w(z + π) = eπiν w(z). (2.10). si y solo si eπiν es un valor propio de la matriz   w (π; a, q) w2 (π; a, q)   1 0 0 w1 (π; a, q) w2 (π; a, q) Equivalentemente, cos(πν) = w1 (π; a, q) = w1 (π; a, −q). (2.11). Demostración. Véase (Digital Library of Mathematical Functions. https://dlmf.nist. gov/28.2). Esta es la ecuación caracterı́stica de la ecuación de Mathieu (2.2). Las soluciones de (2.11) son dadas por ν = π −1 arc cos(w1 (π; a, q)). Si el coseno inverso toma su valor principal, entonces ν = νb, donde 0 ≤ <b ν ≤ 1. La solución general de (2.11) es ν = ±b ν + 2n, donde n ∈ Z. De ahı́ ν o νb es llamado el exponente caracterı́stico de (2.2). Si νb = 0 o 1, o equivalentemente ν = n, entonces ν es una raı́z doble de la ecuación caracterı́stica; de lo contrario, es una raı́z simple Una solución con la propiedad pseudo-periódica (2.10) es llamada solución de Floquet con respecto a ν. Las ecuaciones (2.3), (2.5) y (2.11) dan para cada solución w(z) la fórmula de conexión: w(z + π) + w(z − π) = 2 cos(πν)w(z). (2.12). Por tanto una solución no trivial w(z), es una solución de Floquet con respecto a ν, o w(z + π) − eiνπ w(z) es una solución de Floquet con respecto a −ν La serie de Fourier de una solución de Floquet w(z) =. ∞ X n=−∞. 23. c2n ei(ν+2n)z. (2.13).

(34) converge absoluta y uniformemente en un subconjunto compacto de C. Los coeficientes c2n satisfacen  qc2n+2 − a − (ν − 2n)2 c2n + qc2n−2 = 0. n∈Z. (2.14). Recı́procamente, una solución no trivial c2n de (2.14) que satisface: lı́m |c2n |1/|n| = 0. n→±∞. conduce a una solución de Floquet Para ν y q, la ecuación (2.11) determina un conjunto discreto infinito de valores de a, los valores propios o valores caracterı́sticos, de la ecuación de Mathieu. Cuando νb = 0 o 1, la notación para los dos conjuntos de valores propios correspondientes a cada ν se muestran en la tabla, junto con las condiciones de contorno del problema de autovalores asociado. En la tabla n = 0, 1, 2, .... νb Condiciones de Frontera Autovalores 0. w0 (0) = w0 ( 21 π) = 0. a2n (q). 1. w0 (0) = w( 12 π) = 0. a2n+1 (q). 2. w(0) = w0 ( 12 π) = 0. b2n+1 (q). 3. w(0) = w( 21 π) = 0. b2n+2 (q). Una formulación equivalente es dada por:   1 0 w1 π; a, q = 0, 2   1 w1 π; a, q = 0, 2. a = a2n (q) a = a2n+1 (q). y w20.  . w2. 1 π; a, q 2. . 1 π; a, q 2. . = 0,. a = b2n+1 (q). = 0,. a = b2n+2 (q). donde n = 0, 1, 2, .... Cuando q = 0, an (0) = n2 ,. n = 0, 1, 2, ... 24.

(35) bn (0) = n2 ,. n = 1, 2, 3, .... Cerca de q = 0, an (q) y bn (q) pueden ser expandidos en series de q, ver figura (2.1).. Figura 2.1: Autovalores an (q) y bn (q) de la ecuación de Mathieu como funciones de q para 0 ≤ q ≤ 10 y n ≤ 4. Esta figura muestra que si el parámetro a está en el intervalo br (q) ≤ a ≤ ar (q), las soluciones son inestables, en otro caso las soluciones son estables Trasladando la ecuación (2.1) del dominio [−π, π] a [0, 2π], no altera los autovalores, entonces nuestra discretización toma la forma:. (2). LN = −DN + 2q diag(2x1 , ..., 2xn ). (2.15). donde DN es la matriz de diferenciación de Fourier de segundo orden. La implementación es sencilla, y con N = 42 tenemos 13 dı́gitos de precisión. El Programa 1 muestra las curvas trazadas por los primeros 11 autovalores como q incrementa desde 0 hasta 15.. 25.

(36) Programa 1 (Programa 21 (Trefethen L. N. (2000))). % p21.m - eigenvalues of Mathieu operator -u_xx + 2qcos(2x)u %. (compare p8.m and p. 724 of Abramowitz & Stegun) N = 42; h = 2*pi/N; x = h*(1:N); D2 = toeplitz([-piˆ2/(3*hˆ2)-1/6 ... -.5*(-1).ˆ(1:N-1)./sin(h*(1:N-1)/2).ˆ2]) qq = 0:.2:15; data = []; for q = qq; e = sort(eig(-D2 + 2*q*diag(cos(2*x))))’; data = [data; e(1:11)]; end clf, subplot(1,2,1) set(gca,’colororder’,[0 0 1],’linestyleorder’,’-|--’), hold on plot(qq,data), xlabel q, ylabel \lambda axis([0 15 -24 32]), set(gca,’ytick’,-24:4:32). Figura 2.2: Los primeros 11 autovalores de la ecuación de Mathieu (2.1. ). 26.

(37) 2.2.. La ecuación del Aire La ecuación del aire se plantea con la siguiente ecuación: x∈R. uxx = xu,. (2.16). Este es un ejemplo canónico de una EDO que cambia en diferentes partes del dominio. Definimos las funciones:. 1 Ai (x) = π. Z. ∞.  cos. 0. t3 + xt 3.  dt. Los Ai (x) se pueden expresar en serie de potencias como:   1 1 3 (1)(4) 6 (1)(4)(7) 9 Ai (x) = 2/3 2 1 + x + x + x + ··· 3! 6! 9! 3 Γ( 3 )   2 4 (2)(5) 7 (2)(5)(8) 10 1 − 1/3 1 x + x + x + x + ··· 4! 7! 10! 3 Γ( 3 ) La ecuación del aire (2.16) es una ecuación diferencial de segundo orden, por tanto debe tener una segunda solución. Esta es denotada por Bi (x) y está dada por:  3   3  Z  1 ∞ t t exp − + xt + sen + xt dt Bi (x) = π 0 3 3 La expansión por serie de potencias de Bi es: √   3 1 3 (1)(4) 6 (1)(4)(7) 9 Bi (x) = 2/3 2 1 + x + x + x + ··· 3! 6! 9! 3 Γ( 3 ) √   3 2 4 (2)(5) 7 (2)(5)(8) 10 + 1/3 1 x + x + x + x + ··· 4! 7! 10! 3 Γ( 3 ) Las funciones Ai (x) y Bi (x) son las funciones del aire. (Vasudevan y Lakshminarayanan. (2015)) Como es habitual, escribimos una solución en serie de potencias de la forma: y(x) = a0 + a1 x + a2 x2 + · · · 27. (2.17).

(38) para resolver la ecuación (2.16). Sustituyendo (2.17) en (2.16), simplificando tenemos: 2a2 + (3)(2)a3 x + (4)(3)a4 x2 + · · · + n(n − 1)an xn−2 + · · · = a0 x + a1 x2 + a2 x3 + · · · + an−3 xn−2 + · · · Igualando coeficientes tenemos: a2 = 0 a0 (2)(3) a1 = (3)(4) .. . an−3 = n(n − 1). a3 = a4. an. Consecuentemente, obtenemos por solución:   x3 x6 y(x) = a0 1 + + + ··· (2)(3) (2)(3)(5)(6)   x4 x7 +a1 x + + + ··· (3)(4) (3)(4)(6)(7). (2.18). donde a0 y a1 son dos constantes arbitrarias que van a calcularse usando las condiciones iniciales. Si escribimos: f (x) = 1 +. 1 3 (1)(4) 6 (1)(4)(7) 9 x + x + x + ··· 3! 6! 9!. (2.19). g(x) = x +. 2 4 (2)(5) 7 (2)(5)(8) 10 x + x + x + ··· 4! 7! 10!. (2.20). Note que (2.18) puede ser escrito como:   1 3 (1)(4) 6 (1)(4)(7) 9 y(x) = a0 1 + x + x + x + ··· 3! 6! 9!   2 4 (2)(5) 7 (2)(5)(8) 10 x + x + ··· +a1 x + x + 4! 7! 10! Si establecemos: a0 =. 1 32/3 Γ( 23 ) 28. = 0,35503.... (2.21).

(39) a1 =. 1 31/3 Γ( 13 ). = 0,25882.... (2.22). obtenemos las series de potencias de Ai (x) y Bi (x) como: Ai (x) = a0 f (x) − a1 g(x) Bi (x) =. √ 3 [a0 f (x) + a1 g(x)]. (2.23) (2.24). En la ecuación (2.16), para x < 0, el comportamiento es oscilatorio, mientras que para x > 0, obtenemos crecientes y decrecientes soluciones exponenciales. Siendo una EDO de segundo orden, la ecuación tiene un espacio bidimensional de soluciones y la base estándar para este espacio es el par de funciones Ai (x) que decrecen exponencialmente cuando x → ∞ y Bi (x) que crecen exponencialmente. Para resolver numéricamente con métodos espectrales no es tan sencillo, porque hay un número finito de oscilaciones que decrecen sólo algebraicamente en amplitud, pues hay una singularidad escencial en −∞. Consideremos un problema de autovalores ligeramente diferente , planteado en un intervalo finito. uxx = λxu,. u(±1) = 0. −1<x<1. (2.25). Esto difiere de nuestros problemas de autovalores previos de una manera básica: En lugar de ser de la forma Au = λu, este es un problema de autovalores generalizado de la forma Au = λBu Si B es no singular, entonces un problema de autovalores generalizado puede ser reducido matemáticamente a uno estándar B −1 Au = λu. Sin embargo esto no necesariamente es una buena idea en la práctica, y si B es singular, esto serı́a imposible. Para discretizar (2.25) usamos la formulación de Chebyshev para la segunda derivada. Au = λBu,. e2 A=D N. 29. B = diag(x0 , ..., xN ).

(40) La implementación es sencilla, y esto es evidente desde el Programa 2 que tiene convergencia espectral con diez o más dı́gitos de exactitud en el quinto autovector. Al resolver (2.25) tenemos la condición u(−1) = 0 y si se busca el quinto autovector positivo. Esto equivale a calcular Ai (x) en el intervalo [−L, L] donde −L = −7, 944133... el cual es el quinto zero de Ai (x). Un reescalado al intervalo [−1, 1], introducimos la potencia L3 = 501, 348... y es por eso que nuestro autovalor salió como L3 . De hecho lo que acabamos de decir no es exactamente cierto, porque se asume Ai (+L) = 0, cuando de hecho Ai (L) ≈ 5, 5 × 10−8 . Lo que tenemos calculado es en realidad una aproximación espectralmente precisa de una combinación lineal de Ai (Lx) mas un múltiplo muy pequeño de orden 10−14 , de Bi (Lx). El coeficiente 10−14 surge porque Bi (L) ≈ 106. Programa 2 (programa 22 (Trefethen L. N. (2000))). % p22.m - 5th eigenvector of Airy equation u_xx = lambda*x*u clf for N = 12:12:48 [D,x] = cheb(N); D2 = Dˆ2; D2 = D2(2:N,2:N); [V,Lam] = eig(D2,diag(x(2:N)));. % generalized ev problem. Lam = diag(Lam); ii = find(Lam>0); V = V(:,ii); Lam = Lam(ii); [foo,ii] = sort(Lam); ii = ii(5); lambda = Lam(ii); v = [0;V(:,ii);0]; v = v/v(N/2+1)*airy(0); xx = -1:.01:1; vv = polyval(polyfit(x,v,N),xx); subplot(2,2,N/12), plot(xx,vv), grid on title(sprintf(’N = %d. eig = %15.10f’,N,lambda)). end. 2.3.. Problema de Laplace El problema de autovalores de Laplace en dos dimensiones está dado por: − ∆u + f (x, y)u = λu. − 1 < x, y < 1. u = 0 en la frontera. (2.26). Para f = 0 tenemos un problema que se puede resolver por separación de variables. Las. 30.

(41) Figura 2.3: Convergencia del quinto autovector de la ecuación del aire (2.25) autofunciones tienen la forma sen (kx (x + 1)) sen (ky (y + 1)) donde kx y ky son múltiplos enteros de π/2. Esto da autovalores  π2 2 i + j2 4. i, j = 1, 2, 3, .... Tenga en cuenta que la mayorı́a de autovalores son degenerados: cuando i 6= j, los autovalores son de multiplicidad 2. Para f 6= 0 (2.26) no tendrá solución analı́tica en general y los valores propios no serán degenerados. Las perturbaciones dividirán los autovalores dobles en pares, un fenómeno familiar para los fı́sicos. e 2 , la matriz de Para resolver numéricamente por un método espectral usemos D N diferenciación de Chebyshev, tenemos entonces 31.

(42) ∂ 2u 2 eN =I ⊗D ∂x2 ∂ 2u 2 eN =D ⊗I ∂y 2 De ahı́ el Laplaciano tiene la forma:. 2 2 eN eN ⊗I +D LN = I ⊗ D. con dimensión (N − 1)2 × (N − 1)2 , como sumas de dos productos de Kronecker. A este Laplaciano le sumamos una matriz diagonal que representa a f , evaluado en cada uno de los (N + 1)2 puntos de la malla. El programa 3 muestra resultados para el caso no perturbado (f = 0), calculado al ejecutar el código exactamente como se imprime, excepto con la lı́nea L = L + diag(...). Se dan trazos de contorno de los primeros cuatro modos propios, con autovalores igual a π 2 /4 veces 2, 5, 5 y 8. Como se predijo, dos de los modos propios son degenerados. Como siempre en los casos de modos propios degenerados, la elección de autovectores aquı́ es arbitraria. Por razones esencialmente arbitrarias, el cálculo toma un modo propio con linea nodal aproximadamente a lo largo de una diagonal; de ahı́ se calcula un segundo modo propio lineal del primero (no necesariamente ortogonal) con una linea nodal aproximadamente en la diagonal opuesta. Un par igualmente válido de modos propios en este caso degenerado, habrı́a tenido lı́neas nodales a lo largo de los ejes x e y. Un notable hecho de este resultado es que aunque la malla es sólo de tamaño 16 × 16, los autovalores son calculados con 12 dı́gitos de precisión. Para el caso (f 6= 0), consideramos: f (x, y) = exp(20(y − x − 1)) Esta perturbación tiene una forma especial. Es casi cero fuera de la región triangular izquierda, un octavo del dominio total, definido por y − x ≥ 1 32.

(43) Dentro de esta región, sin embargo es muy grande, logrando valores tan grandes como 4, 8 × 108 . Ası́ esta perturbación no es pequeña en absoluto en amplitud, aunque está limitado en extensión. Vemos que los 4 modos propios evitan la esquina superior izquierda; los valores allı́ son muy cerca de cero. Esto es aproximadamente como si hubiéramos resuelto un problema de autovectores en el cuadrado unitario con una esquina cortada. Los cuatro autovalores han aumentado, como deben, y los autovalores segundo y tercero ya no son degenerados. Lo que encontramos en cambio en ese modo 3, que tenı́a una amplitud baja en la región de barrera, ha cambiado un poco, mientras que el modo 2, que tenı́a una amplitud más alta allı́, ha cambiado bastante. Estos valores propios calculados, por cierto, no son espectralmente precisos, la función f varı́a demasiado rápido para resolverse bien en esa malla.. 33.

(44) Programa 3 (Programa 23 (Trefethen L. N. (2000))). % p23.m - eigenvalues of perturbed Laplacian on [-1,1]x[-1,1] % Set up tensor product Laplacian and compute 4 eigenmodes: N = 16; [D,x] = cheb(N); y = x; [xx,yy] = meshgrid(x(2:N),y(2:N)); xx = xx(:); yy = yy(:); D2 = Dˆ2; D2 = D2(2:N,2:N); I = eye(N-1); L = -kron(I,D2) - kron(D2,I);. %. Laplacian. L = L + diag(exp(20*(yy-xx-1)));. %. + perturbation. [V,D] = eig(L); D = diag(D); [D,ii] = sort(D); ii = ii(1:4); V = V(:,ii);. % Reshape them to 2D grid, interpolate to finer grid, and plot: [xx,yy] = meshgrid(x,y); fine = -1:.02:1; [xxx,yyy] = meshgrid(fine,fine); uu = zeros(N+1,N+1); [ay,ax] = meshgrid([.56 .04],[.1 .5]); clf for i = 1:4 uu(2:N,2:N) = reshape(V(:,i),N-1,N-1); uu = uu/norm(uu(:),inf); uuu = interp2(xx,yy,uu,xxx,yyy,’cubic’); subplot(’position’,[ax(i) ay(i) .38 .38]) contour(fine,fine,uuu,-.9:.2:.9) colormap(1e-6*[1 1 1]); axis square title([’eig = ’ num2str(D(i)/(piˆ2/4),’%18.12f’) ’\piˆ2/4’]) end. 34.

(45) Figura 2.4: Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = 0. Se puede notar que, aunque la malla es sólo de tamaño 16 × 16, los valores propios se calculan con una precisión de 12 dı́gitos. 35.

(46) Figura 2.5: Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = exp(20(y − x − 1)). Podemos ver que los modos propios evitan la esquina superior izquierda; los valores son muy cercanos a cero. 36.

(47) Capı́tulo 3 Regiones de Paso de Tiempo y Estabilidad. 3.1.. Introducción Las ecuaciones diferenciales de segundo orden pueden ser descritos como sigue:. 1. Interpolar los datos en los puntos x1 , ..., xN por un polinomio p(x) que se puede restringir adicionalmente para satisfacer condiciones de frontera en x0 y xN 2. Diferenciar el polinomio interpolante dos veces para obtener estimaciones p00 (xj ) de la segunda derivada de los datos en cada punto de la malla. La idea simple es la base de los métodos de colocación espectral para soluciones numéricas de ecuaciones diferenciales parciales. Puesto que el proceso de diferenciación 2 es lineal puede ser descrito por una matriz DSP de orden (N − 1) × (N − 1). Esta. matriz generalmente no es simétrica, caso contrario a diferencias finitas, donde la matriz de diferenciación en una malla uniforme con tamaño de paso h es dada por:   −2 1 0       1  1 −2 1 2  DF D = 2   .. h  .    0 1 −2 37.

(48) Por razones que se analizan a continuación es de interés conocer los autovalores de estas matrices de diferenciación. Los autovalores de DF2 D pueden ser obtenidos analı́ticamente, 2 2 pero no los de DSP . El propósito es investigar los autovalores de DSP ambos experimental y. teóricamente. 2 La razón principal para que los autovalores de DSP importan es que afectan la estabilidad. numérica. Para resolver la ecuación vt = vxx incluso si sólo una solución de estado estable es el objetivo final, la derivada espacial puede aproximarse por diferenciación espectral y la derivada temporal por una fórmula lineal multipaso o por Runge-Kutta. La combinación puede 2 ser estable para un tiempo de paso fijado ∆t sólo si los autovalores de DSP se encuentran en la. región de estabilidad en el plano complejo para la fórmula de integración de tiempo dada con el tiempo de paso dado. 2 ) definido como el máximo de los La cantidad importante aquı́ es el radio espectral ρ(DSP 2 módulos de los autovalores de DSP . Para diferencias finitas el radio espectral de la matriz de. diferenciación es de tamaño O(N 2 ), pero para métodos espectrales en dominios no periódicos esto se convierte en O(N 4 ). El resultado es que las fórmulas de integración de tiempo explı́citas están sujetas a una condición de estabilidad restrictiva de la forma ∆t = O(N −4 ). 3.2.. Método de las lı́neas La solución de ecuaciones diferenciales parciales (EDP) en ingenierı́as y ciencia es una. constante. Sin embargo no es una tarea trivial, pues depende del sistema de coordenadas base, de las condiciones iniciales y de frontera. Con los avances de la computación, un método ha sido mencionado constantemente en la literatura cientı́fica y se conoce con el método de las lı́neas. De hecho es un planteamiento hı́brido con respecto a las diferencias finitas, pues toma el mismo fundamento de la definición de derivada. Sea, pues, la siguiente ecuación de segundo grado tı́pica en cualquier rama de la ingenierı́a: ∂ 2u ∂u =k 2 ∂t ∂x. 38. (3.1).

(49) Ahora, la primera y segunda derivada se aproximan a partir de las expresiones provenientes de la serie de Taylor: ut+1 − ui ut+1 − ui du = i = i dt ti+1 − ti τ d2 u ui+1 − 2ui + ui−1 ui+1 − 2ui + ui−1 = = dx2 (xi − xi−1 )2 h2 Al reemplazar estas expresiones en (3.1), además de que τ es un intervalo de tiempo y h es una longitud caracterı́stica, obtenemos:.   ut+1 ui+1 − 2ui + ui−1 − ui i =k τ h2 de ahı́: ut+1 = i. τ k(ui+1 − 2ui + ui−1 ) + ui h2. (3.2). Ası́, las incógnitas son las ui en el tiempo t + 1 (ut+1 i ). Los superı́ndices establecidos de esta forma se asocian al tiempo, mientras que los subı́ndices al espacio y se conocen como nodos. La forma de obtener el número de ecuaciones que se desee es con base al número de nodos n. Lo anteriormente descrito es el método de diferencias finitas explı́cito. El método de las lı́neas, sólo realiza una modificación al esquema anterior, la ecuación (3.2) es representada para implementarse de la siguiente forma:.   dui ui+1 − 2ui + ui−1 =k dt h2 Esta estrategia permite obtener una ecuación diferencial ordinaria por cada nodo ui (o lı́nea por representar un intervalo de la longitud total). De este modo el conjunto de todos los nodos representa el total del fenómeno. Finalmente, la solución consiste en resolver un sistema de ecuaciones diferenciales donde cada nodo es resuelto como función del tiempo. Ejemplo: Consideremos el siguiente problema:. ∂u(x, t) ∂ 2 u(x, t) = , ∂t ∂x2. x ∈ [0, 1], 39. t≥0.

(50) u(x, 0) = sen(πx) u(0, t) = u(1, t) = 0 que representa, por ejemplo, la distribución de temperaturas en una barra de longitud 1 con distribución inicial sen(πx) ; x ∈ [0, 1] y temperatura 0 en los extremos, a lo largo de todo el proceso. Dicha ecuación tiene como solución: 2. u(x, t) = e−π t sen(πx). Ahora, definimos en [0, 1] los nodos: xn = nh. n=. 1 N. n = 0, 1, 2, ..., N. o sea nodos: 0 = x0 < x1 < x2 < · · · < xN = 1 separados por distancias h. Para cada xn definimos la recta vertical (xn , t). t ≥ 0 y a considerar en ella una función. de t, descripción de la solución original en derivadas parciales, pero limitada a la semirecta, en definitiva: un (t) = u(xn , t),. t≥0. Nótese que, para los extremos de la barra, las u0 (t) y uN (t) valen obligatoriamente. u0 (t) = u(x0 , t) = u(0, t) = 0 uN (t) = u(xN , t) = u(1, t) = 0 pero no son conocidas las que corresponden a los otros ı́ndices n = 1, ..., N − 1. Como se observa, hemos hecho una discretización en una de las variables, la x, pero no en la otra, t, que siendo sigue continua. Esto justifica el nombre dado a este procedimiento, que acaba obteniendo las soluciones (generalmente numéricas) a lo largo de las lı́neas x = xn. 40.

(51) Fijado un valor t ≥ 0, la función f : x → u(x, t) es tal que: ∂ 2 u(x, t) = f 00 (x) 2 ∂x en particular tenemos ∂ 2 u(xn , t) = f 00 (xn ) ∂x2 Aproximando esta derivada por la fórmula usual, obtenemos. ∂ 2 u(xn , t) u(xn−1 , t) − 2u(xn , t) + u(xn+1 , t) = + O(h2 ) 2 ∂x h2 Ahora bien, u(x, t) verifica ∂u(xn , t) ∂ 2 u(xn , t) = = u0n (t) ∂x2 ∂t. n = 1, ..., N − 1. y, en definitiva u0n (t) =. un−1 (t) − 2un (t) + un+1 (t) + O(h2 ) h2. Es decir, las funciones un (t) consideradas antes son solución del sistema lineal de ecuaciones diferenciales ordinarias:. u0n =. 1 (un−1 − 2un + un+1 ) h2. n = 1, ..., N − 1. con un error de truncamiento O(h2 ) Agrupando las soluciones escalares en el vector de funciones:. u(t) = (u1 (t), u2 (t), ..., uN −1 (t)) y teniendo en cuenta que las funciones u0 (t) y uN (t) son idénticamente nulas, escribimos matricialmente este sistema como:. u0 =. 1 Au h2 41.

(52) donde A es la matriz. . −2 1 0 ···    1 −2 1 · · · A=   0 1 −2 · · ·  .. .. .. . . . . . ..        . Por otra parte la condición inicial para la variable u u(x, 0) = sen(πx) da origen a las condiciones iniciales para este sistema un (0) = u(xn , 0) = sen(πxn ) = sen(πnh) que garantizan solución única del sistema. En resumen, el método de las lı́neas permite resolver numéricamente la ecuación parabólica en derivadas parciales como un sistema lineal y de coeficientes constantes de ecuaciones diferenciales ordinarias. Muchos cálculos prácticos se pueden manejar mediante un análisis basado en la noción del método de las lı́neas. Cuando una EDP depende del tiempo es discretizado en el espacio, ya sea por un método espectral u otro, el resultado es un sistema acoplado de ODE’s en el tiempo. Las lı́neas x = cte son las lı́neas mencionadas anteriormente. El método de las lı́neas se refiere a la idea de resolver sistemas acoplado de EDO’s por una fórmula de diferencias finitas en t (Adams, Runge-Kutta, etcétera). La regla de oro para estabilidad es la que sigue: (Trefethen L. N. (2000)) El método de las lı́neas es estable si los autovalores del operador de discretización espacial (linealizado), escalada por ∆t, se encuentra en la región de estabilidad del operador de discretización del tiempo. En resumen, es el subconjunto del plano complejo que consiste en aquellos λ ∈ C para los cuales la aproximación numérica produce soluciones acotadas cuando se aplica al problema escalar del modelo lineal ut = λu con el paso de tiempo ∆t multiplicado por ∆t, para hacer que 42.

(53) el escalado sea independiente. (Para problemas de segundo orden en t, el problema del modelo pasa a ser utt (t) = λu(t) y uno se multiplica por (∆t)2 .) La Regla de oro no siempre es confiable y, en particular, puede fallar para problemas que involucran matrices de discretización que están lejos de ser normales, es decir, con vectores propios lejos de ser ortogonales. Para tales problemas, la condición correcta es que los valores pseudospectros también deben estar dentro de la región de estabilidad: más precisamente, el −pseudospectro debe estar dentro de una distancia O() + O(∆t) de la región de estabilidad como  → 0 y ∆t → 0. El programa 4 traza varias regiones de estabilidad para Adams estándar (Bashforth (explı́cito), Adams Moulton (implı́cito), diferenciación hacia atrás (implı́cito) y fórmulas de Runge Kutta (explı́cito). Aunque enumeramos el código como siempre, no lo discutiremos en absoluto, sino que remitiremos al lector a los libros de texto citados anteriormente para obtener explicaciones sobre cómo se pueden generar curvas como estas.. 43.

(54) {Programa 4 (Programa 25 (Trefethen L. N. (2000))). % p25.m - stability regions for ODE formulas. % Adams-Bashforth: clf, subplot(’position’,[.1 .56 .38 .38]) plot([-8 8],[0 0]), hold on, plot([0 0],[-8 8]) z = exp(1i*pi*(0:200)/100); r = z-1; s = 1; plot(r./s). % order 1. s = (3-1./z)/2; plot(r./s). % order 2. s = (23-16./z+5./z.ˆ2)/12; plot(r./s). % order 3. axis([-2.5 .5 -1.5 1.5]), axis square, grid on title Adams-Bashforth % Adams-Moulton: subplot(’position’,[.5 .56 .38 .38]) plot([-8 8],[0 0]), hold on, plot([0 0],[-8 8]) s = (5*z+8-1./z)/12; plot(r./s). % order 3. s = (9*z+19-5./z+1./z.ˆ2)/24; plot(r./s). % order 4. s = (251*z+646-264./z+106./z.ˆ2-19./z.ˆ3)/720; plot(r./s). % 5. d = 1-1./z; s = 1-d/2-d.ˆ2/12-d.ˆ3/24-19*d.ˆ4/720-3*d.ˆ5/160; plot(d./s) % 6 axis([-7 1 -4 4]), axis square, grid on, title Adams-Moulton % Backward differentiation: subplot(’position’,[.1 .04 .38 .38]) plot([-40 40],[0 0]), hold on, plot([0 0],[-40 40]) r = 0; for i = 1:6, r = r+(d.ˆi)/i; plot(r), end. % orders 1-6. axis([-15 35 -25 25]), axis square, grid on title(’backward differentiation’) % Runge-Kutta: subplot(’position’,[.5 .04 .38 .38]) plot([-8 8],[0 0]), hold on, plot([0 0],[-8 8]) w = 0; W = w; for i = 2:length(z). % order 1. w = w-(1+w-z(i)); W = [W; w]; end, plot(W) w = 0; W = w; for i = 2:length(z). % order 2. w = w-(1+w+.5*wˆ2-z(i)ˆ2)/(1+w); W = [W; w]; end, plot(W) w = 0; W = w; for i = 2:length(z). % order 3. w = w-(1+w+.5*wˆ2+wˆ3/6-z(i)ˆ3)/(1+w+wˆ2/2); W = [W; w]; end, plot(W) w = 0; W = w; for i = 2:length(z). % order 4. w = w-(1+w+.5*wˆ2+wˆ3/6+w.ˆ4/24-z(i)ˆ4)/(1+w+wˆ2/2+w.ˆ3/6); W = [W; w]; end, plot(W) axis([-5 2 -3.5 3.5]), axis square, grid on, title Runge-Kutta. Para ut = λu, tomemos la fórmula: v (n+1) − v (n−1) = λv (n) 2∆t 44. (3.3).

(55) Figura 3.1: Regiones de estabilidad para cuatro familias de ecuaciones diferenciales ordinarias. Para la diferenciación hacia atrás, las regiones de estabilidad son los exteriores de las curvas; En los otros casos son los interiores. La ecuación caracterı́stica para la relación de recurrencia es g − g −1 = 2λ∆t, que obtenemos insertando en (3.3), la solución v (n) = g n , y la condición para estabilidad en que ambas raı́ces de esta ecuación deben estar en el disco unitario cerrado, con sólo raı́ces simples en el cı́rculo unitario. Ahora está claro que si g es una raı́z, entonces g −1 es otra. Si |g| < 1, entonces | − g −1 | > 1, generando inestabilidad. Ası́ la estabilidad requiere |g| = 1 y g 6= −g −1 , de aquı́ g 6= ±i. Es decir, valores estables de g varı́an sobre el cı́rculo unitario excepto para ±i y los valores correspondientes de g − g −1 llenan el intervalo abierto complejo (−2i, 2i). Concluimos que la fórmula aplicada a ut = λu es estable siempre que 2λ∆t pertenezca a 45.

(56) (−2i, 2i), es decir la región de estabilidad en el plano λ∆t es (−i, i) Al trabajar en el dominio de Fourier vemos que los autovalores de la matriz de diferenciación de Fourier DN son los números ik para k = −N/2 + 1, ..., N/2 − 1, con cero teniendo multiplicidad dos. Por tanto la condición de estabilidad para la discretización de Fourier en el espacio junto con la fórmula (3.3) en el tiempo para ut = ux en [−π, π] es   1 ∆t N − 1 < 1, 2 es decir, aproximadamente ∆t ≤ 2N −1 . Si aumentamos t gradualmente a través de este lı́mite, los primeros modos de volverse inestables serı́an de la forma e±i(N/2−1)xj , es decir aproximadamente dientes de sierra. Ahora, el Programa 6 (Ver Apéndice), tenemos la ecuación ut + c(x)ux = 0, donde c es un coeficiente variable que toma un máximo de 6/5 en x = 1 + π/2 y 1 + 3π/2. Para N grande, loa autovalores más grandes serán aproximadamente 6/5 veces más grandes que en el análisis que se acaba de realizar para ut = ux . Esto da la condición de estabilidad aproximada 5 ∆t ≤ N −1 3 . Aplicando la fórmula (3.3) al problema utt = λu nos da v (n+1) − 2v (n) + v (n−1) = λv (n) (∆t)2. (3.4). La ecuación caracterı́stica de esta relación de recurrencia es g + g −1 = λ(∆t)2 + 2, y si g es una raı́z g −1 es otra. Por cálculos parecidos a los anteriores se deduce que la región de estabilidad en el plano λ(∆t)2 es el intervalo real negativo (−4, 0) De acuerdo con la regla de oro, para una discretización espectral dada, debemos escoger lo suficientemente pequeño como para que esta región de estabilidad incluya los valores propios del operador de discretización espectral, escalado por ∆t. Para el Programa 7 (Ver e 2 . Los autovalores de D e 2 son números Apéndice), el operador de discretización espacial es D N N reales negativos, el mayor de los cuales en magnitud es aproximadamente −0,048N 4 . Para. 46.

(57) el Programa 7, en consecuencia, nuestra restricción de estabilidad es aproximadamente −0,048N 4 (∆t)2 ≥ −4, esto es, ∆t ≤ 9,2N −2 , y cuando se viola esta condición, los problemas deben surgir primero en los lı́mites, donde se concentran los modos ofensivos. Estas predicciones coinciden con las observaciones. El Programa 8 (Ver Apéndice), en 2D, se ve que tienen autovalores más grandes aproximadamente al Programa 7. Esto significa que la condición de estabilidad es dos veces p más estricta en (∆t)2 , por lo tanto (2) veces más estricta en ∆t, ∆t ≤ 6, 5N −2 De nuevo, esta estimación coincide con las observaciones y nuestro análisis explica por qué las oscilaciones en el Programa 8 aparecieron en las esquinas del dominio. e 2 son negativos y reales, con mayor tamaño Acabamos de afirmar que los autovalores de D N e 2 se aproxima aproximadamente −0, 048N 4 . En primer lugar cabe destacar que aunque D N al operador Hermitiano d2 /dx2 con las condiciones de contorno apropiadas en [−1, 1], no es simétrico. No obstante los autovalores han demostrado ser reales, muchos de ellos son aproximaciones espectralmente exactas a los autovalores −k 2 π 2 /4 de d2 /dx2 . Como N → ∞, la fracción de autovalores que se comportan de esta manera converge a 2/π. La explicación para este número es que en el centro de la malla donde el espaciado es más grueso, el número de onda más alto de una función seno para la cual hay al menos dos puntos e 2 restantes de la malla por longitud de onda es 2N/π. ¿Ahora qué sobre los autovalores de D N con una proporción 1 − 2/π asintóticamente como N → ∞? Estos resultan ser muy grandes, de orden N 4 y fı́sicamente sin sentido. Son llamados valores atı́picos y el más grande en magnitud es aproximadamente −0, 048N 4 e 2 y traza uno de los autovectores con sentido El Programa 5 calcula los autovalores de D N fı́sico y uno de los vectores sin sentido fı́sico. Estos valores atı́picos corresponden a modos propios no fı́sicos que no son senos y cosenos globales, pero están localizados cerca de x = ±1. (Trefethen L. N. (2000)). 47.

(58) Programa 5 (Programa 26 (Trefethen L. N. (2000))). % p26.m - eigenvalues of 2nd-order Chebyshev diff. matrix. N = 60; [D,x] = cheb(N); D2 = Dˆ2; D2 = D2(2:N,2:N); [V,Lam] = eig(D2); [foo,ii] = sort(-diag(Lam)); e = diag(Lam(ii,ii)); V = V(:,ii);. % Plot eigenvalues: clf, subplot(’position’,[.1 .62 .8 .3]) loglog(-e,’.’,’markersize’,10), ylabel eigenvalue title([’N = ’ int2str(N) ... ’. max |\lambda| = ’ num2str(max(-e)/Nˆ4) ’Nˆ4’]). hold on, semilogy(2*N/pi*[1 1],[1 1e6],’--r’) text(2.1*N/pi,24,’2\pi / N’,’fontsize’,12). % Plot eigenmodes N/4 (physical) and N (nonphysical): vN4 = [0; V(:,N/4-1); 0]; xx = -1:.01:1; vv = polyval(polyfit(x,vN4,N),xx); subplot(’position’,[.1 .36 .8 .15]), plot(xx,vv), hold on plot(x,vN4,’.’,’markersize’,9), title(’eigenmode N/4’) vN = V(:,N-1); subplot(’position’,[.1 .1 .8 .15]) semilogy(x(2:N),abs(vN)), axis([-1 1 5e-6 1]), hold on plot(x(2:N),abs(vN),’.’,’markersize’,9) title(’absolute value of eigenmode N. (log scale)’). 48.

(59) e 2 . Una fracción de Figura 3.2: La gráfica superior muestra los autovalores ordenados de D N aproximadamente 2 de ellos corresponde a buenas aproximaciones de los modos propios de uxx = λu,. u(±1) = 0. El modo N/4 es uno de ellos, mientras que el modo N es falso y está. localizado cerca de los lı́mites, tenga en cuenta la escala de registro.. 49.

(60) Conclusiones Los polinomios de Chebyshev de primera especie son utilizados para la construcción de la matriz de diferenciación de tal manera que es una matriz que permite obtener la derivada con alta precisión. Las matrices de diferenciación de Chebyshev nos muestran como se pueden efectuar los cálculos de derivación usando los espectros Tn (x) y su aplicación con mayor precisión, aunque se tenga que pagar el precio de un mayor costo computacional. Hemos interpolado mediante funciones para aproximar los autovalores de una ecuación diferencial ordinaria para la ecuación de Mathieu. La diferenciación espectral puede convertir problemas de autovalores para ecuaciones diferenciales ordinarias y ecuaciones diferenciales parciales en problemas correspondientes para matrices para construir la solución por el método de las lı́neas.. 50.

(61) Apéndice Programa 6 (Programa 6 (Trefethen L. N. (2000))). % p6.m - variable coefficient wave equation. % Grid, variable coefficient, and initial data: N = 128; h = 2*pi/N; x = h*(1:N); t = 0; dt = h/4; c = .2 + sin(x-1).ˆ2; v = exp(-100*(x-1).ˆ2); vold = exp(-100*(x-.2*dt-1).ˆ2);. % Time-stepping by leap frog formula: tmax = 8; tplot = .15; clf, drawnow, set(gcf,’renderer’,’zbuffer’) plotgap = round(tplot/dt); dt = tplot/plotgap; nplots = round(tmax/tplot); data = [v; zeros(nplots,N)]; tdata = t; for i = 1:nplots for n = 1:plotgap t = t+dt; v_hat = fft(v); w_hat = 1i*[0:N/2-1 0 -N/2+1:-1] .* v_hat; w = real(ifft(w_hat)); vnew = vold - 2*dt*c.*w; vold = v; v = vnew; end data(i+1,:) = v; tdata = [tdata; t]; end. 51.

(62) waterfall(x,tdata,data), view(10,70), colormap(1e-6*[1 1 1]); axis([0 2*pi 0 tmax 0 5]), ylabel t, zlabel u, grid off. Programa 7 (Programa 19 (Trefethen L. N. (2000))). % p19.m - 2nd-order wave eq. on Chebyshev grid (compare p6.m). % Time-stepping by leap frog formula: N = 80; x = cos(pi*(0:N)/N); dt = 8/Nˆ2; v = exp(-200*x.ˆ2); vold = exp(-200*(x-dt).ˆ2); tmax = 4; tplot = .075; plotgap = round(tplot/dt); dt = tplot/plotgap; nplots = round(tmax/tplot); plotdata = [v; zeros(nplots,N+1)]; tdata = 0; clf, drawnow, h = waitbar(0,’please wait...’); set(gcf,’renderer’,’zbuffer’) for i = 1:nplots, waitbar(i/nplots) for n = 1:plotgap w = chebfft(chebfft(v))’; w(1) = 0; w(N+1) = 0; vnew = 2*v - vold + dtˆ2*w; vold = v; v = vnew; end plotdata(i+1,:) = v; tdata = [tdata; dt*i*plotgap]; end. % Plot results: clf, drawnow, waterfall(x,tdata,plotdata) axis([-1 1 0 tmax -2 2]), view(10,70), grid off colormap(1e-6*[1 1 1]); ylabel t, zlabel u, close(h). 52.

(63) Programa 8 (Programa 20 (Trefethen L. N. (2000))). % p20.m - 2nd-order wave eq. in 2D via FFT (compare p19.m). % Grid and initial data: N = 24; x = cos(pi*(0:N)/N); y = x’; dt = 6/Nˆ2; [xx,yy] = meshgrid(x,y); plotgap = round((1/3)/dt); dt = (1/3)/plotgap; vv = exp(-40*((xx-.4).ˆ2 + yy.ˆ2)); vvold = vv;. % Time-stepping by leap frog formula: [ay,ax] = meshgrid([.56 .06],[.1 .55]); clf for n = 0:3*plotgap t = n*dt; if rem(n+.5,plotgap)<1. % plots at multiples of t=1/3. i = n/plotgap+1; subplot(’position’,[ax(i) ay(i) .36 .36]) [xxx,yyy] = meshgrid(-1:1/16:1,-1:1/16:1); vvv = interp2(xx,yy,vv,xxx,yyy,’cubic’); mesh(xxx,yyy,vvv), axis([-1 1 -1 1 -0.15 1]) colormap(1e-6*[1 1 1]); title([’t = ’ num2str(t)]), drawnow end uxx = zeros(N+1,N+1); uyy = zeros(N+1,N+1); ii = 2:N; for i = 2:N. % 2nd derivs wrt x in each row. v = vv(i,:); V = [v fliplr(v(ii))]; U = real(fft(V)); W1 = real(ifft(1i*[0:N-1 0 1-N:-1].*U)); % diff wrt theta W2 = real(ifft(-[0:N 1-N:-1].ˆ2.*U));. % diffˆ2 wrt theta. uxx(i,ii) = W2(ii)./(1-x(ii).ˆ2) - x(ii).* ... W1(ii)./(1-x(ii).ˆ2).ˆ(3/2);. 53.

(64) end for j = 2:N. % 2nd derivs wrt y in each column. v = vv(:,j); V = [v; flipud(v(ii))]; U = real(fft(V)); W1 = real(ifft(1i*[0:N-1 0 1-N:-1]’.*U));% diff wrt theta W2 = real(ifft(-[0:N 1-N:-1]’.ˆ2.*U));. % diffˆ2 wrt theta. uyy(ii,j) = W2(ii)./(1-y(ii).ˆ2) - y(ii).* ... W1(ii)./(1-y(ii).ˆ2).ˆ(3/2); end vvnew = 2*vv - vvold + dtˆ2*(uxx+uyy); vvold = vv; vv = vvnew; end. 54.

Figure

Figura 2.1: Autovalores a n (q) y b n (q) de la ecuaci´on de Mathieu como funciones de q para 0 ≤ q ≤ 10 y n ≤ 4

Figura 2.1:

Autovalores a n (q) y b n (q) de la ecuaci´on de Mathieu como funciones de q para 0 ≤ q ≤ 10 y n ≤ 4 p.35
Figura 2.2: Los primeros 11 autovalores de la ecuaci´on de Mathieu (2.1. )

Figura 2.2:

Los primeros 11 autovalores de la ecuaci´on de Mathieu (2.1. ) p.36
Figura 2.3: Convergencia del quinto autovector de la ecuaci´on del aire (2.25) autofunciones tienen la forma

Figura 2.3:

Convergencia del quinto autovector de la ecuaci´on del aire (2.25) autofunciones tienen la forma p.41
Figura 2.4: Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = 0

Figura 2.4:

Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = 0 p.45
Figura 2.5: Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = exp(20(y − x − 1))

Figura 2.5:

Primeros cuatro modos propios del problema de Laplace(2.26) con f (x, y) = exp(20(y − x − 1)) p.46
Figura 3.1: Regiones de estabilidad para cuatro familias de ecuaciones diferenciales ordinarias.

Figura 3.1:

Regiones de estabilidad para cuatro familias de ecuaciones diferenciales ordinarias. p.55
Figura 3.2: La gr´afica superior muestra los autovalores ordenados de e D N 2 . Una fracci´on de aproximadamente 2 de ellos corresponde a buenas aproximaciones de los modos propios de u xx = λu, u(±1) = 0

Figura 3.2:

La gr´afica superior muestra los autovalores ordenados de e D N 2 . Una fracci´on de aproximadamente 2 de ellos corresponde a buenas aproximaciones de los modos propios de u xx = λu, u(±1) = 0 p.59

Referencias

Actualización...