• No se han encontrado resultados

El problema de valor inicial

N/A
N/A
Protected

Academic year: 2021

Share "El problema de valor inicial"

Copied!
84
0
0

Texto completo

(1)

Cap´ıtulo 1

El problema de valor inicial

1.1.

El problema de valor inicial

Al modelizar problemas de la ciencia, la ingenier´ıa y la econom´ıa aparecen con frecuencia ecuaciones diferenciales ordinarias. Una ecuaci´on diferencial or-dinaria (en adelante una EDO) es una relaci´on entre una funci´on de una varia-ble y sus derivadas. Nosotros nos centraremos en ecuaciones de primer orden (la derivada de mayor orden que aparece es la de orden uno) escritas en la forma est´andar

y0(x) = f(x, y(x)), axb, (1.1) donde f : [a, b]×Rd 7→ Rd es continua. Una soluci´on de (1.1) en [a, b] es una

funci´on y: [a, b] 7→Rd, y C1([a, b]) que satisface (1.1). En el caso vectorial, d > 1, que se puede interpretar como un sistema de ecuaciones escalares, y y

f tienen d componentes cada una,

y= (y1, y2, . . . , yd)T, f = (f1, f2, . . . , fd)T.

(2)

s´ı s´olo una soluci´on ´unica, y se hace necesario a˜nadir a la formulaci´on del problema un cierto n´umero de condiciones adicionales. ´Estas son o bien “con-diciones de frontera”, si la informaci´on adicional se da en dos o m´as valores de

x, o “condiciones iniciales”, si se especifican todas las condiciones de y en un ´

unico valor de x. En este cap´ıtulo nos centraremos en el caso en que se dan condiciones iniciales, y dejaremos el caso en que se dan condiciones de fron-tera para m´as adelante. As´ı pues, dado η = (η1, η2, . . . , ηd)T Rd, buscamos

una soluci´on delproblema de valor inicial (PVI) en [a, b], esto es, una funci´on

yC1([a, b]) que satisfaga

y0(x) = f(x, y(x)) para axb, y(a) = η. (1.2)

Como se puede ver en el siguiente ejemplo, algunos problemas de valor inicial tienen m´as de una soluci´on.

Ejemplo. Consideramos la ecuaci´on diferencial y0 =|y|α sujeta a la condici´on

inicial y(0) = 0, siendo α un n´umero real fijo, α (0,1). Es facil comprobar que para cualquier n´umero real no negativo c,

yc(x) =

(

0, 0xc,

(1α)1/(1−α)(xc)1/(1−α), xc,

es una soluci´on del problema de valor inicial en el intervalo [0,). As´ı pues, si bien el problema tiene soluci´on, ´esta no es ´unica. Sin embargo, en contraste con el caso α (0,1), si α 1 el problema de valor inicial tiene una ´unica soluci´on, y(x)0.

Este ejemplo muestra que hay que pedir a la funci´on f algo m´as que con-tinuidad para asegurar que la soluci´on del problema (1.2) sea ´unica. Nosotros pediremos una condici´on de crecimiento con respecto al segundo argumento de la funci´on.

Definici´on 1.1. La funci´on f :DR×Rd7→Rd satisface una condici´on de

(3)

conocida como constante de Lipschitz, tal que

kf(x, y)f(x,yˆ)k ≤Lkyk (x, y),(x,yˆ)D.

Observaci´on. Dado que en un espacio vectorial de dimensi´on finita todas las normas son equivalentes, la propiedad de ser Lipschitz no depende de qu´e nor-ma tomemos.

Sif, adem´as de ser continua enD, satisface una condici´on de Lipschitz con respecto a su segunda variable, la soluci´on, de existir, ser´a ´unica. Esto es una consecuencia inmediata del siguiente lema.

Lema 1.2. SeaD= [a, b]×Rd y sea f continua en D y Lipschitz con respecto

a su segunda variable en D. Sean y,yˆ dos soluciones de la ecuaci´on (1.1) en [a, b]. Entonces, para todo axb,

ky(x)yˆ(x)k ≤ ky(a)yˆ(a)kexp(L(xa)). (1.3)

Prueba. Tenemos que

y(x) = y(a) +Raxf(s, y(s))ds,

ˆ

y(x) = ˆy(a) +Raxf(s,yˆ(s))ds.

Restando y tomando normas, y usando quef es Lipschitz en su segunda varia-ble se tiene que

ky(x)yˆ(x)k ≤ ky(a)yˆ(a)k+Raxkf(s, y(s))f(s,yˆ(s))kds ≤ ky(a)yˆ(a)k+LRaxky(s)yˆ(s)kds. (1.4) Si definimos g(x) = ky(a)yˆ(a)k+L Z x a k y(s)yˆ(s)kds,

tenemos por un lado que

(4)

y por otro que,

g0(x) = Lky(x)yˆ(x)k ≤Lg(x).

Multiplicando esta desigualdad por el factor integrante exp(L(xa)) se tiene que

d

dx(g(x) exp(L(x−a))) ≤0,

de donde g(x) g(a) exp(L(x a)). Esto combinado con (1.5) produce el resultado.

Observaci´on. El paso de la estimaci´on integral (1.4) a la estimaci´on puntual (1.3) es lo que se conoce en la literatura como Lema de Gronwall.

La desigualdad (1.3) no s´olo prueba la unicidad de la soluci´on del problema de valor inicial (1.2); tambi´en muestra que las soluciones de dicho problema dependen de manera continua del dato inicial.

La cota (1.3) es ´optima en algunos casos, por ejemplo para la ecuaci´on escalar lineal y0 = λy, λ > 0. Sin embargo, puede ser demasiado pesimista

para otros.

Ejemplo. Consideramos la ecuaci´ony0 =λy, que tiene constante de Lipschitz

L=λ. La diferencia entre dos soluciones de este problema decae exponencial-mente con el tiempo; de hecho se tiene la igualdad

y(x)yˆ(x) = (y(a)yˆ(a))e−λ(x−a).

La condici´on de Lipschitz junto con la continuidad resultan ser tambi´en suficientes para demostrar la existencia de una soluci´on.

Teorema 1.3 (Picard). SeaD = [a, b]×Rd. Sif es continua enDy Lipschitz

con respecto a su segunda variable en D, entonces existe una ´unica soluci´on del problema (1.2) en [a, b].

(5)

problema (1.2) es equivalente a encontrar una funci´onyC([a, b]) tal que

y(x) =η+

Z x a

f(s, y(s))ds. (1.6)

Las soluciones de esta ecuaci´on integral son puntos fijos del operador integral

T :C([a, b])7→C([a, b]) definido por (T y)(x) =η+

Z x a

f(s, y(s))ds.

La idea para hallar un punto fijo para este operador es la misma que se uti-liza para hallar puntos fijos de aplicaciones en espacios de dimensi´on finita: la iteraci´on. Definimos una sucesi´on de funciones {yn}∞n=0 por medio de la

recurrencia

y0(x) =η, yn(x) = η+

Z x a

f(s, yn−1(s))ds, n = 1,2, . . . . (1.7)

Si la sucesi´on{yn}converge uniformemente a una funci´on y, por un lado ´esta

ser´a continua, y por otro, podemos tomar l´ımites en la relaci´on de recurrencia para obtener que y es soluci´on de (1.6).

Dado que yn(x) = y0(x) + n X k=1 (yk(x)−yk−1(x)),

la convergencia uniforme de la sucesi´on {yn} se seguir´a inmediatamente del

test M de Weierstrass si encontramos una sucesi´on num´erica {ak} tal que

kyk(x)−yk−1(x)k ≤ak y ∞ P k=1 ak<∞ . La acotaci´on kyk(x)−yk−1(x)k ≤ Kη L (L(xa))k k! ,

donde L es la constante de Lipschitz de f respecto de la segunda variable, nos dice que podemos tomar ak = KLη(L(b−a))

k

k! . Esta acotaci´on se prueba por

inducci´on: es cierta para k= 1, pues ky1(x)−y0(x)k ≤

Z x

a k

(6)

y, si es cierta parak1, entonces kyk(x)−yk−1(x)k ≤ Rx a kf(s, yk−1(s))−f(s, yk−2(s))kds ≤ LRaxkyk−1(s)−yk−2(s)kds ≤ LRaxKη L (L(sa))k−1 (k1)! ds= Kη L (L(xa))k k! , es decir, es cierta parak.

En resumen, la continuidad de f junto con la condici´on de Lipschitz res-pecto de la segunda variable garantizan que el problema (1.2) est´a bien plan-teado: (i) tiene soluci´on; (ii) es ´unica y (iii) depende de manera continua de los datos iniciales. En lo sucesivo supondremos siempre que dicha condiciones se cumplen. En ocasiones necesitaremos que la soluci´on sea m´as regular. Pa-ra conseguirlo bastar´a con imponer mayor regularidad a la f. En efecto, es f´acil ver que si, adem´as de ser Lipschitz con respecto a su segunda variable,

f Cp([a, b]×Rd), entonces yCp+1([a, b]).

La condici´on de Lipschitz se puede relajar, pidiendo tan s´olo que f sea Lipschitz en D = [a, b]×Ω, con η Rd. No obstante, en este caso s´olo

se tiene garantizado un resultado de existencia local, en alg´un intervalo [a,ˆb], con a <ˆbb.

Ejemplo. Consideramos el problema

y0 =y2, y(0) = 1.

La funci´onf(x, y) =y2 satisface una condici´on de Lipschitz en [0, b]×[K, K]

para cualesquiera b, K >0. Sin embargo, la ´unica soluci´on del problema,

y(x) = 1 1x,

no tiene validez m´as all´a de [0,1].

Como se puede ver en cualquier texto avanzado de EDOs, la soluci´on se puede prolongar mientras no se salga del dominio dondefsatisface la condici´on

(7)

de Lipschitz. La dificultad en este caso reside en que y→ ∞ cuando x1−.

N´otese quef no es Lipschitz en [0, b]×R. Problemas

1. Escribir la ecuaci´on lineal yn)+a

n−1yn−1) +· · ·+a1y0 +a0y = 0 en la

forma Y0 =AY con Y = (y, y0, . . . , yn−1)) y A una matrizn×n.

2. Comprobar que las siguientes funciones satisfacen una condici´on de Lips-chitz sobre los respectivos intervalos y hallar las constantes de LipsLips-chitz asociadas:

a) f(x, y) = 2yx−4, x[1,);

b) f(x, y) = e−x2

arctany, x[1,);

c) f(x, y) = 2y(1 +y2)−1(1 +e−|x|), x(−∞,).

3. Encontrar, usando las normas k · k1, k · k2 y k · k∞, una constante de

Lipschitz con respecto a y = (y1, y2)T para la funci´on f : R×R2 7→ R2

dada por

f(x, y) = (x+ seny2,x

2

2 + cosy

1)T.

4. Consideramos el problema de valor inicial

y0(x) =Ay(x) para 0x2, y(0) =η, donde A = Ã −100 1 0 101 ! . (1.8)

Encontrar una constante de Lipschitz para la funci´on del lado derecho usando las normas k · k1, k · k2 y k · k∞.

5. La funci´on f satisface una condici´on de Lipschitz unilateral en D = [a, b]×Rd con constante de Lipschitz unilateral l si

< f(x, y)f(x,yˆ), yy >ˆ lkyk22 (x, y),(x,yˆ)D.

(a) Si l <0 se dice que el PVI es disipativo. Demostrar que el PVI del ejercicio anterior es disipativo.

(8)

(b) Demostrar que si f satisface una condici´on de Lipschitz unilateral con constante l y las funciones y e ˆy son soluciones de y0(x) =

f(x, y(x)) en [a, b], entonces

ky(x)yˆ(x)k2 ≤exp(l(x−a))ky(a)−yˆ(a)k2 sia ≤x≤b.

1.2.

etodos num´

ericos

Aunque el problema (1.2) tenga soluci´on, en la mayor parte de los casos no es posible encontrar una forma cerrada para la misma por m´etodos anal´ıticos. Ejemplo. Consideramos el PVI

y0(x) = e−y2(x)+ 1

1 +x2, y(0) = 0.

Usando el teorema del valor medio se tiene que

|f(x, y)f(x,yˆ)|=|e−y2 e−yˆ2|=| −2ξe−ξ2||y| ≤L|y|,

pero no sabemos encontrar una f´ormula para la soluci´on.

En casos como este habr´a que contentarse con obtener una aproximaci´on num´erica de la soluci´on. La prueba del teorema de Picard sugiere una manera de construir una. En efecto, las funcionesyn obtenidas mediante la relaci´on de

recurrencia (1.7) aproximan a la soluci´on.

Ejemplo. Si aplicamos el m´etodo de Picard al problema lineal escalar

y0 =y, y(0) = 1, obtenemos la recurrencia y0(x) = 1, yn(x) = 1 + Z x 0 yn−1(s)ds, n= 1,2, . . . , cuya soluci´on es yn(x) = n X k=0 xk k!,

(9)

es decir, los polinomios de Taylor de la exponencial en x= 0.

Pero, ¡cuidado!, este ejemplo es muy especial. En general ser´a dif´ıcil, o incluso imposible, evaluar las integrales involucradas en forma cerrada. As´ı que buscamos una idea distinta, ladiscretizaci´on.

Sustituimos el intervalo continuo [a, b] por el conjunto discreto de puntos {xn}Nn=0 definido por

xn =a+nh, n= 0,1,2, . . . , N, h= (b−a)/N,

al que llamaremosmalla. El par´ametrohes lalongitud del paso. Para facilitar la exposici´on, lo consideraremos constante, aunque conviene mencionar que gran parte de la potencia de los algoritmos modernos proviene de su capacidad para cambiarh autom´aticamente a medida que se realizan los c´alculos.

Nuestro objetivo es encontrar una forma de producir una sucesi´on de valores {yn}Nn=0 que aproxime a la soluci´on y de (1.2) en los puntos {xn}Nn=0,

yn ≈y(xn).

Los valoresyn se pueden interpolar para obtener una aproximaci´on dey(x) en

puntos xque no pertenezcan a la malla.

Un m´etodo num´erico para la integraci´on1 de (1.2) ser´a un procedimiento

para producir la sucesi´on de valores aproximados{yn}.

Problemas

1. Utilizar los iterantes de Picard para construir una aproximaci´on num´erica de la soluci´on del problema de valor inicial

y00+y= 0, 0x2π, y(0) = 0, y0(0) = 1.

2. Si f Cp([a, b]×Rd), podemos encontrar una soluci´on aproximada

uti-lizando la f´ormula de Taylor de orden p alrededor de x = a, y(x)

1Hist´oricamente se ha reservado el t´ermino integraci´on para la resoluci´on num´erica de

(10)

p

P

j=0

y(j)(a)(xa)j. Los valores de las derivadas y(j)(a) se pueden

calcu-lar derivando la EDO y usando la condici´on inicial. Utilizar este proce-dimiento para aproximar la soluci´on del problema

y0(x) =y2(x), 0x1, y(0) = 1,

y estimar el error cometido.

1.3.

Primeros ejemplos

Nuestro primer objetivo es ver, a trav´es de algunos ejemplos significativos, formas razonables de construir m´etodos num´ericos. Estos ejemplos nos servir´an tambi´en para ir introduciendo algunas ideas b´asicas. A lo largo de la secci´on supondremos quefes tan regular como sea necesario para justificar los c´alculos que se hagan.

•M´etodo de Euler. Nuestro primer m´etodo, padre de alguna manera de todos los dem´as que vamos a estudiar, es elm´etodo de Euler,

yn+1 =yn+hf(xn, yn), n = 0, . . . , N −1. (1.9)

Vamos a llegar a ´el desde tres puntos de vista diferentes.

Serie de Taylor. Desarrollamos la soluci´on alrededor de xn y usamos la

ecuaci´on diferencial para obtener

y(xn+1) = y(xn) +hy0(xn) + h2 2 y 00(ξ n) = y(xn) +hf(xn, y(xn)) + h2 2 y 00(ξ n). (1.10)

La notaci´on ξn indica que el punto intermedio ξn [xn, xn+1] puede

variar de componente a componente.

As´ı pues, la soluci´on teorica resuelve la recurrencia

(11)

con Rn = h 2

2 y

00(ξ

n). Esta ´ultima cantidad es desconocida, lo que impide

resolver la recurrencia. No obstante, sabemos que Rn es peque˜na si h es

peque˜na. Si la recurrencia (1.9) es estable ante peque˜nas perturbaciones, esperamos que {y(xn)} se parezca a la soluci´on {yn} de la recurrencia

sin perturbar(1.9). La cantidad Rn, que es lo que le sobra a la soluci´on

te´orica para ser soluci´on de la ecuaci´on del m´etodo num´erico, recibe el nombre de residuo.

Geom´etricamente (en el caso d = 1), al despreciar el residuo lo que estamos haciendo es aproximar a la soluci´on por su tangente.

Cuadratura num´erica. Integramos la EDO en (xn, xn+1), y obtenemos

y(xn+1) =y(xn) +

Z xn+1 xn

f(x, y(x))dx. (1.12)

Para calcular la integral utilizamos la f´ormula de cuadratura num´erica

Z c+h c

g hg(c),

llamado regla rectangular izquierda, y llegamos de nuevo a (1.11). Diferenciaci´on num´erica. De la definici´on de derivada,

y(xn+1)−y(xn)

h ≈y

0(x

n) =f(xn, y(xn)),

de donde, despejando, obtenemos una vez m´as (1.11).

Para generar una soluci´on num´erica de (1.2) usando (1.9) necesitamos un valor de arranque y0. Uno desear´ıa tomar y0 = y(x0), pero en general esto

no es posible, debido a la precisi´on finita del ordenador. As´ı pues, habr´a que contentarse con tomar una aproximaci´ony0 ≈y(x0).

• M´etodo de Taylor de orden 2. Se pueden obtener m´etodos m´as precisos, tomando m´as t´erminos en la f´ormula de Taylor. Esto da lugar a los llamados m´etodos de Taylor. Como ejemplo construimos el m´etodo de Taylor de orden 2, en el caso d= 1.

(12)

El desarrollo de Taylor produce y(xn+1) =y(xn) +hy0(xn) + h2 2 y 00(x n) + h3 3!y 000(ξ n). Para calculary0(x

n) e y00(xn) usamos la ecuaci´on diferencial,

y0(x) = f(x, y(x)), y00(x) =f x(x, y(x)) +fy(x, y(x))y0(x) = fx(x, y(x)) +fy(x, y(x))f(x, y(x)). Si despreciamos el residuo,Rn= h 3 3!y000(ξn), obtenemos el m´etodo yn+1 =yn+hf(xn, yn) + h2 2 (fx(xn, yn) +fy(xn, yn)f(xn, yn)).

Puesto que en este caso el residuo es m´as peque˜no que para el m´etodo de Euler (sihes peque˜no), esperamos que la aproximaci´on sea mejor. A cambio hay que hacer tres evaluaciones de funci´on por paso, mientras que con el m´etodo de Euler s´olo hay que hacer una.

Por el mismo procedimiento podemos generar m´etodos de Taylor del orden que queramos. El inconveniente es que involucran cada vez m´as derivadas, que hay que calcular y evaluar.

•Regla del trapecio. Si calculamos la integral de (1.12) por medio de la regla del trapecio (que es m´as precisa que la regla rectangular izquierda), se tiene que

y(xn+1)−y(xn) =

f(xn, y(xn)) +f(xn+1, y(xn+1))

2 +Rn.

Despreciando el residuo Rn, se llega a la llamadaregla del trapecio,

yn+1 =yn+ h 2 ¡ f(xn, yn) +f(xn+1, yn+1) ¢ . (1.13)

El m´etodo de Euler es expl´ıcito; el valor yn+1 viene dado expl´ıcitamente

en t´erminos del valor anterioryn y se puede calcular f´acilmente mediante una

evaluaci´on de f y unas pocas operaciones aritm´eticas. Por el contrario, la regla del trapecio es un m´etodo impl´ıcito; para calcular yn+1 hay que resolver

(13)

un sistema de ecuaciones no lineales, lo que en general es computacionalmente costoso. La primera posibilidad para resolver el sistema es iterar la funci´on

G(y) = yn+

h

2(f(xn, yn) +f(xn+1, y)) para obtener un punto fijo. La funci´on de iteraci´on satisface

kG(y)G(ˆy)k= h

2kf(xn+1, y)−f(xn+1,yˆ)k ≤

Lh

2 ky−yˆk.

Para que la iteraci´on converja se necesita que Lh/2 < 1. Si L À 1, esto obliga a dar pasos de longitudh muy peque˜na. Para evitarlo lo que se hace es determinaryn+1 como un cero de la funci´on

F(y) =y− {yn+

h

2(f(xn, yn) +f(xn+1, y))} mediante el m´etodo de Newton.

• Euler mejorado. Para evitar el coste computacional derivado del car´acter impl´ıcito de la regla del trapecio, podemos sustituir el valor yn+1 en el lado

derecho de (1.13) por una aproximaci´on de ese valor dada por el m´etodo de Euler, y∗ n+1 =yn+hf(xn, yn), de manera que yn+1 =yn+ h 2 ¡ f(xn, yn) +f(xn+1, yn∗+1) ¢ .

El m´etodo resultante, que es expl´ıcito, se conoce como m´etodo de Euler me-jorado. Requiere dos evaluaciones de funci´on por paso, lo que queda a´un m´as claro si lo escribimos de la siguiente forma:

k1 =f(xn, yn), k2 =f(xn+h, yn+hk1), yn+1 =yn+h µ k1 2 + k2 2 ¶ .

• Euler modificado. Si calculamos la integral de (1.12) por medio de la regla del punto medio, se tiene que

y(xn+1)−y(xn)≈hf µ xn+ h 2, y µ xn+ h 2 ¶¶ .

(14)

Como no conocemos el valory(xn+h2), lo aproximamos por el m´etodo de Euler. Llegamos finalmente a y(xn+1)≈y(xn) +hf µ xn+ h 2, y(xn) + h 2f(xn, y(xn)) ¶ .

El m´etodo de Euler modificado se obtiene imponiendo que esta relaci´on se satisfaga de forma exacta,

yn+1 =yn+hf µ xn+ h 2, yn+ h 2f(xn, yn) ¶ .

Este m´etodo se suele escribir bajo la forma alternativa

k1 =f(xn, yn), k2 =f µ xn+ h 2, yn+h k1 2 ¶ , yn+1 =yn+hk2.

•M´etodo leap-frog (regla del punto medio). Si integramos la EDO en (xn, xn+2)

y usamos la regla del punto medio, se tiene que

y(xn+2)−y(xn) =

Z xn+2 xn

f(x, y(x))dx2hf(xn+1, y(xn+1)),

lo que da lugar al m´etodo leap-frog, tambi´en conocido como regla del punto medio,

yn+2 =yn+ 2hf(xn+1, yn+1), (1.14)

Como vemos, para calcular yn+2 se utilizan dos valores anteriores, yn e yn+1,

y no uno s´olo, como en los m´etodos vistos hasta ahora. Diremos que es un m´etodo de dos pasos. Necesitaremos por tanto dos valores de arranque, y0 e

y1. Para y0 tomamos un valor pr´oximo al dato inicial, y0 ≈ y(0). El valor de

y1 se tendr´a que obtener por otro procedimiento, por ejemplo por el m´etodo

de Euler.

Tambi´en se puede llegar al m´etodo leap-frog a trav´es de la diferenciaci´on num´erica. En efecto, si en lugar de usar la f´ormula de orden uno

y0(x) y(x+h)−y(x)

(15)

como hicimos para obtener el m´etodo de Euler, usamos la f´ormula de diferen-cias centradas

y0(x) y(x+h)−y(x−h)

2h ,

que es una aproximaci´on de orden 2, se tiene que

f(xn+1, y(xn+1)) = y0(xn+1)≈

y(xn+2)−y(xn)

2h ,

lo que da lugar al m´etodo (1.14).

•Regla de Simpson. Si integramos la EDO en (xn, xn+2) y usamos la regla de

Simpson obtenemos que

y(xn+2)−y(xn)≈

h

3(f(xn, y(xn)) + 4f(xn+1, y(xn+1)) +f(xn+2, y(xn+2))). Esta aproximaci´on conduce al m´etodo num´erico,

yn+2−yn =

h

3(f(xn, yn) + 4f(xn+1, yn+1) +f(xn+2, yn+2)), conocido comoregla de Simpson, que tambi´en es un m´etodo de dos pasos. •M´etodo de colocaci´on de par´ametro c1 = 1/2. Buscamos un polinomio u de

grado 1 tal que

u(xn) = yn, u0(xn+c1h) =f(xn+c1h, u(xn+c1h));

es decir, pedimos que u tome un cierto dato inicial y que sea soluci´on de la EDO en el punto de colocaci´on x = xn +c1h. Puesto que u0 es constante,

tenemos que u0(x) = k

1 ≡ f(xn+c1h, u(xn+c1h)), que integrado en (xn, x)

produce

u(x) = yn+k1(x−xn).

Si definimos yn+1 =u(xn+1), se tiene que yn+1 = yn+hk1, siendo k1 soluci´on

de k1 =f µ xn+ h 2, yn+h k1 2 ¶ .

(16)

• Adams-Bashforth de dos pasos. Si integramos la EDO en (xn+1, xn+2), se tiene que y(xn+2)−y(xn+1) = Z xn+2 xn+1 f(x, y(x))dx. (1.15) Aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que uno que interpola a f(x, y(x)) en los nodos xn y xn+1,

f(x, y(x))f(xn, y(xn)) xxn+1 xn−xn+1 +f(xn+1, y(xn+1)) xxn xn+1−xn , de forma que y(xn+2)−y(xn+1)≈ h 2(3f(xn+1, y(xn+1))−f(xn, y(xn))). Llegamos al m´etodo yn+2−yn+1 = h 2(3f(xn+1, yn+1)−f(xn, yn)), conocido comom´etodo de Adams-Bashforth de dos pasos.

• Adams-Moulton de dos pasos. Si sustituimos el integrando en (1.15) por el polinomio de grado menor o igual que dos que interpola a f(x, y(x)) en los nodos xn, xn+1 y xn+2, f(x, y(x))f(xn, y(xn)) (xxn+1)(x−xn+2) (xn−xn+1)(xn−xn+2) +f(xn+1, y(xn+1)) (xxn)(x−xn+2) (xn+1−xn)(xn+1−xn+2) +f(xn+2, y(xn+2)) (xxn)(x−xn+1) (xn+2−xn)(xn+2−xn+1) , llegamos a y(xn+2)−y(xn+1)≈ h 12(5f(xn+2, y(xn+2)) + 8f(xn+1, y(xn+1))−f(xn, y(xn))), y finalmente al m´etodo yn+2−yn+1 = h 12(5f(xn+2, yn+2) + 8f(xn+1, yn+1)−f(xn, yn)), (1.16)

(17)

conocido comom´etodo de Adams-Moulton de dos pasos.

•Predictor-corrector AB2/AM2. Podemos combinar los dos m´etodos anterio-res para obtener un nuevo m´etodo: en primer lugar predecimos un valor de

yn+2 mediante el m´etodo de Adams-Bashforth de dos pasos y a continuaci´on

locorregimos usando esta cantidad para calcular el lado derecho de (1.16),

y∗

n+2 =yn+1+h2(3f(xn+1, yn+1)−f(xn, yn)),

yn+2 =yn+1+12h(5f(xn+2, y∗n+2) + 8f(xn+1, yn+1)−f(xn, yn)).

El m´etodo resultante, expl´ıcito y de dos pasos, es un par predictor-corrector. El m´etodo de Euler mejorado tambi´en se puede ver como un par predictor-corrector.

•BDF de 2 pasos. Dadasyn e yn+1 queremos obtener yn+2. Consideramos el

polinomioQn,2 de grado menor o igual que 2 que interpola a yn, yn+1 e yn+2,

es decir Qn,2(x) = yn (xxn+1)(x−xn+2) (xn−xn+1)(xn−xn+2) +yn+1 (xxn)(x−xn+2) (xn+1−xn)(xn+1−xn+2) +yn+2 (xxn)(x−xn+1) (xn+2−xn)(xn+2−xn+1) .

Este polinomio no se puede construir, porque desconocemos yn+2. Se impone

ahora queQn,2 satisfaga la ecuaci´on diferencial en xn+2, esto es

Q0n,2(xn+2) =f(xn+2, Qn,2(xn+2)) =f(xn+2, yn+2). El m´etodo resultante, yn+2− 4 3yn+1+ 1 3yn = 2 3hf(xn+2, yn+2),

impl´ıcito y de dos pasos, se conoce como f´ormula BDF de 2 pasos.

Problemas

1. Construir el m´etodo de Taylor de orden 3 para d = 1 y el de orden 2 para d= 2.

(18)

2. Comprobar que el m´etodo de Taylor de orden 3 aplicado al problema y0 = 2xy, y(0) = 1, lleva a la iteraci´on yn+1 =yn+h ¡ 2xnyn+yn(1 + 2x2n)h+ 2xnyn(3 + 2x2n) h2 3 ¢ .

3. Si integramos la EDO en (xn, xn+1) y aplicamos la regla de Simpson,

obtenemos que y(xn+1)−y(xn)≈ h 6(f(xn, y(xn))+4f(xn+12, y(xn+12)+f(xn+1, y(xn+1))), dondexn+1 2 =xn+ h

2. Como no conocemos el valor dey(xn+1

2),

aproxima-mos esta cantidad por Euler,y(xn+1

2)≈y(xn) + h

2f(xn, y(xn)). Tampoco

conocemos el valor de y(xn+1). Para estimarlo podemos avanzar a partir

de xn utilizando una media ponderada de las dos pendientes

calcula-das hasta ahora, k1 =f(xn, y(xn)), k2 =f(xn+1

2, y(xn) + h

2k1); es decir,

tomamos y(xn+1)≈y(xn) +h(αk1+βk2). Llegamos as´ı al m´etodo

           k1 =f(xn, yn), k2 =f(xn+ 2h, yn+h2k1), k3 =f(xn+h, yn+h(αk1+βk2)) yn+1 =yn+h6(k1+ 4k2+k3).

Determinar α y β para que Rn=O(h4). El m´etodo resultante se conoce

como m´etodo de Runge-Kutta cl´asico. 4. Consideramos la igualdad

y(xn+k)−y(xn+k−1) =

Z xn+k

xn+k−1

f(t, y(t))dt.

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k1 que interpola a f(t, y(t)) en los nodos

xn, . . . , xn+k−1, y pedimos que la aproximaci´on yn satisfaga la relaci´on

resultante exactamente, se obtiene el m´etodo de Adams-Bashforth de k

(19)

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k que interpola a f(t, y(t)) en los nodos

xn, . . . , xn+k, y pedimos que la aproximaci´on yn satisfaga la relaci´on

re-sultante exactamente, se obtiene el m´etodo de Adams-Moulton de k pa-sos.

Construir los m´etodos de Adams-Bashforth y Adams-Moulton de 1 y 3 pasos, obteniendo una expresi´on para el residuo a partir del error de interpolaci´on. 5. Consideramos la igualdad y(xn+k)−y(xn+k−2) = Z xn+k xn+k−2 f(t, y(t))dt.

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k1 que interpola a f(t, y(t)) en los nodos

xn, . . . , xn+k−1, y pedimos que la aproximaci´on yn satisfaga la relaci´on

resultante exactamente, se obtiene el m´etodo de Nystrom de k pasos. Obtener los m´etodos de Nystrom de 2 y 3 pasos.

6. Obtener una aproximaci´on de orden 4 de la derivaday0(x) a partir de los

valores y(x+ 2h), y(x+h), y(x), y(xh) e y(x2h). Utilizarla para construir un m´etodo de cuatro pasos para resolver problemas de valor inicial para EDOs. Obtener una expresi´on para el residuo.

7. Dadas las aproximacionesyn, . . . , yn+k−1, consideramos el polinomioQn,k

de grado menor o igual que k que interpola a yn, . . . , yn+k.

Obviamen-te esObviamen-te polinomio no se puede construir, porque desconocemos yn+k. Se

impone ahora que Qn,k satisfaga la ecuaci´on diferencial en xn+k, esto es

Q0n,k(xn+k) =f(xn+k, Qn,k(xn+k)) =f(xn+k, yn+k).

El m´etodo resultante se conoce comof´ormula BDF de k pasos. Construir las f´ormulas BDF de 1 y 3 pasos.

8. Dados ν par´ametros, c1, . . . , cν (preferiblemente en [0,1], aunque no es

(20)

vectoriales) tal que

u(xn) =yn, u0(xn+cjh) = f(xn+cjh, u(xn+cjh)), j = 1, . . . , ν.

En otras palabras, u satisface la condici´on inicial y tambi´en la EDO en ν puntos distintos. Un m´etodo de colocaci´on consiste en calcular u y tomar yn+1 = u(xn+1). Los par´ametros c1, . . . , cν son los par´ametros de

colocaci´on.

Obtener el m´etodo de colocaci´on que corresponde a los par´ametros de colocaci´on c1 = 1/3,c2 = 2/3.

1.4.

Convergencia

Todos los m´etodos de la secci´on anterior se pueden escribir en la forma

k

X

j=0

αjyn+j =hφf(xn, yn, . . . , yn+k−1;h), n= 0, . . . , N −k, (1.17)

dondeφf, lafunci´on de incremento, depende de sus argumentos a trav´es de la

funci´onf (y a veces, como en los m´etodos de Taylor, tambi´en de sus derivadas). Ejemplos. Para el m´etodo de Eulerφf(xn, yn;h) = f(xn, yn). Para la regla del

trapecioφf viene definida impl´ıcitamente por

φf(xn, yn;h) =

f(xn, yn) +f(xn+h, yn+hφf(xn, yn;h))

2 . (1.18)

Si la funci´on de incrementoφf se puede expresar expl´ıcitamente en t´erminos

def (y tal vez de sus derivadas), el m´etodo es expl´ıcito. En caso contrario, el m´etodo esimpl´ıcito.

El m´etodo (1.17) se dice dek pasos, pues se necesitank valores anteriores,

yn, . . . , yn+k−1, para calcular yn+k. Por consiguiente, es necesario disponer de

(21)

s´olo proporciona y0. Si k ≥ 2 habr´a que obtener los k −1 valores de

arran-que restantes por alg´un otro procedimiento, como puede ser por desarrollo de Taylor, utilizando un m´etodo de un s´olo paso, etc.

Supondremos que αk = 1, eliminando as´ı la arbitrariedad que surge del

hecho de que podemos multiplicar ambos lados de (1.17) por un mismo n´umero distinto de cero sin cambiar el m´etodo. Supondremos tambi´en que, o bien

α0 6= 0, o bien φf depende de yn de forma no trivial. Excluimos as´ı m´etodos

como por ejemplo

yn+2−yn+1 =hf(xn+1, yn+1),

que es esencialmente de 1 paso, y no de 2, y que se puede escribir como

yn+1−yn=hf(xn, yn).

Para todos los ejemplos de la secci´on anterior φf satisface las siguientes

propiedades: (i) es continua; (ii) existen constantes h0 y L tales que

kφf(xn, yn, . . . , yn+k−1;h)−φf(xn,yˆn, . . . ,yˆn+k−1;h)k ≤L k−1 X j=0 kyn+j −yˆn+jk (1.19) para todo 0< h < h0; y (iii) sif = 0, entoncesφf = 0. En lo que sigue, siempre

que consideremos un m´etodo de la forma (1.17) supondremos que verifica estas tres condiciones.

¿Dan los m´etodos (1.17) una buena aproximaci´on a la verdadera soluci´on del problema (1.2)? Una medida posible de la bondad de la aproximaci´on es el mayor error cometido,

m´ax

0≤n≤Nky(xn)−ynk.

¿Se hace el error cada vez m´as peque˜no a medida que la malla va teniendo m´as puntos? Si esto es as´ı diremos que el m´etodo es convergente.

Definici´on 1.4. Un m´etodo (1.17) se dice convergente si para todo problema de valor inicial(1.2)conf continua enD= [a, b]×Rd y Lipschitz con respecto

(22)

a su segunda variable en D se tiene que l´ım

N→∞km´ax≤n≤Nky(xn)−ynk= 0 si Nl´ım→∞0≤m´axn≤k−1ky(xn)−ynk= 0.

Observaci´on. La condici´on l´ım

N→∞0≤m´axn≤k−1ky(xn)−ynk = 0 sobre los valores

de arranque es equivalente a pedir que l´ım

h→0+yn=y(x0) para n= 0, . . . , k−1.

Estamos pidiendo que los valores de arranque,{yn}kn−=01, aproximen bien al dato

inicialy(x0); si esto no es as´ı no hay por qu´e esperar que la soluci´on num´erica

se parezca a la te´orica.

Problemas

1. Para cada uno de los m´etodos de la secci´on 1.3, demostrar que si f es continua en D y Lipschitz con respecto a su segunda variable en D, entonces la correspondiente funci´on de incremento satisface la condici´on de Lipschitz (1.19). En el caso del m´etodo de Taylor de orden 2 se supone adem´as que todas las derivadas parciales de orden 2 de f existen y est´an acotadas en D.

2. Sea y la soluci´on del problema (1.2) y sea yI la funci´on continua lineal

a trozos que pasa por los puntos (xn, yn), n = 0, . . . , N, donde {yn} es

una soluci´on num´erica del problema. Una medida alternativa del error cometido viene dada por m´ax

a≤x≤bky(x)−y I(x)k

∞. Hallar una cota para

esta cantidad en t´erminos de m´ax

0≤n≤Nky(xn)−ynky de h, suponiendo que

f C1([a, b]×Rd).

1.5.

0-estabilidad

Salvo en casos excepcionales, la verdadera soluci´on no satisface la recurren-cia (1.17) que define el m´etodo num´erico, sino la recurrenrecurren-cia m´as una peque˜na perturbaci´on,

k

X

j=0

(23)

La cantidad Rn, el residuo, es lo que le falta a la soluci´on te´orica para ser

soluci´on del m´etodo num´erico.

Por cierto, la soluci´on producida por el ordenador tampoco es soluci´on de la ecuaci´on del m´etodo, pues los errores de redondeo introducen peque˜nas per-turbaciones. Por otra parte, φf(xn,yˆn, . . . ,yˆn+k−1;h) en general no se calcula

exactamente, sino s´olo de forma aproximada. As´ı que en realidad el ordenador produce una soluci´on {yˆn} de una recurrencia perturbada

k P j=0 αjyˆn+j =h ¡ φf(xn,yˆn, . . . ,yˆn+k−1;h) +εn ¢ +µn, n = 0, . . . , N −k, ˆ yn=yn+µn, n = 0, . . . , k−1,

dondeεn es el error cometido en el c´alculo de φf(xn,yˆn, . . . ,yˆn+k−1;h) yµn es

el error de redondeo.

Para que el m´etodo sirva para algo, necesitamos quey(xn) e ˆyn

permanez-can pr´oximas si las perturbacionesRnyµnson peque˜nas. Esto es, nos gustar´ıa

que el m´etodo num´erico fuese estable. Esto motiva la siguiente definici´on.

Definici´on 1.5. Un m´etodo (1.17) se dice 0-estable si para cada problema de valor inicial (1.2) con f continua en D y Lipschitz con respecto a su segunda variable en D existe una constante C > 0 tal que para cada dos sucesiones {un}Nn=0 y {vn}Nn=0 satisfaciendo k P j=0 αjun+j −hφf(xn, un, . . . , un+k−1;h) =hδn, k P j=0 αjvn+j−hφf(xn, vn, . . . , vn+k−1;h) =hγn, 0n N k, se verifica que m´ax k≤n≤Nkun−vnk ≤C µ m´ax 0≤n≤k−1kun−vnk+0≤m´axn≤N−kkδn−γnk ¶ . (1.21)

(24)

sean {un}Nn=0 y {vn}Nn=0 satisfaciendo

un+1 =un+hφf(xn, un;h) +hδn,

vn+1 =vn+hφf(xn, vn;h) +hγn,

n= 0, . . . N 1. (1.22)

Restando ambas ecuaciones, tomando normas y usando la condici´on de Lips-chitz (1.19), se tiene que en=kun−uˆnk verifica

en+1 ≤ en+hkφf(xn, un;h)−φ(xn, vn;h)k+hkδn−γnk

≤ (1 +Lh)en+hkδn−γnk.

A partir de aqu´ı se demuestra f´acilmente por inducci´on que kun−vnk ≤eL(xn−x0)ku0−v0k+eL(xn−x0)(xn−x0) m´ax

0≤n≤N−1kδn−γnk, (1.23)

de donde se sigue inmediatamente que el m´etodo es 0-estable.

Como corolario de la definici´on de 0-estabilidad se tiene el siguiente resul-tado de convergencia.

Corolario 1.6. Si un m´etodo (1.17) es 0-estable y

τ := m´ax

0≤n≤N−kkRnk/h→0 cuando h→0

+,

entonces el m´etodo converge.

Prueba. Basta con tomar un = y(xn), δn = Rn/h, vn = yn y γn = 0 en la

definici´on de 0-estabilidad.

Apliquemos el corolario al m´etodo de Euler. Es 0-estable, pues es de un paso con α0 =−1. Por otra parte,

Rn/h=

y(xn+1)−y(xn)

h −f(xn, y(xn)) =y

0(ξ

n)−y0(xn).

usando la continuidad uniforme dey0(x) en [a, b] se concluye queτ 0, y por

tanto la convergencia. La convergencia de la regla del trapecio se obtiene de forma similar.

(25)

Si f es m´as regular se tiene algo mejor. Por ejemplo, si f C1, R

n =

y00(ξ

n)h2/2 y, utilizando (1.23), se llega a la cota para el error

ky(xn)−ynk ≤eL(b−a)ky(x0)−y0k+eL(b−a)(b−a)Ch, (1.24)

donde C = 12m´axx∈[a,b]ky00(x)k y L > 0 es una constante de Lipschitz para f

con respecto a su segunda variable.

An´alogamente, sif C2, para la regla del trapecio tenemos que

Rn = y(xn+1)− {y(xn) + h2[f(xn, y(xn)) +f(xn+1, y(xn+1))]} = y(xn) +hy0(xn) + h 2 2 y 00(x n) + h 3 3!y 000(ξ n) −{y(xn) + h2[y0(xn) +y0(xn) +hy00(xn) + h 2 2 y 000(η n)]} = ³y000(ξn) 3! − y000(η n) 4 ´ h3,

de donde se deduce que

ky(xn)−ynk ≤eL(b−a)ky(x0)−y0k+eL(b−a)(b−a)Ch2, (1.25)

donde L >0 es una constante de Lipschitz para f con respecto a su segunda variable y

C = 5

12xm´ax∈[a,b]ky

000(x)

k.

La constantes que aparecen en las cotas anteriores se pueden estimar utili-zando la ecuaci´on diferencial.

Ejemplo. Sea y la soluci´on de y0 = sen (exp(y)) en [0,1], y(0) = 0. Queremos

estimary00 sin conocer y. Para ello derivamos la EDO,

y00= cos(exp(y)) exp(y)y0 = cos(exp(y)) exp(y) sen (exp(y)).

Para acotar el factor exponencial tenemos que tener una idea del tama˜no de

y. Dado que |y0| ≤1 tenemos que |y| ≤x1. Concluimos que |y00| ≤e.

La cotas (1.24) y (1.25) en general sobreestiman el error en muchos ´ordenes de magnitud, y no se deben por tanto utilizar en la pr´actica. Sin embargo

(26)

dan una informaci´on importante: el error del m´etodo de Euler es una O(h), siempre y cuandoky(x0)−y0k=O(h) y el de la regla del trapecio una O(h2),

siky(x0)−y0k=O(h2). Eso motiva la siguiente definici´on.

Definici´on 1.7. El m´etodo num´erico (1.17) es convergente de orden p si este es el mayor entero tal que para todo problema(1.2) conf Cp(D) y Lipschitz

con respecto a su segunda variable en D se tiene que m´ax k≤n≤Nky(xn)−ynk=O(h p) si m´ax 0≤n≤k−1ky(xn)−ynk=O(h p) cuando h0+.

Con esta definici´on, el m´etodo de Euler es convergente de orden al menos uno y la regla del trapecio de orden al menos de orden 2. Para ver que el m´etodo de Euler no es convergente de orden 2 lo aplicamos al problema

y0(x) =x para x[0, b], y(0) = 0,

cuya soluci´on exacta es y(x) = x2/2. Si tomamos valor de arranque y 0 = 0 tenemos que y1 = y0+hx0 = 0, y2 = y1+hx1 =h2, y3 = y2+hx2 =h2(1 + 2) ... yn = h2(1 +· · ·+ (n−1)). Es decir, yn= x2 n 2 − xnh 2 , y por tanto m´ax 1≤n≤Nky(xn)−ynk= m´ax1≤n≤Nkxnh/2k=bh/2.

Cuando h 0 el error tiende a cero, pero lo hace como h y no como h2. De

forma parecida se prueba que la regla del trapecio no tiene orden de conver-gencia 3.

(27)

La regla del trapecio tiene un orden de convergencia mayor que el m´etodo de Euler. Pero, ¡cuidado!, el orden no lo es todo. Aunque en un m´etodo de orden alto en principio hay que dar menos pasos, ´estos pueden ser muy costosos; puede ser preferible un m´etodo de orden m´as bajo, en el que, a pesar de dar m´as pasos, cada uno de ellos lleve menos trabajo computacional.

Que un m´etodo sea de orden p significa que para todos los problemas ra-zonables el error que se comete con el m´etodo es de ese orden. Pero puede suceder que para alg´un problema concreto el m´etodo sea mejor.

Ejemplo. Consideramos el problema

y0(x) = 1, y(0) = 0,

cuya soluci´on exacta esy(x) = x. Aplicando Euler con valor de arranquey0 = 0

tenemos yn+1 =yn+h, y por tanto yn =nh= xn. Euler nos da por tanto la

soluci´on para este problema sin ning´un error.

Problemas

1. Consideramos un m´etodo de un s´olo paso con|α0|>1. Demostrar que no

es 0-estable. Indicaci´on: Aplicarselo a un problema conf = 0 y valores de arranque y0 = 0 e ˆy0 =h.

2. Suponiendo s´olo que f es continua en D y Lipschitz con respecto a su segunda variable en D, demostrar que l´ım

h→0+τ = 0 para la regla del

tra-pecio.

3. Consideramos la ecuaci´on escalary0 = arctan y. Encontrar una cota para

y00 e y000 en el intervalo [0,1] sin hallar y expl´ıcitamente.

4. Consideramos el problema de valor inicialy0(x) =x(seny(x))2,x[0,1],

y(0) = 1. Si se resuelve por el m´etodo de Euler, ¿qu´e valor dehhabr´a que tomar para garantizar un error menor que 10−3? ¿Y si se usa la regla del

trapecio?

(28)

6. Construir todos los m´etodos convergentes de orden 2 de la forma

yn+1 =yn+hf(xn+αh, yn+αhf(xn+βh, yn+βhf(xn, yn))).

Comprobar que ninguno tiene orden de convergencia 3. ¿Tiene alguno orden de convergencia 3 para el problema y0 =y en [0, b], y(0) = 1?

7. Calcular la soluci´on te´orica del problema de valor inicial

y0(x) = m´ın(y(x),2), 0x2, y(0) = 1,

y aproximarla mediante el m´etodo de Euler. Comprobar que la soluci´on num´erica converge a la te´orica. ¿Es la convergencia de orden 1?

8. Consideramos un m´etodo de un paso con α0 = −1. Sean {un}Nn=0 y

{vn}Nn=0 satisfaciendo (1.22) Demostrar que existe una constante C > 0

tal que m´ax 0≤n≤Nkun−vnk ≥C0≤m´axn≤N−1k NX−1 j=0 (δj −γj)k.

Concluir de lo anterior que si existe un problema de valor inicial tal que

Rn = Chp+1, entonces el m´etodo no puede tener orden de

convergen-cia mayor que p. Como aplicaci´on, demostrar que el m´etodo de Euler modificado no es convergente de orden 3.

9. Supongamos que los errores de evaluaci´on de φf est´an acotados por ε y

los de redondeo por µ. Si el m´etodo es 0-estable, dar una cota para el error m´ax

k≤n≤Nky(xn)−yˆnky obtener el valor dehque minimiza dicha cota.

1.6.

Consistencia

La 0-estabilidad garantiza que si l´ım

h→0+τ = 0, el m´etodo converge. Esto

motiva la siguiente definici´on.

Definici´on 1.8. Un m´etodo de la forma (1.17) es consistente si para todo problema (1.2) con f continua en D y f Lipschitz con respecto a su segunda

(29)

variable enD se tiene que

l´ım

h→0+τ = 0.

¿Qu´e tiene que satisfacer un m´etodo para ser consistente? El siguiente resultado da una caracterizaci´on completa.

Teorema 1.9. Un m´etodo (1.17) es consistente si y s´olo si

k X j=0 αj = 0 (1.26) y adem´as φf(x, y(x), . . . , y(x); 0) = Ã k X j=0 jαj ! f(x, y(x)). (1.27)

Prueba. Aplicamos el m´etodo (1.17) al problema

y0(x) = 0, y(0) = 1,

cuya soluci´on esy(x) = 1. Puesto que f = 0, entonces φf = 0, y se tiene que

l´ım h→0+ Rn h = k X j=0 αj = 0

si el m´etodo es consistente, es decir, (1.26).

Consideramos ahora el problema general (1.2) y lo integramos num´erica-mente en el intervalo [a, x], conx(a, b]. Si se cumple (1.26), entonces

Rn h = 1 h k X j=0 αjy(xn+j)−φf(xn, y(xn), . . . , y(xn+k−1);h) = 1 h k X j=0 αj¡y(xn) +jhy0(ξn,j) ¢ −φf(xn, y(xn), . . . , y(xn+k−1);h) = k X j=0 jαjy0(ξn,j)−φf(xn, y(xn), . . . , y(xn+k−1);h) = k X j=0 jαjf(ξn,j, y(ξn,j))−φf(xn, y(xn), . . . , y(xn+k−1);h), (1.28)

(30)

dondexn ≤ξn,j ≤xn+j. Si el problema es consistente, pasando al l´ımiteh→0+

paran = 0 se tiene (1.27) conx=a; haciendo lo mismo para n =N k,

RN−k h = k X j=0 jαjf(ξN−k,j, y(ξN−k,j))−φf(xN−k, y(xN−k), . . . , y(xN−1);h) → k P j=0 jαjf(x, y(x))−φf(x, y(x), . . . , y(x); 0),

de donde, si el m´etodo es consistente, se obtiene (1.27) parax(a, b] . Veamos el rec´ıproco. Supongamos que se cumplen las condiciones (1.26) y (1.27). Entonces, usando (1.28) se tiene que

Rn h = k X j=0 jαj φf(ξn,j, y(ξn,j), . . . , y(ξn,j); 0)−φf(xn, y(xn), . . . , y(xn+k−1);h) k P j=0 jαj .

Utilizando la continuidad uniforme deyyφf sobre compactos, se concluye que

τ 0.

Ejemplo. Los m´etodos de un paso son consistentes si y s´olo si

α0 =−1 y φf(x, y(x); 0) =f(x, y(x)).

Usando (1.18) es f´acil ver que la regla del trapecio cumple estas dos condiciones; por tanto es consistente.

Ejemplo. Consideramos el m´etodo

yn+2+yn+1−2yn=h¡5f(xn+1, y(xn+1))−2f(xn, y(xn))¢. (1.29) Se tiene φf(xn, yn, yn+1;h) = 5f(xn + h, yn+1) − 2f(xn, yn), 2 P j=0 αj = 0 y 2 P j=0

jαj = 3. Por consiguiente, φf(x, y, y; 0) = 3f(x, y). As´ı pues, el m´etodo

es consistente.

Si un m´etodo es 0-estable y adem´as τ = O(hp) cuando h 0+, entonces

(31)

Definici´on 1.10. Un m´etodo de la forma (1.17) es consistente de orden p si este es el mayor entero tal que para todo problema (1.2) con f Cp(D) y

f Lipschitz con respecto a su segunda variable en D se tiene que τ = O(hp)

cuando h0+.

Ejemplo. Si f C2, la regla del punto medio (1.14) tiene residuo

Rn = y(xn+2)−y(xn)−2hf(xn+1, y(xn+1)) = y(xn+2)−y(xn)−2hy0(xn+1) = ¡y(xn) +y0(xn)(2h) + 2!1y00(xn)(2h)2+3!1y000(ξn)(2h)3 ¢ −y(xn)−2h¡y0(xn) +y00(xn)h+ 2!1y000(ηn)h2¢ = ¡4 3y 000(ξ n)−y000(ηn)¢h3,

con xn ≤ ξn ≤ xn+2 y xn ≤ ηn ≤ xn+1. As´ı pues, τ = O(h2), y el m´etodo es

consistente de orden al menos 2.

Si aplicamos el m´etodo al problema

y0(x) = x

2

2 , 0≤x≤b, y(0) = 0, (1.30)

cuya soluci´on, y(x) = x3/3!, verifica que y000(x) = 1, se tiene que R

n = h3/3.

As´ı pues,τ =h2/3, y el m´etodo no es consistente de orden 3.

Problemas

1. Decidir si los m´etodos de la secci´on 1.3 son consistentes y en caso afir-mativo determinar el orden de consistencia.

2. Determinar qu´e condiciones deben cumplir las constantesαyβ para que el m´etodo

yn+1 =yn+αhf(xn, yn) +βhf(xn+1, yn+1)

sea: (i) consistente; (ii) consistente de orden al menos uno; y (iii) con-sistente de orden al menos dos. ¿Es concon-sistente de orden 3 para alguna elecci´on de α y β?

(32)

3. a) Hallar el orden de consistencia del m´etodo yn+1 =yn− 5 2hf(xn, yn) + 7 2hf(xn+ h 7, yn+ h 7f(xn, yn)).

b) Escribir la funci´on de incremento φf y comprobar que cumple la

con-dici´on (1.19).

4. Repetir el ejercicio anterior para el m´etodo

yn+1 =yn+hf(xn+ (1−θ)h, θyn+ (1−θ)yn+1),

donde θ [0,1].

1.7.

Criterio de la ra´ız

Si un m´etodo de un paso es consistente, es 0-estable, y por tanto conver-gente. ¿Sucede lo mismo con los m´etodos de m´as de un paso? La respuesta es que no.

Ejemplo. Consideramos el m´etodo (1.29). Se lo aplicamos al problema m´as simple que uno pueda imaginar,

y0(x) = 0, axb, y(a) = 0,

cuya soluci´on esy(x) = 0. El m´etodo en este caso queda

yn+2+yn+1−2yn= 0.

Para que yn = λn sea soluci´on de esta recurrencia, λ tiene que ser ra´ız del

polinomio ρ(ζ) = ζ2 +ζ 2. As´ı, λ debe ser 1 o 2, lo que da lugar a las

soluciones yn= 1, yn = (−2)n. La soluci´on general de la recurrencia ser´a una

combinaci´on lineal de estas dos soluciones,

(33)

Consideramos las solucionesun = 0 y vn =h(−2)n. Se tiene que δn = 0 =γn y que m´ax 0≤n≤1kun−vnk= 2h. Sin embargo, m´ax 2≤n≤Nkun−vnk=h2 N = b−a N 2 N → ∞,

luego (1.21) no se cumple para ning´un C.

Como se ve en este ejemplo, la 0-estabilidad est´a relacionada con el tama˜no de las ra´ıces del polinomio

ρ(ζ) =

k

X

j=0

αjζj,

conocido comoprimer polinomio caracter´ısticodel m´etodo, que es el polinomio asociado a la recurrencia que se obtiene al aplicar el m´etodo a problemas con

f = 0. Esto motiva la siguiente definici´on.

Definici´on 1.11. Se dice que un m´etodo(1.17)satisface lacondici´on de la ra´ız si todas las ra´ıces del primer polinomio caracter´ıstico tienen m´odulo menor o igual que 1, y aquellas que tienen m´odulo 1 son simples.

Observaci´on. Si un m´etodo es consistente, una de las ra´ıces de ρ(ζ) debe ser 1. ´Esta es la ra´ız principal, a la que se etiqueta como ζ1. Las restantes ra´ıces,

ζi, i = 2, . . . , k, son las llamadas ra´ıces espurias; surgen porque decidimos

representar un sistema diferencial de primer orden por un sistema en diferencias de orden k. Obviamente, los m´etodos consistentes con k = 1 no tienen ra´ıces espurias, y satisfacen por tanto la condici´on de la ra´ız.

La 0-estabilidad resulta ser equivalente a que se satisfaga la condici´on de la ra´ız.

Teorema 1.12.Un m´etodo(1.17)es0-estable si y s´olo si satisface la condici´on de la ra´ız.

(34)

Prueba. Consideramos el problema de valor inicial con f = 0 y tomamos dos soluciones un y vn de la ecuaci´on en diferencias sin perturbar

k

X

j=0

αjun+j = 0. (1.31)

Si el m´etodo es 0-estable, existe una constanteC tal que m´ax

k≤n≤Nkun−vnk ≤C0≤m´axn≤k−1kun−vnk.

Veamos que esto es imposible si no se satisface la condici´on de la ra´ız.

(i) Supongamos que existe ξ tal que |ξ| > 1 y ρ(ξ) = 0. Las sucesiones

un= 0 y vn =hξn son soluci´on de la ecuaci´on en diferencias (1.31). Tenemos

que m´ax k≤n≤Nkun−vnk=h|ξ| N = b−a N |ξ| N → ∞, mientras que, m´ax 0≤n≤k−1kun−vnk= m´ax0≤n≤k−1h|ξ| n ≤ b−a N |ξ| k−1.

As´ı pues, el m´etodo no es 0-estable.

(ii) Supongamos que existe ξ tal que |ξ| = 1, ρ(ξ) = 0 = ρ0(ξ). Las

suce-siones un = 0 y vn =

hnξn son soluci´on de la ecuaci´on en diferencias (1.31)

(n´otese que ξ es ra´ız doble). Entonces m´ax k≤n≤Nkun−vnk= √ hN|ξ|N =√ba√N → ∞, mientras que m´ax 0≤n≤k−1kun−vnk= m´ax0≤n≤k−1 √ hn|ξ|n √ ba √ N (k−1), y el m´etodo no es 0-estable.

Veamos ahora que si el m´etodo cumple la condici´on de la ra´ız, entonces es 0-estable. Damos la prueba (que se puede omitir en una primera lectura) en el caso escalar. El caso vectorial es an´alogo.

(35)

La idea es escribir el m´etodo como m´etodo de un paso. Para ello denotamos

Yn= (yn+k−1, . . . , yn)T, n= 0, . . . , N −k+ 1,

F(Yn) = (φf(xn, yn, . . . , yn+k−1; 0),0, . . . ,0)T, n= 0, . . . , N −k+ 1.

Con esta notaci´on podemos escribir el m´etodo como

Yn+1 =AYn+hF(Yn), n = 0, . . . , N −k,

dondeA es la matriz compa˜nera del primer polinomio caracter´ıstico,

A =          −αk−1 −αk−2 . . . −α1 −α0 1 0 . . . 0 0 1 . .. ... . .. . .. ... ... 0 . . . 0 1 0          .

Iterando el proceso tenemos que

Yn=AnY0+h n−1 X l=0 An−1−lF(Y l).

Para las un y vn de la definici´on de estabilidad, llamando

Rn= (δn−γn,0, . . . ,0)T, n= 0, . . . , N −k,

y restando tendremos que

Un−Vn=An(U0−V0) +h n−1 X l=0 An−1−l(F(Ul)−F(Vl)) +h n−1 X l=0 An−1−lRl.

Si las potencias deA est´an todas ellas acotadas, esto es, si kAnk ≤M, n = 0,1, . . . ,

tomando normas y utilizando queφf satisface la condici´on de Lipschitz (1.19),

tenemos que kUn−Vnk ≤MkU0−V0k+hLM k n−1 X l=0 kUl−Vlk+ (b−a)M m´ax 0≤l≤N−kkδl−γlk,

(36)

desigualdad que se puede escribir como ψn ≤N+hLM k n−1 X l=0 ψl,

definiendoψn y N de la manera obvia.

Sea χn=N +hLM k nP−1

l=0

ψl. Se tiene que

χn+1−χn=hLM kψn≤hLM kχn,

de donde concluimos que

ψn ≤χn≤(1 +hLM k)n−1χ1 ≤e(n−1)hLM k(N +hLM kkU0−V0k),

y de aqu´ı la 0-estabilidad.

Para que las potencias de A est´en todas acotadas es necesario y suficiente que las ra´ıces del polinomioρ sean de m´odulo menor que la unidad, y aquellas que sean de m´odulo 1 sean simples, es decir, que se cumpla el criterio de la ra´ız. Para ver esto no hay m´as que observar que los autovalores deA son las ra´ıces de ρ.

Ejemplo. El primer polinomio caracter´ıstico de la regla del punto medio (1.14) es

ρ(ζ) =ζ21.

Sus ra´ıces son ζ1 = 1 y ζ2 = −1, luego el m´etodo satisface la condici´on de la

ra´ız. Por consiguiente, el m´etodo es 0-estable. Como tambi´en es consistente de orden 2, es convergente de orden al menos 2.

Por otra parte, si aplicamos el m´etodo al problema (1.30), se obtiene la recurrencia

yn+2−yn =h3(n+ 1)2, n = 0, . . . , N −2,

cuya soluci´on general es

yn=c1+c2(−1)n+

h3

3!(n

3

(37)

Si tomamos valores de arranquey0 = 0 =y1, entonces yn= h3 3!(n 3 −n).

As´ı pues, m´ax

0≤n≤1ky(xn)−ynk= 0 y m´ax 2≤n≤Nky(xn)−ynk= h2 3! 2m´ax≤n≤Nkxnk= bh2 3! ; el m´etodo no es por tanto convergente de orden 3.

Problemas

1. Comprobar que los autovalores de la matriz compa˜nera del primer poli-nomio caracter´ıstico son precisamente las ra´ıces de dicho polipoli-nomio. 2. Comprobar que la condici´on necesaria y suficiente para que todas las

potencias de una matriz tengan norma uniformemente acotada es que todos sus autovalores tengan m´odulo menor o igual que uno y aquellos que tengan m´odulo uno sean simples.

3. Determinar si son 0-estables los m´etodos de la secci´on 1.3 de m´as de un paso.

4. Consideramos la familia de m´etodos

yn+3+(2α−3)yn+2−(2α−3)yn+1−yn =hα¡f(xn+2, yn+2)+f(xn+1, yn+1)¢,

dondeαes un par´ametro real. Estudiar para qu´e valores deαes 0-estable.

1.8.

Teorema de equivalencia

Hemos visto que “0-estabilidad + consistenciaconvergencia”. ¿Es cierto el rec´ıproco?

Teorema 1.13 (Teorema de equivalencia). Un m´etodo (1.17) es conver-gente si y s´olo si es0-estable y consistente.

(38)

Prueba. En primer lugar probamos que “convergencia criterio de la ra´ız”. Consideramos el problema

y0(x) = 0, y(0) = 0,

cuya soluci´on esy(x) = 0.

(i) Supongamos que existeξ tal que |ξ|>1 y ρ(ξ) = 0. La sucesi´on yn=hξn,

n = 0,1, . . ., es soluci´on de la ecuaci´on en diferencias y tiene condiciones de arranqueyn=hξn, n= 0, . . . , k−1; por tanto

m´ax 0≤n≤k−1ky(xn)−ynk=h|ξ| k →0. Sin embargo, m´ax k≤n≤Nky(xn)−ynk=h|ξ| N = b−a N |ξ| N → ∞ cuando h0+,

y por tanto el m´etodo no es convergente.

(ii) Supongamos que existe ξ tal que |ξ| = 1, ρ(ξ) = 0 = ρ0(ξ). La sucesi´on

yn =

hnξn, n = 0,1, . . ., es soluci´on de la ecuaci´on en diferencias y tiene

condiciones de arranqueyn= √ hnξn,n = 0, . . . , k1; por tanto m´ax 0≤n≤k−1ky(xn)−ynk= √ h(k1)|ξ|k−1 0. Sin embargo, m´ax k≤n≤Nky(xn)−ynk= √ hN|ξ|N =√ba√N → ∞ cuandoh0+, y el m´etodo no es convergente.

Veamos ahora que “convergenciaconsistencia”. Si un m´etodo es conver-gente, en particular lo es para el problema y0(x) = 0, 0 x b, y(0) = 1,

cuya soluci´on esy(x) = 1. La aplicaci´on del m´etodo num´erico a este problema produce la recurrencia

k

X

j=0

(39)

Si tomamos valores de arranqueyn= 1, n= 0, . . . , k−1, entonces

m´ax

0≤n≤k−1ky(xn)−ynk= 0.

Por consiguiente, la convergencia implica que m´ax

k≤n≤Nk1−ynk →0,

y por tanto que l´ım

h→0+yn= 1. As´ı, pasando al l´ımite en (1.32) se llega a (1.26).

Supongamos ahora que no se cumple la condici´on (1.27),

φf(x, y(x), . . . , y(x); 0)− Ã k X j=0 jαj ! f(x, y(x)) =g(x)6≡0. Si definimos ˆ f(x, y) =f(x, y) g(x) k P j=0 jαj , se tiene que φf(x, y(x), . . . , y(x); 0) = Ã k X j=0 jαj ! ˆ f(x, y(x)).

Combinando esto con (1.26) y la 0-estabilidad, se prueba f´acilmente que yn

converge a la soluci´on ˆy6=y de

y0(x) = ˆf(x, y(x)), axb, y(a) =η,

¡la ecuaci´on equivocada!.

Observaci´on. Las condiciones de consistencia garantizan que estamos resol-viendo la ecuaci´on diferencial correcta, que estamos siendo consistentes con ella.

Ejemplo. La funci´on de incremento del m´etodo

(40)

viene dada impl´ıcitamente por

φf(x, y;h) = 2f(x, y) + 3f(x+h, y+hφf(x, y;h)).

As´ı,φf(x, y(x); 0) = 5f(x, y(x)), y el m´etodo no es convergente, ya que no es

consistente. Sin embargo, es 0-estable y cumple (1.26). Por lo tanto, aproxi-mar´a a soluciones de la ecuaci´ony0(x) = 5f(x, y(x)).

Problemas

1. Estudiar si son convergentes los m´etodos de la secci´on 1.3. 2. Consideramos la familia de m´etodos

yn+3+(2α−3)yn+2−(2α−3)yn+1−yn =hα

¡

f(xn+2, yn+2)+f(xn+1, yn+1)

¢ ,

donde αes un par´ametro real. Estudiar para que valores de αes conver-gente.

3. Repetir el problema anterior para la familia de m´etodos de dos pasos

yn+2−(α+ 1)yn+1+αyn= (3−7α)hf(xn+2, yn+2).

1.9.

etodos lineales multipaso

El m´etodo de Euler, las reglas del trapecio, del punto medio y de Simpson, los m´etodos de Adams-Bashforth y Adams-Moulton de dos pasos y la f´ormula BDF de dos pasos obtienen las aproximaciones yn a la soluci´on del problema

de valor inicial como soluciones de recurrencias de la forma

k X j=0 αjyn+j =h k X j=0 βjf(xn+j, yn+j), n = 0, . . . , N −k. (1.33)

Los m´etodos que se pueden escribir de esta manera se conocen como m´eto-dos lineales de k-pasos, porque yn+k es una combinaci´on lineal de yn+j y

(41)

Notaci´on. Para abreviar se suele escribirfn =f(xn, yn).

La funci´on de incremento del m´etodo (1.33) viene dada por

φf(xn, yn, . . . , yn+k−1;h) = kP−1 j=0 βjf(xn+jh, yn+j) +βkf(xn+kh,− kP−1 j=0 αjyn+j+hφf(xn, yn, . . . , yn+k−1;h)).

No es dif´ıcil comprobar que φf satisface la condici´on de Lipschitz (1.19) si f

satisface una condici´on de Lipschitz con respecto a su segunda variable. Siβk = 0, el m´etodo es expl´ıcito. En este caso se puede despejar

expl´ıcita-mente cada yn+k en t´erminos de los k valores anteriores yn, . . . , yn+k−1. Si se

han almacenado los valores fn, . . . , fn+k−2, una ´unica evaluaci´on de funci´on,

fn+k−1, producir´a yn+k.

Siβk6= 0, el m´etodo es impl´ıcito. Para obteneryn+ken cada paso tendremos

que resolver la ecuaci´on no lineal

yn+k =hβkf(xn+k, yn+k) +g, (1.34)

dondeg es una funci´on conocida de los valores ya calculados,

g =

k−1

X

j=0

(hβjfn+j−αjyn+j).

Si el lado derecho de la igualdad (1.34) tiene una constante de LipschitzM con respecto ayn+k tal que M <1, entonces este sistema de ecuaciones tiene una

´

unica soluci´on yn+k, que se puede aproximar tanto como se desee por medio

de la iteraci´on

y[nν++1]k =hβkf(xn+k, y[nν+]k) +g, yn[0]+k arbitrario. (1.35)

Por el Teorema de la Aplicaci´on Contractiva, se cumple que l´ım

ν→∞y

[ν]

(42)

N´otese que, siempre que f sea Lipschitz con respecto a su segunda variable, podemos forzar que se cumpla la condici´on M < 1 tomando un valor de h

suficientemente peque˜no. Si ´este fuera demasiado peque˜no se deber´ıa optar por otro m´etodo iterativo, como el de Newton.

Ya vimos que los coeficientes αj de un m´etodo general (1.17) se pueden

especificar por medio de ρ, el primer polinomio caracter´ıstico del m´etodo. En el caso de los m´etodos lineales multipaso se define unsegundo polinomio carac-ter´ıstico, σ(ζ) = k X j=0 βjζj,

con el fin de caracterizar los coeficientes βj.

¿Qu´e condiciones deben satisfacer los coeficientes de un m´etodo lineal mul-tipaso para que sea consistente?

Si el m´etodo cumple la condici´on (1.26), entonces

φf(x, y(x), . . . , y(x); 0) = kP−1 j=0 βjf(x, y) +βkf à x,kP−1 j=0 αjy(x) ! = k P j=0 βjf(x, y).

As´ı pues, el m´etodo ser´a consistente si y s´olo si

k X j=0 αj = 0 y k X j=0 βj = k X j=0 jαj.

En t´erminos del primer y segundo polinomio caracter´ıstico estas condiciones se escriben como

ρ(1) = 0, ρ0(1) =σ(1).

(43)

ordenp? En este caso el residuo viene dado por Rn = k P j=0 (αjy(xn+j)−hβjf(xn+j, y(xn+j)) = Pk j=0 (αjy(xn+j)−hβjy0(xn+j)), n = 0, . . . , N −k.

Si tomamos desarrollos de Taylor para y(xn+j) = y(xn +jh) e y0(xn+j) =

y0(x

n+jh) alrededor del punto x=xn,

y(xn+j) =y(xn) +y0(xn)jh+· · ·+ y(p+1)(x n)(jh)p+1 (p+ 1)! +O(h p+2), y0(x n+j) = y0(xn) +y00(xn)jh+· · ·+ y(p+1)(x n)(jh)p p! +O(h p+1), obtenemos que Rn=C0y(xn) +C1y0(xn)h+· · ·+Cp+1y(p+1)(xn)hp+1+O(hp+2), donde C0 = k X j=0 αj, C1 = k X j=0 αjj− k X j=0 βj, ... Cq = 1 q! Ã k X j=0 αjjq−q k X j=0 βjjq−1 ! , q >1.

As´ı pues, siCq = 0,q = 0, . . . , p, el m´etodo ser´a consistente de orden al menos

p. Por otra parte, si Cp+1 6= 0, el m´etodo no puede tener orden de consistencia

p+ 1. En efecto, la soluci´on del problema

y0(x) = x

p

p!, 0≤x≤b, y(0) = 0, verificay(p+1)(x) = 1, y por consiguiente R

n =Cp+1hp+1+O(hp+2)6=O(hp+2).

Si un m´etodo lineal multipaso tiene orden de consistencia p, entonces el valor Cp+1 6= 0 recibe el nombre de constante de error.

(44)

Ejemplo. El m´etodo

yn+2+yn+1−2yn=

h

4(fn+2+ 8fn+1+ 3fn) es un m´etodo lineal de dos pasos con

α0 =−2, α1 = 1, α2 = 1, β0 = 3/4, β1 = 8/4, β2 = 1/4.

Un sencillo c´alculo muestra que C0 =C1 =C2 =C3 = 0 y que C4 6= 0. As´ı, el

m´etodo es consistente de orden 3, y la constante de error esC4 = 1/4!.

Observaci´on. Las condiciones de consistencia del m´etodo lineal multipaso (1.33) coinciden con las condiciones de consistencia de orden 1.

No es necesario efectuar el desarrollo de Taylor en x=xn. Se puede (y se

debe) efectuar en otro punto si hay posibilidad de aprovechar simetr´ıas. Ejemplo. Consideramos la regla de Simpson,

yn+2−yn=

h

3(fn+ 4fn+1+fn+2).

Si desarrollamos el residuo alrededor del punto medio, x = xn+1, queda un

desarrollo en potencias impares deh,

Rn =y(xn+2)−y(xn)− h3(y0(xn) + 4y0(xn+1) +y0(xn+2)) = = (2y0(x n+1)h+ 13y000(xn+1)h3+5!2y(v)(xn+1)h5+· · ·) −h 3(6y 0(x n+1) +y000(xn+1)h2+4!2y(v)(xn+1)h4+· · ·).

Concluimos queRn=O(h5), y el m´etodo es por tanto consistente de orden 4.

Ejemplo. Consideramos la regla del trapecio

yn+1−yn=

h

2(fn+1+fn). Si desarrollamos alrededor del punto medio x = xn+1

2 := xn + h

2, de nuevo

queda un desarrollo en potencias impares de h,

Rn =y(xn+1)−y(xn)− h2(y0(xn) +y0(xn+1)) = = (y0(x n+1 2)h+ 1 24y 000(x n+1 2)h 3+· · ·) −h 2(2y 0(x n+1 2) + 1 4y 000(x n+1 2)h 2+· · ·).

(45)

Concluimos queRn=O(h3), y el m´etodo es por tanto consistente de orden 2.

Lo que tienen en com´un los dos ejemplos anteriores es que ambos m´etodos son sim´etricos, en el sentido de que

αj =−αk−j, βj =βk−j.

Es f´acil comprobar, desarrollando alrededor del punto medio, que los m´etodos sim´etricos tienen orden par. As´ı pues, si un m´etodo es sim´etrico s´olo ser´a ne-cesario considerar las condiciones de orden impar, pues las de orden par se cumplen necesariamente.

¿Cu´al es el mejor orden que podemos conseguir para un m´etodo, para un n´umero de pasos k dado? Puesto que un m´etodo lineal de k pasos viene determinado por 2k+ 1 coeficientes, y las condiciones de orden de consistencia son relaciones lineales de estos coeficientes, existen m´etodos lineales dekpasos con orden de consistenciap= 2k; reciben el nombre demaximales. Sin embargo no sirven para nada, puesto que no son convergentes.

Teorema 1.14 (Primera barrera de Dahlquist (1956)). El orden de con-vergencia p de un m´etodo lineal de k pasos 0-estable satisface:

pk+ 2 si k es par;

pk+ 1 si k es impar;

pk si βk ≤0 (en particular si es expl´ıcito).

Los m´etodos con p = k+ 2, llamados optimales, tampoco funcionan bien en la pr´actica. As´ı pues, el mejor orden que se puede alcanzar con un m´etodo dek pasos que sirva para algo es p=k+ 1.

Problemas

1. Comprobar que la funci´on de incremento del m´etodo lineal multipaso (1.33) satisface la condici´on de Lipschitz (1.19) si f satisface una condi-ci´on de Lipschitz con respecto a su segunda variable.

(46)

2. Encontrar el orden de consistencia y la constante de error de los m´etodos (a) yn+2+yn+1−2yn = h4(fn+2+ 8fn+1+ 3fn),

(b) yn+2−yn= 23h(fn+2+fn+1+fn),

(c) yn+4− 198 (yn+3−yn+1)−yn= 619h(fn+4+ 4fn+3+ 4fn+1+fn).

¿Son convergentes? (El m´etodo (c) se conoce como m´etodo de Quade.) 3. Repetir el problema anterior para el m´etodo lineal multipaso cuyos

poli-nomios caracter´ısticos son

ρ(ζ) =ζ41 y σ(ζ) = 14 45(ζ 4+ 1) + 64 45(ζ 3+ζ) + 24 45ζ 2.

4. De entre los m´etodos lineales multipaso de la forma

yn+3+α2yn+2+α1yn+1+α0yn=h(β2fn+2+β1fn+1+β0fn),

determinar los sim´etricos convergentes de mayor orden.

5. Determinar, usando la f´ormula para el error de interpolaci´on, el orden de consistencia de los m´etodos de Adams-Bashforth, Adams-Moulton y BDF de 2 pasos. Comprobar que coincide con el orden de convergencia. 6. Demostrar que si un m´etodo lineal de 3 pasos expl´ıcito es de orden 4, entoncesα0+α2 = 8 y α1 =−9. Deducir de esto que el m´etodo no puede

ser convergente.

7. Sea ρ un polinomio m´onico de grado k verificando ρ(1) = 0. Demostrar que:

(a) Existe un ´unico polinomio σ de grado menor o igual que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k+ 1.

(b) Existe un ´unico polinomio σ de grado menor estricto que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k.

Referencias

Documento similar

Por PEDRO A. EUROPEIZACIÓN DEL DERECHO PRIVADO. Re- laciones entre el Derecho privado y el ordenamiento comunitario. Ca- racterización del Derecho privado comunitario. A) Mecanismos

La conclusi´ on fue que para un n´ umero peque˜ no de par´ ametros (del orden de la decena), el m´ etodo simplex es hasta 4 veces m´ as r´ apido, obteniendo unos valores del m´

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

El nuevo Decreto reforzaba el poder militar al asumir el Comandante General del Reino Tserclaes de Tilly todos los poderes –militar, político, económico y gubernativo–; ampliaba

De acuerdo con Harold Bloom en The Anxiety of Influence (1973), el Libro de buen amor reescribe (y modifica) el Pamphihis, pero el Pamphilus era también una reescritura y

Missing estimates for total domestic participant spend were estimated using a similar approach of that used to calculate missing international estimates, with average shares applied

DS N° 012-2014-TR Registro Único de Información sobre accidentes de trabajo, incidentes peligrosos y enfermedades ocupacionales y modificación del art.110º del Reglamento de la Ley