Cap´ıtulo 1
El problema de valor inicial
1.1.
El problema de valor inicial
Al modelizar problemas de la ciencia, la ingenier´ıa y la econom´ıa aparecen con frecuencia ecuaciones diferenciales ordinarias. Una ecuaci´on diferencial or-dinaria (en adelante una EDO) es una relaci´on entre una funci´on de una varia-ble y sus derivadas. Nosotros nos centraremos en ecuaciones de primer orden (la derivada de mayor orden que aparece es la de orden uno) escritas en la forma est´andar
y0(x) = f(x, y(x)), a≤x≤b, (1.1) donde f : [a, b]×Rd 7→ Rd es continua. Una soluci´on de (1.1) en [a, b] es una
funci´on y: [a, b] 7→Rd, y∈ C1([a, b]) que satisface (1.1). En el caso vectorial, d > 1, que se puede interpretar como un sistema de ecuaciones escalares, y y
f tienen d componentes cada una,
y= (y1, y2, . . . , yd)T, f = (f1, f2, . . . , fd)T.
s´ı s´olo una soluci´on ´unica, y se hace necesario a˜nadir a la formulaci´on del problema un cierto n´umero de condiciones adicionales. ´Estas son o bien “con-diciones de frontera”, si la informaci´on adicional se da en dos o m´as valores de
x, o “condiciones iniciales”, si se especifican todas las condiciones de y en un ´
unico valor de x. En este cap´ıtulo nos centraremos en el caso en que se dan condiciones iniciales, y dejaremos el caso en que se dan condiciones de fron-tera para m´as adelante. As´ı pues, dado η = (η1, η2, . . . , ηd)T ∈ Rd, buscamos
una soluci´on delproblema de valor inicial (PVI) en [a, b], esto es, una funci´on
y∈C1([a, b]) que satisfaga
y0(x) = f(x, y(x)) para a≤x≤b, y(a) = η. (1.2)
Como se puede ver en el siguiente ejemplo, algunos problemas de valor inicial tienen m´as de una soluci´on.
Ejemplo. Consideramos la ecuaci´on diferencial y0 =|y|α sujeta a la condici´on
inicial y(0) = 0, siendo α un n´umero real fijo, α ∈ (0,1). Es facil comprobar que para cualquier n´umero real no negativo c,
yc(x) =
(
0, 0≤x≤c,
(1−α)1/(1−α)(x−c)1/(1−α), x≥c,
es una soluci´on del problema de valor inicial en el intervalo [0,∞). As´ı pues, si bien el problema tiene soluci´on, ´esta no es ´unica. Sin embargo, en contraste con el caso α ∈ (0,1), si α ≥ 1 el problema de valor inicial tiene una ´unica soluci´on, y(x)≡0.
Este ejemplo muestra que hay que pedir a la funci´on f algo m´as que con-tinuidad para asegurar que la soluci´on del problema (1.2) sea ´unica. Nosotros pediremos una condici´on de crecimiento con respecto al segundo argumento de la funci´on.
Definici´on 1.1. La funci´on f :D⊂R×Rd7→Rd satisface una condici´on de
conocida como constante de Lipschitz, tal que
kf(x, y)−f(x,yˆ)k ≤Lky−yˆk ∀(x, y),(x,yˆ)∈D.
Observaci´on. Dado que en un espacio vectorial de dimensi´on finita todas las normas son equivalentes, la propiedad de ser Lipschitz no depende de qu´e nor-ma tomemos.
Sif, adem´as de ser continua enD, satisface una condici´on de Lipschitz con respecto a su segunda variable, la soluci´on, de existir, ser´a ´unica. Esto es una consecuencia inmediata del siguiente lema.
Lema 1.2. SeaD= [a, b]×Rd y sea f continua en D y Lipschitz con respecto
a su segunda variable en D. Sean y,yˆ dos soluciones de la ecuaci´on (1.1) en [a, b]. Entonces, para todo a≤x≤b,
ky(x)−yˆ(x)k ≤ ky(a)−yˆ(a)kexp(L(x−a)). (1.3)
Prueba. Tenemos que
y(x) = y(a) +Raxf(s, y(s))ds,
ˆ
y(x) = ˆy(a) +Raxf(s,yˆ(s))ds.
Restando y tomando normas, y usando quef es Lipschitz en su segunda varia-ble se tiene que
ky(x)−yˆ(x)k ≤ ky(a)−yˆ(a)k+Raxkf(s, y(s))−f(s,yˆ(s))kds ≤ ky(a)−yˆ(a)k+LRaxky(s)−yˆ(s)kds. (1.4) Si definimos g(x) = ky(a)−yˆ(a)k+L Z x a k y(s)−yˆ(s)kds,
tenemos por un lado que
y por otro que,
g0(x) = Lky(x)−yˆ(x)k ≤Lg(x).
Multiplicando esta desigualdad por el factor integrante exp(−L(x−a)) se tiene que
d
dx(g(x) exp(L(x−a))) ≤0,
de donde g(x) ≤ g(a) exp(L(x −a)). Esto combinado con (1.5) produce el resultado.
Observaci´on. El paso de la estimaci´on integral (1.4) a la estimaci´on puntual (1.3) es lo que se conoce en la literatura como Lema de Gronwall.
La desigualdad (1.3) no s´olo prueba la unicidad de la soluci´on del problema de valor inicial (1.2); tambi´en muestra que las soluciones de dicho problema dependen de manera continua del dato inicial.
La cota (1.3) es ´optima en algunos casos, por ejemplo para la ecuaci´on escalar lineal y0 = λy, λ > 0. Sin embargo, puede ser demasiado pesimista
para otros.
Ejemplo. Consideramos la ecuaci´ony0 =−λy, que tiene constante de Lipschitz
L=λ. La diferencia entre dos soluciones de este problema decae exponencial-mente con el tiempo; de hecho se tiene la igualdad
y(x)−yˆ(x) = (y(a)−yˆ(a))e−λ(x−a).
La condici´on de Lipschitz junto con la continuidad resultan ser tambi´en suficientes para demostrar la existencia de una soluci´on.
Teorema 1.3 (Picard). SeaD = [a, b]×Rd. Sif es continua enDy Lipschitz
con respecto a su segunda variable en D, entonces existe una ´unica soluci´on del problema (1.2) en [a, b].
problema (1.2) es equivalente a encontrar una funci´ony∈C([a, b]) tal que
y(x) =η+
Z x a
f(s, y(s))ds. (1.6)
Las soluciones de esta ecuaci´on integral son puntos fijos del operador integral
T :C([a, b])7→C([a, b]) definido por (T y)(x) =η+
Z x a
f(s, y(s))ds.
La idea para hallar un punto fijo para este operador es la misma que se uti-liza para hallar puntos fijos de aplicaciones en espacios de dimensi´on finita: la iteraci´on. Definimos una sucesi´on de funciones {yn}∞n=0 por medio de la
recurrencia
y0(x) =η, yn(x) = η+
Z x a
f(s, yn−1(s))ds, n = 1,2, . . . . (1.7)
Si la sucesi´on{yn}converge uniformemente a una funci´on y, por un lado ´esta
ser´a continua, y por otro, podemos tomar l´ımites en la relaci´on de recurrencia para obtener que y es soluci´on de (1.6).
Dado que yn(x) = y0(x) + n X k=1 (yk(x)−yk−1(x)),
la convergencia uniforme de la sucesi´on {yn} se seguir´a inmediatamente del
test M de Weierstrass si encontramos una sucesi´on num´erica {ak} tal que
kyk(x)−yk−1(x)k ≤ak y ∞ P k=1 ak<∞ . La acotaci´on kyk(x)−yk−1(x)k ≤ Kη L (L(x−a))k k! ,
donde L es la constante de Lipschitz de f respecto de la segunda variable, nos dice que podemos tomar ak = KLη(L(b−a))
k
k! . Esta acotaci´on se prueba por
inducci´on: es cierta para k= 1, pues ky1(x)−y0(x)k ≤
Z x
a k
y, si es cierta parak−1, entonces kyk(x)−yk−1(x)k ≤ Rx a kf(s, yk−1(s))−f(s, yk−2(s))kds ≤ LRaxkyk−1(s)−yk−2(s)kds ≤ LRaxKη L (L(s−a))k−1 (k−1)! ds= Kη L (L(x−a))k k! , es decir, es cierta parak.
En resumen, la continuidad de f junto con la condici´on de Lipschitz res-pecto de la segunda variable garantizan que el problema (1.2) est´a bien plan-teado: (i) tiene soluci´on; (ii) es ´unica y (iii) depende de manera continua de los datos iniciales. En lo sucesivo supondremos siempre que dicha condiciones se cumplen. En ocasiones necesitaremos que la soluci´on sea m´as regular. Pa-ra conseguirlo bastar´a con imponer mayor regularidad a la f. En efecto, es f´acil ver que si, adem´as de ser Lipschitz con respecto a su segunda variable,
f ∈Cp([a, b]×Rd), entonces y∈Cp+1([a, b]).
La condici´on de Lipschitz se puede relajar, pidiendo tan s´olo que f sea Lipschitz en D = [a, b]×Ω, con η ∈ Ω ⊂ Rd. No obstante, en este caso s´olo
se tiene garantizado un resultado de existencia local, en alg´un intervalo [a,ˆb], con a <ˆb≤b.
Ejemplo. Consideramos el problema
y0 =y2, y(0) = 1.
La funci´onf(x, y) =y2 satisface una condici´on de Lipschitz en [0, b]×[−K, K]
para cualesquiera b, K >0. Sin embargo, la ´unica soluci´on del problema,
y(x) = 1 1−x,
no tiene validez m´as all´a de [0,1].
Como se puede ver en cualquier texto avanzado de EDOs, la soluci´on se puede prolongar mientras no se salga del dominio dondefsatisface la condici´on
de Lipschitz. La dificultad en este caso reside en que y→ ∞ cuando x→1−.
N´otese quef no es Lipschitz en [0, b]×R. Problemas
1. Escribir la ecuaci´on lineal yn)+a
n−1yn−1) +· · ·+a1y0 +a0y = 0 en la
forma Y0 =AY con Y = (y, y0, . . . , yn−1)) y A una matrizn×n.
2. Comprobar que las siguientes funciones satisfacen una condici´on de Lips-chitz sobre los respectivos intervalos y hallar las constantes de LipsLips-chitz asociadas:
a) f(x, y) = 2yx−4, x∈[1,∞);
b) f(x, y) = e−x2
arctany, x∈[1,∞);
c) f(x, y) = 2y(1 +y2)−1(1 +e−|x|), x∈(−∞,∞).
3. Encontrar, usando las normas k · k1, k · k2 y k · k∞, una constante de
Lipschitz con respecto a y = (y1, y2)T para la funci´on f : R×R2 7→ R2
dada por
f(x, y) = (x+ seny2,x
2
2 + cosy
1)T.
4. Consideramos el problema de valor inicial
y0(x) =Ay(x) para 0≤x≤2, y(0) =η, donde A = Ã −100 1 0 −101 ! . (1.8)
Encontrar una constante de Lipschitz para la funci´on del lado derecho usando las normas k · k1, k · k2 y k · k∞.
5. La funci´on f satisface una condici´on de Lipschitz unilateral en D = [a, b]×Rd con constante de Lipschitz unilateral l si
< f(x, y)−f(x,yˆ), y−y >ˆ ≤lky−yˆk22 ∀(x, y),(x,yˆ)∈D.
(a) Si l <0 se dice que el PVI es disipativo. Demostrar que el PVI del ejercicio anterior es disipativo.
(b) Demostrar que si f satisface una condici´on de Lipschitz unilateral con constante l y las funciones y e ˆy son soluciones de y0(x) =
f(x, y(x)) en [a, b], entonces
ky(x)−yˆ(x)k2 ≤exp(l(x−a))ky(a)−yˆ(a)k2 sia ≤x≤b.
1.2.
M´
etodos num´
ericos
Aunque el problema (1.2) tenga soluci´on, en la mayor parte de los casos no es posible encontrar una forma cerrada para la misma por m´etodos anal´ıticos. Ejemplo. Consideramos el PVI
y0(x) = e−y2(x)+ 1
1 +x2, y(0) = 0.
Usando el teorema del valor medio se tiene que
|f(x, y)−f(x,yˆ)|=|e−y2 −e−yˆ2|=| −2ξe−ξ2||y−yˆ| ≤L|y−yˆ|,
pero no sabemos encontrar una f´ormula para la soluci´on.
En casos como este habr´a que contentarse con obtener una aproximaci´on num´erica de la soluci´on. La prueba del teorema de Picard sugiere una manera de construir una. En efecto, las funcionesyn obtenidas mediante la relaci´on de
recurrencia (1.7) aproximan a la soluci´on.
Ejemplo. Si aplicamos el m´etodo de Picard al problema lineal escalar
y0 =y, y(0) = 1, obtenemos la recurrencia y0(x) = 1, yn(x) = 1 + Z x 0 yn−1(s)ds, n= 1,2, . . . , cuya soluci´on es yn(x) = n X k=0 xk k!,
es decir, los polinomios de Taylor de la exponencial en x= 0.
Pero, ¡cuidado!, este ejemplo es muy especial. En general ser´a dif´ıcil, o incluso imposible, evaluar las integrales involucradas en forma cerrada. As´ı que buscamos una idea distinta, ladiscretizaci´on.
Sustituimos el intervalo continuo [a, b] por el conjunto discreto de puntos {xn}Nn=0 definido por
xn =a+nh, n= 0,1,2, . . . , N, h= (b−a)/N,
al que llamaremosmalla. El par´ametrohes lalongitud del paso. Para facilitar la exposici´on, lo consideraremos constante, aunque conviene mencionar que gran parte de la potencia de los algoritmos modernos proviene de su capacidad para cambiarh autom´aticamente a medida que se realizan los c´alculos.
Nuestro objetivo es encontrar una forma de producir una sucesi´on de valores {yn}Nn=0 que aproxime a la soluci´on y de (1.2) en los puntos {xn}Nn=0,
yn ≈y(xn).
Los valoresyn se pueden interpolar para obtener una aproximaci´on dey(x) en
puntos xque no pertenezcan a la malla.
Un m´etodo num´erico para la integraci´on1 de (1.2) ser´a un procedimiento
para producir la sucesi´on de valores aproximados{yn}.
Problemas
1. Utilizar los iterantes de Picard para construir una aproximaci´on num´erica de la soluci´on del problema de valor inicial
y00+y= 0, 0≤x≤2π, y(0) = 0, y0(0) = 1.
2. Si f ∈Cp([a, b]×Rd), podemos encontrar una soluci´on aproximada
uti-lizando la f´ormula de Taylor de orden p alrededor de x = a, y(x) ≈
1Hist´oricamente se ha reservado el t´ermino integraci´on para la resoluci´on num´erica de
p
P
j=0
y(j)(a)(x−a)j. Los valores de las derivadas y(j)(a) se pueden
calcu-lar derivando la EDO y usando la condici´on inicial. Utilizar este proce-dimiento para aproximar la soluci´on del problema
y0(x) =−y2(x), 0≤x≤1, y(0) = 1,
y estimar el error cometido.
1.3.
Primeros ejemplos
Nuestro primer objetivo es ver, a trav´es de algunos ejemplos significativos, formas razonables de construir m´etodos num´ericos. Estos ejemplos nos servir´an tambi´en para ir introduciendo algunas ideas b´asicas. A lo largo de la secci´on supondremos quefes tan regular como sea necesario para justificar los c´alculos que se hagan.
•M´etodo de Euler. Nuestro primer m´etodo, padre de alguna manera de todos los dem´as que vamos a estudiar, es elm´etodo de Euler,
yn+1 =yn+hf(xn, yn), n = 0, . . . , N −1. (1.9)
Vamos a llegar a ´el desde tres puntos de vista diferentes.
Serie de Taylor. Desarrollamos la soluci´on alrededor de xn y usamos la
ecuaci´on diferencial para obtener
y(xn+1) = y(xn) +hy0(xn) + h2 2 y 00(ξ n) = y(xn) +hf(xn, y(xn)) + h2 2 y 00(ξ n). (1.10)
La notaci´on ξn indica que el punto intermedio ξn ∈ [xn, xn+1] puede
variar de componente a componente.
As´ı pues, la soluci´on teorica resuelve la recurrencia
con Rn = h 2
2 y
00(ξ
n). Esta ´ultima cantidad es desconocida, lo que impide
resolver la recurrencia. No obstante, sabemos que Rn es peque˜na si h es
peque˜na. Si la recurrencia (1.9) es estable ante peque˜nas perturbaciones, esperamos que {y(xn)} se parezca a la soluci´on {yn} de la recurrencia
sin perturbar(1.9). La cantidad Rn, que es lo que le sobra a la soluci´on
te´orica para ser soluci´on de la ecuaci´on del m´etodo num´erico, recibe el nombre de residuo.
Geom´etricamente (en el caso d = 1), al despreciar el residuo lo que estamos haciendo es aproximar a la soluci´on por su tangente.
Cuadratura num´erica. Integramos la EDO en (xn, xn+1), y obtenemos
y(xn+1) =y(xn) +
Z xn+1 xn
f(x, y(x))dx. (1.12)
Para calcular la integral utilizamos la f´ormula de cuadratura num´erica
Z c+h c
g ≈hg(c),
llamado regla rectangular izquierda, y llegamos de nuevo a (1.11). Diferenciaci´on num´erica. De la definici´on de derivada,
y(xn+1)−y(xn)
h ≈y
0(x
n) =f(xn, y(xn)),
de donde, despejando, obtenemos una vez m´as (1.11).
Para generar una soluci´on num´erica de (1.2) usando (1.9) necesitamos un valor de arranque y0. Uno desear´ıa tomar y0 = y(x0), pero en general esto
no es posible, debido a la precisi´on finita del ordenador. As´ı pues, habr´a que contentarse con tomar una aproximaci´ony0 ≈y(x0).
• M´etodo de Taylor de orden 2. Se pueden obtener m´etodos m´as precisos, tomando m´as t´erminos en la f´ormula de Taylor. Esto da lugar a los llamados m´etodos de Taylor. Como ejemplo construimos el m´etodo de Taylor de orden 2, en el caso d= 1.
El desarrollo de Taylor produce y(xn+1) =y(xn) +hy0(xn) + h2 2 y 00(x n) + h3 3!y 000(ξ n). Para calculary0(x
n) e y00(xn) usamos la ecuaci´on diferencial,
y0(x) = f(x, y(x)), y00(x) =f x(x, y(x)) +fy(x, y(x))y0(x) = fx(x, y(x)) +fy(x, y(x))f(x, y(x)). Si despreciamos el residuo,Rn= h 3 3!y000(ξn), obtenemos el m´etodo yn+1 =yn+hf(xn, yn) + h2 2 (fx(xn, yn) +fy(xn, yn)f(xn, yn)).
Puesto que en este caso el residuo es m´as peque˜no que para el m´etodo de Euler (sihes peque˜no), esperamos que la aproximaci´on sea mejor. A cambio hay que hacer tres evaluaciones de funci´on por paso, mientras que con el m´etodo de Euler s´olo hay que hacer una.
Por el mismo procedimiento podemos generar m´etodos de Taylor del orden que queramos. El inconveniente es que involucran cada vez m´as derivadas, que hay que calcular y evaluar.
•Regla del trapecio. Si calculamos la integral de (1.12) por medio de la regla del trapecio (que es m´as precisa que la regla rectangular izquierda), se tiene que
y(xn+1)−y(xn) =
f(xn, y(xn)) +f(xn+1, y(xn+1))
2 +Rn.
Despreciando el residuo Rn, se llega a la llamadaregla del trapecio,
yn+1 =yn+ h 2 ¡ f(xn, yn) +f(xn+1, yn+1) ¢ . (1.13)
El m´etodo de Euler es expl´ıcito; el valor yn+1 viene dado expl´ıcitamente
en t´erminos del valor anterioryn y se puede calcular f´acilmente mediante una
evaluaci´on de f y unas pocas operaciones aritm´eticas. Por el contrario, la regla del trapecio es un m´etodo impl´ıcito; para calcular yn+1 hay que resolver
un sistema de ecuaciones no lineales, lo que en general es computacionalmente costoso. La primera posibilidad para resolver el sistema es iterar la funci´on
G(y) = yn+
h
2(f(xn, yn) +f(xn+1, y)) para obtener un punto fijo. La funci´on de iteraci´on satisface
kG(y)−G(ˆy)k= h
2kf(xn+1, y)−f(xn+1,yˆ)k ≤
Lh
2 ky−yˆk.
Para que la iteraci´on converja se necesita que Lh/2 < 1. Si L À 1, esto obliga a dar pasos de longitudh muy peque˜na. Para evitarlo lo que se hace es determinaryn+1 como un cero de la funci´on
F(y) =y− {yn+
h
2(f(xn, yn) +f(xn+1, y))} mediante el m´etodo de Newton.
• Euler mejorado. Para evitar el coste computacional derivado del car´acter impl´ıcito de la regla del trapecio, podemos sustituir el valor yn+1 en el lado
derecho de (1.13) por una aproximaci´on de ese valor dada por el m´etodo de Euler, y∗ n+1 =yn+hf(xn, yn), de manera que yn+1 =yn+ h 2 ¡ f(xn, yn) +f(xn+1, yn∗+1) ¢ .
El m´etodo resultante, que es expl´ıcito, se conoce como m´etodo de Euler me-jorado. Requiere dos evaluaciones de funci´on por paso, lo que queda a´un m´as claro si lo escribimos de la siguiente forma:
k1 =f(xn, yn), k2 =f(xn+h, yn+hk1), yn+1 =yn+h µ k1 2 + k2 2 ¶ .
• Euler modificado. Si calculamos la integral de (1.12) por medio de la regla del punto medio, se tiene que
y(xn+1)−y(xn)≈hf µ xn+ h 2, y µ xn+ h 2 ¶¶ .
Como no conocemos el valory(xn+h2), lo aproximamos por el m´etodo de Euler. Llegamos finalmente a y(xn+1)≈y(xn) +hf µ xn+ h 2, y(xn) + h 2f(xn, y(xn)) ¶ .
El m´etodo de Euler modificado se obtiene imponiendo que esta relaci´on se satisfaga de forma exacta,
yn+1 =yn+hf µ xn+ h 2, yn+ h 2f(xn, yn) ¶ .
Este m´etodo se suele escribir bajo la forma alternativa
k1 =f(xn, yn), k2 =f µ xn+ h 2, yn+h k1 2 ¶ , yn+1 =yn+hk2.
•M´etodo leap-frog (regla del punto medio). Si integramos la EDO en (xn, xn+2)
y usamos la regla del punto medio, se tiene que
y(xn+2)−y(xn) =
Z xn+2 xn
f(x, y(x))dx≈2hf(xn+1, y(xn+1)),
lo que da lugar al m´etodo leap-frog, tambi´en conocido como regla del punto medio,
yn+2 =yn+ 2hf(xn+1, yn+1), (1.14)
Como vemos, para calcular yn+2 se utilizan dos valores anteriores, yn e yn+1,
y no uno s´olo, como en los m´etodos vistos hasta ahora. Diremos que es un m´etodo de dos pasos. Necesitaremos por tanto dos valores de arranque, y0 e
y1. Para y0 tomamos un valor pr´oximo al dato inicial, y0 ≈ y(0). El valor de
y1 se tendr´a que obtener por otro procedimiento, por ejemplo por el m´etodo
de Euler.
Tambi´en se puede llegar al m´etodo leap-frog a trav´es de la diferenciaci´on num´erica. En efecto, si en lugar de usar la f´ormula de orden uno
y0(x)≈ y(x+h)−y(x)
como hicimos para obtener el m´etodo de Euler, usamos la f´ormula de diferen-cias centradas
y0(x)≈ y(x+h)−y(x−h)
2h ,
que es una aproximaci´on de orden 2, se tiene que
f(xn+1, y(xn+1)) = y0(xn+1)≈
y(xn+2)−y(xn)
2h ,
lo que da lugar al m´etodo (1.14).
•Regla de Simpson. Si integramos la EDO en (xn, xn+2) y usamos la regla de
Simpson obtenemos que
y(xn+2)−y(xn)≈
h
3(f(xn, y(xn)) + 4f(xn+1, y(xn+1)) +f(xn+2, y(xn+2))). Esta aproximaci´on conduce al m´etodo num´erico,
yn+2−yn =
h
3(f(xn, yn) + 4f(xn+1, yn+1) +f(xn+2, yn+2)), conocido comoregla de Simpson, que tambi´en es un m´etodo de dos pasos. •M´etodo de colocaci´on de par´ametro c1 = 1/2. Buscamos un polinomio u de
grado 1 tal que
u(xn) = yn, u0(xn+c1h) =f(xn+c1h, u(xn+c1h));
es decir, pedimos que u tome un cierto dato inicial y que sea soluci´on de la EDO en el punto de colocaci´on x = xn +c1h. Puesto que u0 es constante,
tenemos que u0(x) = k
1 ≡ f(xn+c1h, u(xn+c1h)), que integrado en (xn, x)
produce
u(x) = yn+k1(x−xn).
Si definimos yn+1 =u(xn+1), se tiene que yn+1 = yn+hk1, siendo k1 soluci´on
de k1 =f µ xn+ h 2, yn+h k1 2 ¶ .
• Adams-Bashforth de dos pasos. Si integramos la EDO en (xn+1, xn+2), se tiene que y(xn+2)−y(xn+1) = Z xn+2 xn+1 f(x, y(x))dx. (1.15) Aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que uno que interpola a f(x, y(x)) en los nodos xn y xn+1,
f(x, y(x))≈f(xn, y(xn)) x−xn+1 xn−xn+1 +f(xn+1, y(xn+1)) x−xn xn+1−xn , de forma que y(xn+2)−y(xn+1)≈ h 2(3f(xn+1, y(xn+1))−f(xn, y(xn))). Llegamos al m´etodo yn+2−yn+1 = h 2(3f(xn+1, yn+1)−f(xn, yn)), conocido comom´etodo de Adams-Bashforth de dos pasos.
• Adams-Moulton de dos pasos. Si sustituimos el integrando en (1.15) por el polinomio de grado menor o igual que dos que interpola a f(x, y(x)) en los nodos xn, xn+1 y xn+2, f(x, y(x))≈f(xn, y(xn)) (x−xn+1)(x−xn+2) (xn−xn+1)(xn−xn+2) +f(xn+1, y(xn+1)) (x−xn)(x−xn+2) (xn+1−xn)(xn+1−xn+2) +f(xn+2, y(xn+2)) (x−xn)(x−xn+1) (xn+2−xn)(xn+2−xn+1) , llegamos a y(xn+2)−y(xn+1)≈ h 12(5f(xn+2, y(xn+2)) + 8f(xn+1, y(xn+1))−f(xn, y(xn))), y finalmente al m´etodo yn+2−yn+1 = h 12(5f(xn+2, yn+2) + 8f(xn+1, yn+1)−f(xn, yn)), (1.16)
conocido comom´etodo de Adams-Moulton de dos pasos.
•Predictor-corrector AB2/AM2. Podemos combinar los dos m´etodos anterio-res para obtener un nuevo m´etodo: en primer lugar predecimos un valor de
yn+2 mediante el m´etodo de Adams-Bashforth de dos pasos y a continuaci´on
locorregimos usando esta cantidad para calcular el lado derecho de (1.16),
y∗
n+2 =yn+1+h2(3f(xn+1, yn+1)−f(xn, yn)),
yn+2 =yn+1+12h(5f(xn+2, y∗n+2) + 8f(xn+1, yn+1)−f(xn, yn)).
El m´etodo resultante, expl´ıcito y de dos pasos, es un par predictor-corrector. El m´etodo de Euler mejorado tambi´en se puede ver como un par predictor-corrector.
•BDF de 2 pasos. Dadasyn e yn+1 queremos obtener yn+2. Consideramos el
polinomioQn,2 de grado menor o igual que 2 que interpola a yn, yn+1 e yn+2,
es decir Qn,2(x) = yn (x−xn+1)(x−xn+2) (xn−xn+1)(xn−xn+2) +yn+1 (x−xn)(x−xn+2) (xn+1−xn)(xn+1−xn+2) +yn+2 (x−xn)(x−xn+1) (xn+2−xn)(xn+2−xn+1) .
Este polinomio no se puede construir, porque desconocemos yn+2. Se impone
ahora queQn,2 satisfaga la ecuaci´on diferencial en xn+2, esto es
Q0n,2(xn+2) =f(xn+2, Qn,2(xn+2)) =f(xn+2, yn+2). El m´etodo resultante, yn+2− 4 3yn+1+ 1 3yn = 2 3hf(xn+2, yn+2),
impl´ıcito y de dos pasos, se conoce como f´ormula BDF de 2 pasos.
Problemas
1. Construir el m´etodo de Taylor de orden 3 para d = 1 y el de orden 2 para d= 2.
2. Comprobar que el m´etodo de Taylor de orden 3 aplicado al problema y0 = 2xy, y(0) = 1, lleva a la iteraci´on yn+1 =yn+h ¡ 2xnyn+yn(1 + 2x2n)h+ 2xnyn(3 + 2x2n) h2 3 ¢ .
3. Si integramos la EDO en (xn, xn+1) y aplicamos la regla de Simpson,
obtenemos que y(xn+1)−y(xn)≈ h 6(f(xn, y(xn))+4f(xn+12, y(xn+12)+f(xn+1, y(xn+1))), dondexn+1 2 =xn+ h
2. Como no conocemos el valor dey(xn+1
2),
aproxima-mos esta cantidad por Euler,y(xn+1
2)≈y(xn) + h
2f(xn, y(xn)). Tampoco
conocemos el valor de y(xn+1). Para estimarlo podemos avanzar a partir
de xn utilizando una media ponderada de las dos pendientes
calcula-das hasta ahora, k1 =f(xn, y(xn)), k2 =f(xn+1
2, y(xn) + h
2k1); es decir,
tomamos y(xn+1)≈y(xn) +h(αk1+βk2). Llegamos as´ı al m´etodo
k1 =f(xn, yn), k2 =f(xn+ 2h, yn+h2k1), k3 =f(xn+h, yn+h(αk1+βk2)) yn+1 =yn+h6(k1+ 4k2+k3).
Determinar α y β para que Rn=O(h4). El m´etodo resultante se conoce
como m´etodo de Runge-Kutta cl´asico. 4. Consideramos la igualdad
y(xn+k)−y(xn+k−1) =
Z xn+k
xn+k−1
f(t, y(t))dt.
Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k−1 que interpola a f(t, y(t)) en los nodos
xn, . . . , xn+k−1, y pedimos que la aproximaci´on yn satisfaga la relaci´on
resultante exactamente, se obtiene el m´etodo de Adams-Bashforth de k
Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k que interpola a f(t, y(t)) en los nodos
xn, . . . , xn+k, y pedimos que la aproximaci´on yn satisfaga la relaci´on
re-sultante exactamente, se obtiene el m´etodo de Adams-Moulton de k pa-sos.
Construir los m´etodos de Adams-Bashforth y Adams-Moulton de 1 y 3 pasos, obteniendo una expresi´on para el residuo a partir del error de interpolaci´on. 5. Consideramos la igualdad y(xn+k)−y(xn+k−2) = Z xn+k xn+k−2 f(t, y(t))dt.
Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k−1 que interpola a f(t, y(t)) en los nodos
xn, . . . , xn+k−1, y pedimos que la aproximaci´on yn satisfaga la relaci´on
resultante exactamente, se obtiene el m´etodo de Nystrom de k pasos. Obtener los m´etodos de Nystrom de 2 y 3 pasos.
6. Obtener una aproximaci´on de orden 4 de la derivaday0(x) a partir de los
valores y(x+ 2h), y(x+h), y(x), y(x−h) e y(x−2h). Utilizarla para construir un m´etodo de cuatro pasos para resolver problemas de valor inicial para EDOs. Obtener una expresi´on para el residuo.
7. Dadas las aproximacionesyn, . . . , yn+k−1, consideramos el polinomioQn,k
de grado menor o igual que k que interpola a yn, . . . , yn+k.
Obviamen-te esObviamen-te polinomio no se puede construir, porque desconocemos yn+k. Se
impone ahora que Qn,k satisfaga la ecuaci´on diferencial en xn+k, esto es
Q0n,k(xn+k) =f(xn+k, Qn,k(xn+k)) =f(xn+k, yn+k).
El m´etodo resultante se conoce comof´ormula BDF de k pasos. Construir las f´ormulas BDF de 1 y 3 pasos.
8. Dados ν par´ametros, c1, . . . , cν (preferiblemente en [0,1], aunque no es
vectoriales) tal que
u(xn) =yn, u0(xn+cjh) = f(xn+cjh, u(xn+cjh)), j = 1, . . . , ν.
En otras palabras, u satisface la condici´on inicial y tambi´en la EDO en ν puntos distintos. Un m´etodo de colocaci´on consiste en calcular u y tomar yn+1 = u(xn+1). Los par´ametros c1, . . . , cν son los par´ametros de
colocaci´on.
Obtener el m´etodo de colocaci´on que corresponde a los par´ametros de colocaci´on c1 = 1/3,c2 = 2/3.
1.4.
Convergencia
Todos los m´etodos de la secci´on anterior se pueden escribir en la forma
k
X
j=0
αjyn+j =hφf(xn, yn, . . . , yn+k−1;h), n= 0, . . . , N −k, (1.17)
dondeφf, lafunci´on de incremento, depende de sus argumentos a trav´es de la
funci´onf (y a veces, como en los m´etodos de Taylor, tambi´en de sus derivadas). Ejemplos. Para el m´etodo de Eulerφf(xn, yn;h) = f(xn, yn). Para la regla del
trapecioφf viene definida impl´ıcitamente por
φf(xn, yn;h) =
f(xn, yn) +f(xn+h, yn+hφf(xn, yn;h))
2 . (1.18)
Si la funci´on de incrementoφf se puede expresar expl´ıcitamente en t´erminos
def (y tal vez de sus derivadas), el m´etodo es expl´ıcito. En caso contrario, el m´etodo esimpl´ıcito.
El m´etodo (1.17) se dice dek pasos, pues se necesitank valores anteriores,
yn, . . . , yn+k−1, para calcular yn+k. Por consiguiente, es necesario disponer de
s´olo proporciona y0. Si k ≥ 2 habr´a que obtener los k −1 valores de
arran-que restantes por alg´un otro procedimiento, como puede ser por desarrollo de Taylor, utilizando un m´etodo de un s´olo paso, etc.
Supondremos que αk = 1, eliminando as´ı la arbitrariedad que surge del
hecho de que podemos multiplicar ambos lados de (1.17) por un mismo n´umero distinto de cero sin cambiar el m´etodo. Supondremos tambi´en que, o bien
α0 6= 0, o bien φf depende de yn de forma no trivial. Excluimos as´ı m´etodos
como por ejemplo
yn+2−yn+1 =hf(xn+1, yn+1),
que es esencialmente de 1 paso, y no de 2, y que se puede escribir como
yn+1−yn=hf(xn, yn).
Para todos los ejemplos de la secci´on anterior φf satisface las siguientes
propiedades: (i) es continua; (ii) existen constantes h0 y L tales que
kφf(xn, yn, . . . , yn+k−1;h)−φf(xn,yˆn, . . . ,yˆn+k−1;h)k ≤L k−1 X j=0 kyn+j −yˆn+jk (1.19) para todo 0< h < h0; y (iii) sif = 0, entoncesφf = 0. En lo que sigue, siempre
que consideremos un m´etodo de la forma (1.17) supondremos que verifica estas tres condiciones.
¿Dan los m´etodos (1.17) una buena aproximaci´on a la verdadera soluci´on del problema (1.2)? Una medida posible de la bondad de la aproximaci´on es el mayor error cometido,
m´ax
0≤n≤Nky(xn)−ynk.
¿Se hace el error cada vez m´as peque˜no a medida que la malla va teniendo m´as puntos? Si esto es as´ı diremos que el m´etodo es convergente.
Definici´on 1.4. Un m´etodo (1.17) se dice convergente si para todo problema de valor inicial(1.2)conf continua enD= [a, b]×Rd y Lipschitz con respecto
a su segunda variable en D se tiene que l´ım
N→∞km´ax≤n≤Nky(xn)−ynk= 0 si Nl´ım→∞0≤m´axn≤k−1ky(xn)−ynk= 0.
Observaci´on. La condici´on l´ım
N→∞0≤m´axn≤k−1ky(xn)−ynk = 0 sobre los valores
de arranque es equivalente a pedir que l´ım
h→0+yn=y(x0) para n= 0, . . . , k−1.
Estamos pidiendo que los valores de arranque,{yn}kn−=01, aproximen bien al dato
inicialy(x0); si esto no es as´ı no hay por qu´e esperar que la soluci´on num´erica
se parezca a la te´orica.
Problemas
1. Para cada uno de los m´etodos de la secci´on 1.3, demostrar que si f es continua en D y Lipschitz con respecto a su segunda variable en D, entonces la correspondiente funci´on de incremento satisface la condici´on de Lipschitz (1.19). En el caso del m´etodo de Taylor de orden 2 se supone adem´as que todas las derivadas parciales de orden 2 de f existen y est´an acotadas en D.
2. Sea y la soluci´on del problema (1.2) y sea yI la funci´on continua lineal
a trozos que pasa por los puntos (xn, yn), n = 0, . . . , N, donde {yn} es
una soluci´on num´erica del problema. Una medida alternativa del error cometido viene dada por m´ax
a≤x≤bky(x)−y I(x)k
∞. Hallar una cota para
esta cantidad en t´erminos de m´ax
0≤n≤Nky(xn)−ynky de h, suponiendo que
f ∈C1([a, b]×Rd).
1.5.
0-estabilidad
Salvo en casos excepcionales, la verdadera soluci´on no satisface la recurren-cia (1.17) que define el m´etodo num´erico, sino la recurrenrecurren-cia m´as una peque˜na perturbaci´on,
k
X
j=0
La cantidad Rn, el residuo, es lo que le falta a la soluci´on te´orica para ser
soluci´on del m´etodo num´erico.
Por cierto, la soluci´on producida por el ordenador tampoco es soluci´on de la ecuaci´on del m´etodo, pues los errores de redondeo introducen peque˜nas per-turbaciones. Por otra parte, φf(xn,yˆn, . . . ,yˆn+k−1;h) en general no se calcula
exactamente, sino s´olo de forma aproximada. As´ı que en realidad el ordenador produce una soluci´on {yˆn} de una recurrencia perturbada
k P j=0 αjyˆn+j =h ¡ φf(xn,yˆn, . . . ,yˆn+k−1;h) +εn ¢ +µn, n = 0, . . . , N −k, ˆ yn=yn+µn, n = 0, . . . , k−1,
dondeεn es el error cometido en el c´alculo de φf(xn,yˆn, . . . ,yˆn+k−1;h) yµn es
el error de redondeo.
Para que el m´etodo sirva para algo, necesitamos quey(xn) e ˆyn
permanez-can pr´oximas si las perturbacionesRnyµnson peque˜nas. Esto es, nos gustar´ıa
que el m´etodo num´erico fuese estable. Esto motiva la siguiente definici´on.
Definici´on 1.5. Un m´etodo (1.17) se dice 0-estable si para cada problema de valor inicial (1.2) con f continua en D y Lipschitz con respecto a su segunda variable en D existe una constante C > 0 tal que para cada dos sucesiones {un}Nn=0 y {vn}Nn=0 satisfaciendo k P j=0 αjun+j −hφf(xn, un, . . . , un+k−1;h) =hδn, k P j=0 αjvn+j−hφf(xn, vn, . . . , vn+k−1;h) =hγn, 0≤n ≤N −k, se verifica que m´ax k≤n≤Nkun−vnk ≤C µ m´ax 0≤n≤k−1kun−vnk+0≤m´axn≤N−kkδn−γnk ¶ . (1.21)
sean {un}Nn=0 y {vn}Nn=0 satisfaciendo
un+1 =un+hφf(xn, un;h) +hδn,
vn+1 =vn+hφf(xn, vn;h) +hγn,
n= 0, . . . N −1. (1.22)
Restando ambas ecuaciones, tomando normas y usando la condici´on de Lips-chitz (1.19), se tiene que en=kun−uˆnk verifica
en+1 ≤ en+hkφf(xn, un;h)−φ(xn, vn;h)k+hkδn−γnk
≤ (1 +Lh)en+hkδn−γnk.
A partir de aqu´ı se demuestra f´acilmente por inducci´on que kun−vnk ≤eL(xn−x0)ku0−v0k+eL(xn−x0)(xn−x0) m´ax
0≤n≤N−1kδn−γnk, (1.23)
de donde se sigue inmediatamente que el m´etodo es 0-estable.
Como corolario de la definici´on de 0-estabilidad se tiene el siguiente resul-tado de convergencia.
Corolario 1.6. Si un m´etodo (1.17) es 0-estable y
τ := m´ax
0≤n≤N−kkRnk/h→0 cuando h→0
+,
entonces el m´etodo converge.
Prueba. Basta con tomar un = y(xn), δn = Rn/h, vn = yn y γn = 0 en la
definici´on de 0-estabilidad.
Apliquemos el corolario al m´etodo de Euler. Es 0-estable, pues es de un paso con α0 =−1. Por otra parte,
Rn/h=
y(xn+1)−y(xn)
h −f(xn, y(xn)) =y
0(ξ
n)−y0(xn).
usando la continuidad uniforme dey0(x) en [a, b] se concluye queτ →0, y por
tanto la convergencia. La convergencia de la regla del trapecio se obtiene de forma similar.
Si f es m´as regular se tiene algo mejor. Por ejemplo, si f ∈ C1, R
n =
y00(ξ
n)h2/2 y, utilizando (1.23), se llega a la cota para el error
ky(xn)−ynk ≤eL(b−a)ky(x0)−y0k+eL(b−a)(b−a)Ch, (1.24)
donde C = 12m´axx∈[a,b]ky00(x)k y L > 0 es una constante de Lipschitz para f
con respecto a su segunda variable.
An´alogamente, sif ∈C2, para la regla del trapecio tenemos que
Rn = y(xn+1)− {y(xn) + h2[f(xn, y(xn)) +f(xn+1, y(xn+1))]} = y(xn) +hy0(xn) + h 2 2 y 00(x n) + h 3 3!y 000(ξ n) −{y(xn) + h2[y0(xn) +y0(xn) +hy00(xn) + h 2 2 y 000(η n)]} = ³y000(ξn) 3! − y000(η n) 4 ´ h3,
de donde se deduce que
ky(xn)−ynk ≤eL(b−a)ky(x0)−y0k+eL(b−a)(b−a)Ch2, (1.25)
donde L >0 es una constante de Lipschitz para f con respecto a su segunda variable y
C = 5
12xm´ax∈[a,b]ky
000(x)
k.
La constantes que aparecen en las cotas anteriores se pueden estimar utili-zando la ecuaci´on diferencial.
Ejemplo. Sea y la soluci´on de y0 = sen (exp(y)) en [0,1], y(0) = 0. Queremos
estimary00 sin conocer y. Para ello derivamos la EDO,
y00= cos(exp(y)) exp(y)y0 = cos(exp(y)) exp(y) sen (exp(y)).
Para acotar el factor exponencial tenemos que tener una idea del tama˜no de
y. Dado que |y0| ≤1 tenemos que |y| ≤x≤1. Concluimos que |y00| ≤e.
La cotas (1.24) y (1.25) en general sobreestiman el error en muchos ´ordenes de magnitud, y no se deben por tanto utilizar en la pr´actica. Sin embargo
dan una informaci´on importante: el error del m´etodo de Euler es una O(h), siempre y cuandoky(x0)−y0k=O(h) y el de la regla del trapecio una O(h2),
siky(x0)−y0k=O(h2). Eso motiva la siguiente definici´on.
Definici´on 1.7. El m´etodo num´erico (1.17) es convergente de orden p si este es el mayor entero tal que para todo problema(1.2) conf ∈Cp(D) y Lipschitz
con respecto a su segunda variable en D se tiene que m´ax k≤n≤Nky(xn)−ynk=O(h p) si m´ax 0≤n≤k−1ky(xn)−ynk=O(h p) cuando h→0+.
Con esta definici´on, el m´etodo de Euler es convergente de orden al menos uno y la regla del trapecio de orden al menos de orden 2. Para ver que el m´etodo de Euler no es convergente de orden 2 lo aplicamos al problema
y0(x) =x para x∈[0, b], y(0) = 0,
cuya soluci´on exacta es y(x) = x2/2. Si tomamos valor de arranque y 0 = 0 tenemos que y1 = y0+hx0 = 0, y2 = y1+hx1 =h2, y3 = y2+hx2 =h2(1 + 2) ... yn = h2(1 +· · ·+ (n−1)). Es decir, yn= x2 n 2 − xnh 2 , y por tanto m´ax 1≤n≤Nky(xn)−ynk= m´ax1≤n≤Nkxnh/2k=bh/2.
Cuando h → 0 el error tiende a cero, pero lo hace como h y no como h2. De
forma parecida se prueba que la regla del trapecio no tiene orden de conver-gencia 3.
La regla del trapecio tiene un orden de convergencia mayor que el m´etodo de Euler. Pero, ¡cuidado!, el orden no lo es todo. Aunque en un m´etodo de orden alto en principio hay que dar menos pasos, ´estos pueden ser muy costosos; puede ser preferible un m´etodo de orden m´as bajo, en el que, a pesar de dar m´as pasos, cada uno de ellos lleve menos trabajo computacional.
Que un m´etodo sea de orden p significa que para todos los problemas ra-zonables el error que se comete con el m´etodo es de ese orden. Pero puede suceder que para alg´un problema concreto el m´etodo sea mejor.
Ejemplo. Consideramos el problema
y0(x) = 1, y(0) = 0,
cuya soluci´on exacta esy(x) = x. Aplicando Euler con valor de arranquey0 = 0
tenemos yn+1 =yn+h, y por tanto yn =nh= xn. Euler nos da por tanto la
soluci´on para este problema sin ning´un error.
Problemas
1. Consideramos un m´etodo de un s´olo paso con|α0|>1. Demostrar que no
es 0-estable. Indicaci´on: Aplicarselo a un problema conf = 0 y valores de arranque y0 = 0 e ˆy0 =h.
2. Suponiendo s´olo que f es continua en D y Lipschitz con respecto a su segunda variable en D, demostrar que l´ım
h→0+τ = 0 para la regla del
tra-pecio.
3. Consideramos la ecuaci´on escalary0 = arctan y. Encontrar una cota para
y00 e y000 en el intervalo [0,1] sin hallar y expl´ıcitamente.
4. Consideramos el problema de valor inicialy0(x) =x(seny(x))2,x∈[0,1],
y(0) = 1. Si se resuelve por el m´etodo de Euler, ¿qu´e valor dehhabr´a que tomar para garantizar un error menor que 10−3? ¿Y si se usa la regla del
trapecio?
6. Construir todos los m´etodos convergentes de orden 2 de la forma
yn+1 =yn+hf(xn+αh, yn+αhf(xn+βh, yn+βhf(xn, yn))).
Comprobar que ninguno tiene orden de convergencia 3. ¿Tiene alguno orden de convergencia 3 para el problema y0 =y en [0, b], y(0) = 1?
7. Calcular la soluci´on te´orica del problema de valor inicial
y0(x) = m´ın(y(x),2), 0≤x≤2, y(0) = 1,
y aproximarla mediante el m´etodo de Euler. Comprobar que la soluci´on num´erica converge a la te´orica. ¿Es la convergencia de orden 1?
8. Consideramos un m´etodo de un paso con α0 = −1. Sean {un}Nn=0 y
{vn}Nn=0 satisfaciendo (1.22) Demostrar que existe una constante C > 0
tal que m´ax 0≤n≤Nkun−vnk ≥C0≤m´axn≤N−1k NX−1 j=0 (δj −γj)k.
Concluir de lo anterior que si existe un problema de valor inicial tal que
Rn = Chp+1, entonces el m´etodo no puede tener orden de
convergen-cia mayor que p. Como aplicaci´on, demostrar que el m´etodo de Euler modificado no es convergente de orden 3.
9. Supongamos que los errores de evaluaci´on de φf est´an acotados por ε y
los de redondeo por µ. Si el m´etodo es 0-estable, dar una cota para el error m´ax
k≤n≤Nky(xn)−yˆnky obtener el valor dehque minimiza dicha cota.
1.6.
Consistencia
La 0-estabilidad garantiza que si l´ım
h→0+τ = 0, el m´etodo converge. Esto
motiva la siguiente definici´on.
Definici´on 1.8. Un m´etodo de la forma (1.17) es consistente si para todo problema (1.2) con f continua en D y f Lipschitz con respecto a su segunda
variable enD se tiene que
l´ım
h→0+τ = 0.
¿Qu´e tiene que satisfacer un m´etodo para ser consistente? El siguiente resultado da una caracterizaci´on completa.
Teorema 1.9. Un m´etodo (1.17) es consistente si y s´olo si
k X j=0 αj = 0 (1.26) y adem´as φf(x, y(x), . . . , y(x); 0) = Ã k X j=0 jαj ! f(x, y(x)). (1.27)
Prueba. Aplicamos el m´etodo (1.17) al problema
y0(x) = 0, y(0) = 1,
cuya soluci´on esy(x) = 1. Puesto que f = 0, entonces φf = 0, y se tiene que
l´ım h→0+ Rn h = k X j=0 αj = 0
si el m´etodo es consistente, es decir, (1.26).
Consideramos ahora el problema general (1.2) y lo integramos num´erica-mente en el intervalo [a, x], conx∈(a, b]. Si se cumple (1.26), entonces
Rn h = 1 h k X j=0 αjy(xn+j)−φf(xn, y(xn), . . . , y(xn+k−1);h) = 1 h k X j=0 αj¡y(xn) +jhy0(ξn,j) ¢ −φf(xn, y(xn), . . . , y(xn+k−1);h) = k X j=0 jαjy0(ξn,j)−φf(xn, y(xn), . . . , y(xn+k−1);h) = k X j=0 jαjf(ξn,j, y(ξn,j))−φf(xn, y(xn), . . . , y(xn+k−1);h), (1.28)
dondexn ≤ξn,j ≤xn+j. Si el problema es consistente, pasando al l´ımiteh→0+
paran = 0 se tiene (1.27) conx=a; haciendo lo mismo para n =N −k,
RN−k h = k X j=0 jαjf(ξN−k,j, y(ξN−k,j))−φf(xN−k, y(xN−k), . . . , y(xN−1);h) → k P j=0 jαjf(x, y(x))−φf(x, y(x), . . . , y(x); 0),
de donde, si el m´etodo es consistente, se obtiene (1.27) parax∈(a, b] . Veamos el rec´ıproco. Supongamos que se cumplen las condiciones (1.26) y (1.27). Entonces, usando (1.28) se tiene que
Rn h = k X j=0 jαj φf(ξn,j, y(ξn,j), . . . , y(ξn,j); 0)−φf(xn, y(xn), . . . , y(xn+k−1);h) k P j=0 jαj .
Utilizando la continuidad uniforme deyyφf sobre compactos, se concluye que
τ →0.
Ejemplo. Los m´etodos de un paso son consistentes si y s´olo si
α0 =−1 y φf(x, y(x); 0) =f(x, y(x)).
Usando (1.18) es f´acil ver que la regla del trapecio cumple estas dos condiciones; por tanto es consistente.
Ejemplo. Consideramos el m´etodo
yn+2+yn+1−2yn=h¡5f(xn+1, y(xn+1))−2f(xn, y(xn))¢. (1.29) Se tiene φf(xn, yn, yn+1;h) = 5f(xn + h, yn+1) − 2f(xn, yn), 2 P j=0 αj = 0 y 2 P j=0
jαj = 3. Por consiguiente, φf(x, y, y; 0) = 3f(x, y). As´ı pues, el m´etodo
es consistente.
Si un m´etodo es 0-estable y adem´as τ = O(hp) cuando h → 0+, entonces
Definici´on 1.10. Un m´etodo de la forma (1.17) es consistente de orden p si este es el mayor entero tal que para todo problema (1.2) con f ∈ Cp(D) y
f Lipschitz con respecto a su segunda variable en D se tiene que τ = O(hp)
cuando h→0+.
Ejemplo. Si f ∈C2, la regla del punto medio (1.14) tiene residuo
Rn = y(xn+2)−y(xn)−2hf(xn+1, y(xn+1)) = y(xn+2)−y(xn)−2hy0(xn+1) = ¡y(xn) +y0(xn)(2h) + 2!1y00(xn)(2h)2+3!1y000(ξn)(2h)3 ¢ −y(xn)−2h¡y0(xn) +y00(xn)h+ 2!1y000(ηn)h2¢ = ¡4 3y 000(ξ n)−y000(ηn)¢h3,
con xn ≤ ξn ≤ xn+2 y xn ≤ ηn ≤ xn+1. As´ı pues, τ = O(h2), y el m´etodo es
consistente de orden al menos 2.
Si aplicamos el m´etodo al problema
y0(x) = x
2
2 , 0≤x≤b, y(0) = 0, (1.30)
cuya soluci´on, y(x) = x3/3!, verifica que y000(x) = 1, se tiene que R
n = h3/3.
As´ı pues,τ =h2/3, y el m´etodo no es consistente de orden 3.
Problemas
1. Decidir si los m´etodos de la secci´on 1.3 son consistentes y en caso afir-mativo determinar el orden de consistencia.
2. Determinar qu´e condiciones deben cumplir las constantesαyβ para que el m´etodo
yn+1 =yn+αhf(xn, yn) +βhf(xn+1, yn+1)
sea: (i) consistente; (ii) consistente de orden al menos uno; y (iii) con-sistente de orden al menos dos. ¿Es concon-sistente de orden 3 para alguna elecci´on de α y β?
3. a) Hallar el orden de consistencia del m´etodo yn+1 =yn− 5 2hf(xn, yn) + 7 2hf(xn+ h 7, yn+ h 7f(xn, yn)).
b) Escribir la funci´on de incremento φf y comprobar que cumple la
con-dici´on (1.19).
4. Repetir el ejercicio anterior para el m´etodo
yn+1 =yn+hf(xn+ (1−θ)h, θyn+ (1−θ)yn+1),
donde θ ∈[0,1].
1.7.
Criterio de la ra´ız
Si un m´etodo de un paso es consistente, es 0-estable, y por tanto conver-gente. ¿Sucede lo mismo con los m´etodos de m´as de un paso? La respuesta es que no.
Ejemplo. Consideramos el m´etodo (1.29). Se lo aplicamos al problema m´as simple que uno pueda imaginar,
y0(x) = 0, a≤x≤b, y(a) = 0,
cuya soluci´on esy(x) = 0. El m´etodo en este caso queda
yn+2+yn+1−2yn= 0.
Para que yn = λn sea soluci´on de esta recurrencia, λ tiene que ser ra´ız del
polinomio ρ(ζ) = ζ2 +ζ −2. As´ı, λ debe ser 1 o −2, lo que da lugar a las
soluciones yn= 1, yn = (−2)n. La soluci´on general de la recurrencia ser´a una
combinaci´on lineal de estas dos soluciones,
Consideramos las solucionesun = 0 y vn =h(−2)n. Se tiene que δn = 0 =γn y que m´ax 0≤n≤1kun−vnk= 2h. Sin embargo, m´ax 2≤n≤Nkun−vnk=h2 N = b−a N 2 N → ∞,
luego (1.21) no se cumple para ning´un C.
Como se ve en este ejemplo, la 0-estabilidad est´a relacionada con el tama˜no de las ra´ıces del polinomio
ρ(ζ) =
k
X
j=0
αjζj,
conocido comoprimer polinomio caracter´ısticodel m´etodo, que es el polinomio asociado a la recurrencia que se obtiene al aplicar el m´etodo a problemas con
f = 0. Esto motiva la siguiente definici´on.
Definici´on 1.11. Se dice que un m´etodo(1.17)satisface lacondici´on de la ra´ız si todas las ra´ıces del primer polinomio caracter´ıstico tienen m´odulo menor o igual que 1, y aquellas que tienen m´odulo 1 son simples.
Observaci´on. Si un m´etodo es consistente, una de las ra´ıces de ρ(ζ) debe ser 1. ´Esta es la ra´ız principal, a la que se etiqueta como ζ1. Las restantes ra´ıces,
ζi, i = 2, . . . , k, son las llamadas ra´ıces espurias; surgen porque decidimos
representar un sistema diferencial de primer orden por un sistema en diferencias de orden k. Obviamente, los m´etodos consistentes con k = 1 no tienen ra´ıces espurias, y satisfacen por tanto la condici´on de la ra´ız.
La 0-estabilidad resulta ser equivalente a que se satisfaga la condici´on de la ra´ız.
Teorema 1.12.Un m´etodo(1.17)es0-estable si y s´olo si satisface la condici´on de la ra´ız.
Prueba. Consideramos el problema de valor inicial con f = 0 y tomamos dos soluciones un y vn de la ecuaci´on en diferencias sin perturbar
k
X
j=0
αjun+j = 0. (1.31)
Si el m´etodo es 0-estable, existe una constanteC tal que m´ax
k≤n≤Nkun−vnk ≤C0≤m´axn≤k−1kun−vnk.
Veamos que esto es imposible si no se satisface la condici´on de la ra´ız.
(i) Supongamos que existe ξ tal que |ξ| > 1 y ρ(ξ) = 0. Las sucesiones
un= 0 y vn =hξn son soluci´on de la ecuaci´on en diferencias (1.31). Tenemos
que m´ax k≤n≤Nkun−vnk=h|ξ| N = b−a N |ξ| N → ∞, mientras que, m´ax 0≤n≤k−1kun−vnk= m´ax0≤n≤k−1h|ξ| n ≤ b−a N |ξ| k−1.
As´ı pues, el m´etodo no es 0-estable.
(ii) Supongamos que existe ξ tal que |ξ| = 1, ρ(ξ) = 0 = ρ0(ξ). Las
suce-siones un = 0 y vn =
√
hnξn son soluci´on de la ecuaci´on en diferencias (1.31)
(n´otese que ξ es ra´ız doble). Entonces m´ax k≤n≤Nkun−vnk= √ hN|ξ|N =√b−a√N → ∞, mientras que m´ax 0≤n≤k−1kun−vnk= m´ax0≤n≤k−1 √ hn|ξ|n ≤ √ b−a √ N (k−1), y el m´etodo no es 0-estable.
Veamos ahora que si el m´etodo cumple la condici´on de la ra´ız, entonces es 0-estable. Damos la prueba (que se puede omitir en una primera lectura) en el caso escalar. El caso vectorial es an´alogo.
La idea es escribir el m´etodo como m´etodo de un paso. Para ello denotamos
Yn= (yn+k−1, . . . , yn)T, n= 0, . . . , N −k+ 1,
F(Yn) = (φf(xn, yn, . . . , yn+k−1; 0),0, . . . ,0)T, n= 0, . . . , N −k+ 1.
Con esta notaci´on podemos escribir el m´etodo como
Yn+1 =AYn+hF(Yn), n = 0, . . . , N −k,
dondeA es la matriz compa˜nera del primer polinomio caracter´ıstico,
A = −αk−1 −αk−2 . . . −α1 −α0 1 0 . . . 0 0 1 . .. ... . .. . .. ... ... 0 . . . 0 1 0 .
Iterando el proceso tenemos que
Yn=AnY0+h n−1 X l=0 An−1−lF(Y l).
Para las un y vn de la definici´on de estabilidad, llamando
Rn= (δn−γn,0, . . . ,0)T, n= 0, . . . , N −k,
y restando tendremos que
Un−Vn=An(U0−V0) +h n−1 X l=0 An−1−l(F(Ul)−F(Vl)) +h n−1 X l=0 An−1−lRl.
Si las potencias deA est´an todas ellas acotadas, esto es, si kAnk ≤M, n = 0,1, . . . ,
tomando normas y utilizando queφf satisface la condici´on de Lipschitz (1.19),
tenemos que kUn−Vnk ≤MkU0−V0k+hLM k n−1 X l=0 kUl−Vlk+ (b−a)M m´ax 0≤l≤N−kkδl−γlk,
desigualdad que se puede escribir como ψn ≤N+hLM k n−1 X l=0 ψl,
definiendoψn y N de la manera obvia.
Sea χn=N +hLM k nP−1
l=0
ψl. Se tiene que
χn+1−χn=hLM kψn≤hLM kχn,
de donde concluimos que
ψn ≤χn≤(1 +hLM k)n−1χ1 ≤e(n−1)hLM k(N +hLM kkU0−V0k),
y de aqu´ı la 0-estabilidad.
Para que las potencias de A est´en todas acotadas es necesario y suficiente que las ra´ıces del polinomioρ sean de m´odulo menor que la unidad, y aquellas que sean de m´odulo 1 sean simples, es decir, que se cumpla el criterio de la ra´ız. Para ver esto no hay m´as que observar que los autovalores deA son las ra´ıces de ρ.
Ejemplo. El primer polinomio caracter´ıstico de la regla del punto medio (1.14) es
ρ(ζ) =ζ2−1.
Sus ra´ıces son ζ1 = 1 y ζ2 = −1, luego el m´etodo satisface la condici´on de la
ra´ız. Por consiguiente, el m´etodo es 0-estable. Como tambi´en es consistente de orden 2, es convergente de orden al menos 2.
Por otra parte, si aplicamos el m´etodo al problema (1.30), se obtiene la recurrencia
yn+2−yn =h3(n+ 1)2, n = 0, . . . , N −2,
cuya soluci´on general es
yn=c1+c2(−1)n+
h3
3!(n
3
Si tomamos valores de arranquey0 = 0 =y1, entonces yn= h3 3!(n 3 −n).
As´ı pues, m´ax
0≤n≤1ky(xn)−ynk= 0 y m´ax 2≤n≤Nky(xn)−ynk= h2 3! 2m´ax≤n≤Nkxnk= bh2 3! ; el m´etodo no es por tanto convergente de orden 3.
Problemas
1. Comprobar que los autovalores de la matriz compa˜nera del primer poli-nomio caracter´ıstico son precisamente las ra´ıces de dicho polipoli-nomio. 2. Comprobar que la condici´on necesaria y suficiente para que todas las
potencias de una matriz tengan norma uniformemente acotada es que todos sus autovalores tengan m´odulo menor o igual que uno y aquellos que tengan m´odulo uno sean simples.
3. Determinar si son 0-estables los m´etodos de la secci´on 1.3 de m´as de un paso.
4. Consideramos la familia de m´etodos
yn+3+(2α−3)yn+2−(2α−3)yn+1−yn =hα¡f(xn+2, yn+2)+f(xn+1, yn+1)¢,
dondeαes un par´ametro real. Estudiar para qu´e valores deαes 0-estable.
1.8.
Teorema de equivalencia
Hemos visto que “0-estabilidad + consistencia⇒convergencia”. ¿Es cierto el rec´ıproco?
Teorema 1.13 (Teorema de equivalencia). Un m´etodo (1.17) es conver-gente si y s´olo si es0-estable y consistente.
Prueba. En primer lugar probamos que “convergencia ⇒ criterio de la ra´ız”. Consideramos el problema
y0(x) = 0, y(0) = 0,
cuya soluci´on esy(x) = 0.
(i) Supongamos que existeξ tal que |ξ|>1 y ρ(ξ) = 0. La sucesi´on yn=hξn,
n = 0,1, . . ., es soluci´on de la ecuaci´on en diferencias y tiene condiciones de arranqueyn=hξn, n= 0, . . . , k−1; por tanto
m´ax 0≤n≤k−1ky(xn)−ynk=h|ξ| k →0. Sin embargo, m´ax k≤n≤Nky(xn)−ynk=h|ξ| N = b−a N |ξ| N → ∞ cuando h→0+,
y por tanto el m´etodo no es convergente.
(ii) Supongamos que existe ξ tal que |ξ| = 1, ρ(ξ) = 0 = ρ0(ξ). La sucesi´on
yn =
√
hnξn, n = 0,1, . . ., es soluci´on de la ecuaci´on en diferencias y tiene
condiciones de arranqueyn= √ hnξn,n = 0, . . . , k−1; por tanto m´ax 0≤n≤k−1ky(xn)−ynk= √ h(k−1)|ξ|k−1 →0. Sin embargo, m´ax k≤n≤Nky(xn)−ynk= √ hN|ξ|N =√b−a√N → ∞ cuandoh→0+, y el m´etodo no es convergente.
Veamos ahora que “convergencia⇒consistencia”. Si un m´etodo es conver-gente, en particular lo es para el problema y0(x) = 0, 0 ≤ x ≤ b, y(0) = 1,
cuya soluci´on esy(x) = 1. La aplicaci´on del m´etodo num´erico a este problema produce la recurrencia
k
X
j=0
Si tomamos valores de arranqueyn= 1, n= 0, . . . , k−1, entonces
m´ax
0≤n≤k−1ky(xn)−ynk= 0.
Por consiguiente, la convergencia implica que m´ax
k≤n≤Nk1−ynk →0,
y por tanto que l´ım
h→0+yn= 1. As´ı, pasando al l´ımite en (1.32) se llega a (1.26).
Supongamos ahora que no se cumple la condici´on (1.27),
φf(x, y(x), . . . , y(x); 0)− Ã k X j=0 jαj ! f(x, y(x)) =g(x)6≡0. Si definimos ˆ f(x, y) =f(x, y)− g(x) k P j=0 jαj , se tiene que φf(x, y(x), . . . , y(x); 0) = Ã k X j=0 jαj ! ˆ f(x, y(x)).
Combinando esto con (1.26) y la 0-estabilidad, se prueba f´acilmente que yn
converge a la soluci´on ˆy6=y de
y0(x) = ˆf(x, y(x)), a≤x≤b, y(a) =η,
¡la ecuaci´on equivocada!.
Observaci´on. Las condiciones de consistencia garantizan que estamos resol-viendo la ecuaci´on diferencial correcta, que estamos siendo consistentes con ella.
Ejemplo. La funci´on de incremento del m´etodo
viene dada impl´ıcitamente por
φf(x, y;h) = 2f(x, y) + 3f(x+h, y+hφf(x, y;h)).
As´ı,φf(x, y(x); 0) = 5f(x, y(x)), y el m´etodo no es convergente, ya que no es
consistente. Sin embargo, es 0-estable y cumple (1.26). Por lo tanto, aproxi-mar´a a soluciones de la ecuaci´ony0(x) = 5f(x, y(x)).
Problemas
1. Estudiar si son convergentes los m´etodos de la secci´on 1.3. 2. Consideramos la familia de m´etodos
yn+3+(2α−3)yn+2−(2α−3)yn+1−yn =hα
¡
f(xn+2, yn+2)+f(xn+1, yn+1)
¢ ,
donde αes un par´ametro real. Estudiar para que valores de αes conver-gente.
3. Repetir el problema anterior para la familia de m´etodos de dos pasos
yn+2−(α+ 1)yn+1+αyn= (3−7α)hf(xn+2, yn+2).
1.9.
M´
etodos lineales multipaso
El m´etodo de Euler, las reglas del trapecio, del punto medio y de Simpson, los m´etodos de Adams-Bashforth y Adams-Moulton de dos pasos y la f´ormula BDF de dos pasos obtienen las aproximaciones yn a la soluci´on del problema
de valor inicial como soluciones de recurrencias de la forma
k X j=0 αjyn+j =h k X j=0 βjf(xn+j, yn+j), n = 0, . . . , N −k. (1.33)
Los m´etodos que se pueden escribir de esta manera se conocen como m´eto-dos lineales de k-pasos, porque yn+k es una combinaci´on lineal de yn+j y
Notaci´on. Para abreviar se suele escribirfn =f(xn, yn).
La funci´on de incremento del m´etodo (1.33) viene dada por
φf(xn, yn, . . . , yn+k−1;h) = kP−1 j=0 βjf(xn+jh, yn+j) +βkf(xn+kh,− kP−1 j=0 αjyn+j+hφf(xn, yn, . . . , yn+k−1;h)).
No es dif´ıcil comprobar que φf satisface la condici´on de Lipschitz (1.19) si f
satisface una condici´on de Lipschitz con respecto a su segunda variable. Siβk = 0, el m´etodo es expl´ıcito. En este caso se puede despejar
expl´ıcita-mente cada yn+k en t´erminos de los k valores anteriores yn, . . . , yn+k−1. Si se
han almacenado los valores fn, . . . , fn+k−2, una ´unica evaluaci´on de funci´on,
fn+k−1, producir´a yn+k.
Siβk6= 0, el m´etodo es impl´ıcito. Para obteneryn+ken cada paso tendremos
que resolver la ecuaci´on no lineal
yn+k =hβkf(xn+k, yn+k) +g, (1.34)
dondeg es una funci´on conocida de los valores ya calculados,
g =
k−1
X
j=0
(hβjfn+j−αjyn+j).
Si el lado derecho de la igualdad (1.34) tiene una constante de LipschitzM con respecto ayn+k tal que M <1, entonces este sistema de ecuaciones tiene una
´
unica soluci´on yn+k, que se puede aproximar tanto como se desee por medio
de la iteraci´on
y[nν++1]k =hβkf(xn+k, y[nν+]k) +g, yn[0]+k arbitrario. (1.35)
Por el Teorema de la Aplicaci´on Contractiva, se cumple que l´ım
ν→∞y
[ν]
N´otese que, siempre que f sea Lipschitz con respecto a su segunda variable, podemos forzar que se cumpla la condici´on M < 1 tomando un valor de h
suficientemente peque˜no. Si ´este fuera demasiado peque˜no se deber´ıa optar por otro m´etodo iterativo, como el de Newton.
Ya vimos que los coeficientes αj de un m´etodo general (1.17) se pueden
especificar por medio de ρ, el primer polinomio caracter´ıstico del m´etodo. En el caso de los m´etodos lineales multipaso se define unsegundo polinomio carac-ter´ıstico, σ(ζ) = k X j=0 βjζj,
con el fin de caracterizar los coeficientes βj.
¿Qu´e condiciones deben satisfacer los coeficientes de un m´etodo lineal mul-tipaso para que sea consistente?
Si el m´etodo cumple la condici´on (1.26), entonces
φf(x, y(x), . . . , y(x); 0) = kP−1 j=0 βjf(x, y) +βkf à x,−kP−1 j=0 αjy(x) ! = k P j=0 βjf(x, y).
As´ı pues, el m´etodo ser´a consistente si y s´olo si
k X j=0 αj = 0 y k X j=0 βj = k X j=0 jαj.
En t´erminos del primer y segundo polinomio caracter´ıstico estas condiciones se escriben como
ρ(1) = 0, ρ0(1) =σ(1).
ordenp? En este caso el residuo viene dado por Rn = k P j=0 (αjy(xn+j)−hβjf(xn+j, y(xn+j)) = Pk j=0 (αjy(xn+j)−hβjy0(xn+j)), n = 0, . . . , N −k.
Si tomamos desarrollos de Taylor para y(xn+j) = y(xn +jh) e y0(xn+j) =
y0(x
n+jh) alrededor del punto x=xn,
y(xn+j) =y(xn) +y0(xn)jh+· · ·+ y(p+1)(x n)(jh)p+1 (p+ 1)! +O(h p+2), y0(x n+j) = y0(xn) +y00(xn)jh+· · ·+ y(p+1)(x n)(jh)p p! +O(h p+1), obtenemos que Rn=C0y(xn) +C1y0(xn)h+· · ·+Cp+1y(p+1)(xn)hp+1+O(hp+2), donde C0 = k X j=0 αj, C1 = k X j=0 αjj− k X j=0 βj, ... Cq = 1 q! Ã k X j=0 αjjq−q k X j=0 βjjq−1 ! , q >1.
As´ı pues, siCq = 0,q = 0, . . . , p, el m´etodo ser´a consistente de orden al menos
p. Por otra parte, si Cp+1 6= 0, el m´etodo no puede tener orden de consistencia
p+ 1. En efecto, la soluci´on del problema
y0(x) = x
p
p!, 0≤x≤b, y(0) = 0, verificay(p+1)(x) = 1, y por consiguiente R
n =Cp+1hp+1+O(hp+2)6=O(hp+2).
Si un m´etodo lineal multipaso tiene orden de consistencia p, entonces el valor Cp+1 6= 0 recibe el nombre de constante de error.
Ejemplo. El m´etodo
yn+2+yn+1−2yn=
h
4(fn+2+ 8fn+1+ 3fn) es un m´etodo lineal de dos pasos con
α0 =−2, α1 = 1, α2 = 1, β0 = 3/4, β1 = 8/4, β2 = 1/4.
Un sencillo c´alculo muestra que C0 =C1 =C2 =C3 = 0 y que C4 6= 0. As´ı, el
m´etodo es consistente de orden 3, y la constante de error esC4 = 1/4!.
Observaci´on. Las condiciones de consistencia del m´etodo lineal multipaso (1.33) coinciden con las condiciones de consistencia de orden 1.
No es necesario efectuar el desarrollo de Taylor en x=xn. Se puede (y se
debe) efectuar en otro punto si hay posibilidad de aprovechar simetr´ıas. Ejemplo. Consideramos la regla de Simpson,
yn+2−yn=
h
3(fn+ 4fn+1+fn+2).
Si desarrollamos el residuo alrededor del punto medio, x = xn+1, queda un
desarrollo en potencias impares deh,
Rn =y(xn+2)−y(xn)− h3(y0(xn) + 4y0(xn+1) +y0(xn+2)) = = (2y0(x n+1)h+ 13y000(xn+1)h3+5!2y(v)(xn+1)h5+· · ·) −h 3(6y 0(x n+1) +y000(xn+1)h2+4!2y(v)(xn+1)h4+· · ·).
Concluimos queRn=O(h5), y el m´etodo es por tanto consistente de orden 4.
Ejemplo. Consideramos la regla del trapecio
yn+1−yn=
h
2(fn+1+fn). Si desarrollamos alrededor del punto medio x = xn+1
2 := xn + h
2, de nuevo
queda un desarrollo en potencias impares de h,
Rn =y(xn+1)−y(xn)− h2(y0(xn) +y0(xn+1)) = = (y0(x n+1 2)h+ 1 24y 000(x n+1 2)h 3+· · ·) −h 2(2y 0(x n+1 2) + 1 4y 000(x n+1 2)h 2+· · ·).
Concluimos queRn=O(h3), y el m´etodo es por tanto consistente de orden 2.
Lo que tienen en com´un los dos ejemplos anteriores es que ambos m´etodos son sim´etricos, en el sentido de que
αj =−αk−j, βj =βk−j.
Es f´acil comprobar, desarrollando alrededor del punto medio, que los m´etodos sim´etricos tienen orden par. As´ı pues, si un m´etodo es sim´etrico s´olo ser´a ne-cesario considerar las condiciones de orden impar, pues las de orden par se cumplen necesariamente.
¿Cu´al es el mejor orden que podemos conseguir para un m´etodo, para un n´umero de pasos k dado? Puesto que un m´etodo lineal de k pasos viene determinado por 2k+ 1 coeficientes, y las condiciones de orden de consistencia son relaciones lineales de estos coeficientes, existen m´etodos lineales dekpasos con orden de consistenciap= 2k; reciben el nombre demaximales. Sin embargo no sirven para nada, puesto que no son convergentes.
Teorema 1.14 (Primera barrera de Dahlquist (1956)). El orden de con-vergencia p de un m´etodo lineal de k pasos 0-estable satisface:
p≤k+ 2 si k es par;
p≤k+ 1 si k es impar;
p≤k si βk ≤0 (en particular si es expl´ıcito).
Los m´etodos con p = k+ 2, llamados optimales, tampoco funcionan bien en la pr´actica. As´ı pues, el mejor orden que se puede alcanzar con un m´etodo dek pasos que sirva para algo es p=k+ 1.
Problemas
1. Comprobar que la funci´on de incremento del m´etodo lineal multipaso (1.33) satisface la condici´on de Lipschitz (1.19) si f satisface una condi-ci´on de Lipschitz con respecto a su segunda variable.
2. Encontrar el orden de consistencia y la constante de error de los m´etodos (a) yn+2+yn+1−2yn = h4(fn+2+ 8fn+1+ 3fn),
(b) yn+2−yn= 23h(fn+2+fn+1+fn),
(c) yn+4− 198 (yn+3−yn+1)−yn= 619h(fn+4+ 4fn+3+ 4fn+1+fn).
¿Son convergentes? (El m´etodo (c) se conoce como m´etodo de Quade.) 3. Repetir el problema anterior para el m´etodo lineal multipaso cuyos
poli-nomios caracter´ısticos son
ρ(ζ) =ζ4−1 y σ(ζ) = 14 45(ζ 4+ 1) + 64 45(ζ 3+ζ) + 24 45ζ 2.
4. De entre los m´etodos lineales multipaso de la forma
yn+3+α2yn+2+α1yn+1+α0yn=h(β2fn+2+β1fn+1+β0fn),
determinar los sim´etricos convergentes de mayor orden.
5. Determinar, usando la f´ormula para el error de interpolaci´on, el orden de consistencia de los m´etodos de Adams-Bashforth, Adams-Moulton y BDF de 2 pasos. Comprobar que coincide con el orden de convergencia. 6. Demostrar que si un m´etodo lineal de 3 pasos expl´ıcito es de orden 4, entoncesα0+α2 = 8 y α1 =−9. Deducir de esto que el m´etodo no puede
ser convergente.
7. Sea ρ un polinomio m´onico de grado k verificando ρ(1) = 0. Demostrar que:
(a) Existe un ´unico polinomio σ de grado menor o igual que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k+ 1.
(b) Existe un ´unico polinomio σ de grado menor estricto que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k.