Solución de ecuaciones no lineales y
aplicaciones a la cuadratura numérica
Javier Segura
Departamento de Matemáticas, Estadística y Computación Universidad de Cantabria, Spain
Contenidos:
1 Repaso de métodos básicos
Bisección
Método de la secante El método de Newton
2 Métodos de punto fijo
Soluciones numéricas de punto fijo
Punto fijo y aproximaciones analíticas: dos ejemplos
3 Cuadraturas gaussianas y ceros de polinomios ortogonales
4 Método de autovalores para relaciones de recurrencia
Ceros de polinomios ortogonales
Ceros de soluciones mínimas de relaciones de recurrencia Pros y contras de los métodos de recurrencias
Repaso de métodos básicos Bisección
Bisección
Teorema (Bolzano)
.
Si f (x ) es continua en el intervalo [a, b] con f (a)f (b) ≤ 0, entonces existe al menos un α ∈ [a, b] tal que f (α) = 0.
Algoritmo (Bisección)
Algoritmo: Bisección en un intervalo [a,b], tal que f (a)f (b) < 0 (1) Sea c = (b + a)/2
(2) Si b − c ≤ , aceptar c; parar
(3) Si f (b)f (c) ≤ 0, tomar a = c; y si no: b = c. (4) Volver a (1)
Repaso de métodos básicos Bisección
Bisección
Teorema (Bolzano)
.
Si f (x ) es continua en el intervalo [a, b] con f (a)f (b) ≤ 0, entonces existe al menos un α ∈ [a, b] tal que f (α) = 0.
Algoritmo (Bisección)
Algoritmo: Bisección en un intervalo [a,b], tal que f (a)f (b) < 0 (1) Sea c = (b + a)/2
(2) Si b − c ≤ , aceptar c; parar
Repaso de métodos básicos Bisección
1 Bisección es lo óptimo para resolver una ecuación f (x ) = 0
cuando no sabemos nada de f salvo calcular su signo.
2 El cero está siempre dentro de un intervalo de acotación y
converge siempre que f cambie de signo, aunque también puede converger a una discontinuidad.
3 Lento aunque seguro: a lo sumo, el orden de convergencia es 1.
4 Inespecífico: el número de iteraciones sólo depende del intervalo
Repaso de métodos básicos Bisección
1 Bisección es lo óptimo para resolver una ecuación f (x ) = 0
cuando no sabemos nada de f salvo calcular su signo.
2 El cero está siempre dentro de un intervalo de acotación y
converge siempre que f cambie de signo, aunque también puede converger a una discontinuidad.
3 Lento aunque seguro: a lo sumo, el orden de convergencia es 1.
4 Inespecífico: el número de iteraciones sólo depende del intervalo
Repaso de métodos básicos Bisección
1 Bisección es lo óptimo para resolver una ecuación f (x ) = 0
cuando no sabemos nada de f salvo calcular su signo.
2 El cero está siempre dentro de un intervalo de acotación y
converge siempre que f cambie de signo, aunque también puede converger a una discontinuidad.
3 Lento aunque seguro: a lo sumo, el orden de convergencia es 1.
4 Inespecífico: el número de iteraciones sólo depende del intervalo
Repaso de métodos básicos Bisección
1 Bisección es lo óptimo para resolver una ecuación f (x ) = 0
cuando no sabemos nada de f salvo calcular su signo.
2 El cero está siempre dentro de un intervalo de acotación y
converge siempre que f cambie de signo, aunque también puede converger a una discontinuidad.
3 Lento aunque seguro: a lo sumo, el orden de convergencia es 1.
4 Inespecífico: el número de iteraciones sólo depende del intervalo
Repaso de métodos básicos Bisección
Orden de convergencia
Sea {xn} una sucesión que converge a α y definamos n=xn− α. Si
exite un número p y una constante C 6= 0 tales que lim
n→∞
|n+1| |n|p
=C
se dice que el orden de convergencia es p siendo C la constante de error asintótica.
Repaso de métodos básicos Bisección
Regula falsi
Regula falsi es un intento (fallido) de mejorar bisección estimando c por interpolación lineal
c = b − b − a
f (b) − f (a)f (b) =
af (b) − bf (a) f (b) − f (a) Puede llegar a ser peor que bisección:
y=f(x) y x x=a x=b (a,f(a)) (b,(f(b)) Regula falsi
Repaso de métodos básicos Método de la secante
Método de la secante
Igual que regula falsi, pero sin tener en cuenta los signos xn+1 =xn− xn− xn−1 f (xn) −f (xn−1) f (xn) (1) y y=f(x) ´ Metodo de la secante
Repaso de métodos básicos Método de la secante
Orden de convergencia:
Con k =xk − α, desarrollando f (xk) =f (α + k)y llevándolo a (1),
tenemos que
n+1=
f00(α) 2f0(α)nn−1
Con esto, se puede comprobar que el orden es p = (1 +√5)/2
(Vamos mejorando, ¡si es que converge!)
Criterio de parada: como el orden es p > 1:
|xn+1− xn|
|xn− α|
≤ 1 +|xn+1− α| |xn− α|
→ 1
cuando n → +∞. Se puede entonces utilizar |xn+1− xn| para estimar
Repaso de métodos básicos Método de la secante
Otra forma de interpretar el método de la secante
Teorema (Teorema del resto)Sea f (x ) una función continua en [a, b] y derivable n + 1 veces en (a, b). Si Pn(x ) es el polinomio de grado menor o igual que n que interpola f (x ) entre
los n + 1 nodos distintos x0...xn∈ [a, b] (es decir, tal que Pn(xk) =f (xk))
entonces ∀x ∈ [a, b] ∃ζx ∈ (a, b), dependiente de x, tal que
f (x ) = Pn(x ) + f(n+1)(ζx) (n + 1)! n Y j=0 (x − xj) ≡Pn(x ) + Rn(x )
donde se dice que Rn(x ) es el resto.
Utilizando diferencias divididas de Newton:
f (x ) = f [x0] +f [x0,x1](x − x0) + ... +f [x0,x1, ...,xn](x − x0)...(x − xn−1) n
Repaso de métodos básicos Método de la secante
Resolver la ecuación f (x ) = 0, con solución x = α es equivalente a evaluar α =g(0) donde g = f(−1).
Aproximando g(y ) por interpolación lineal para los puntos (yn,xn),
(yn−1,xn−1)(yk =f (xk)), tenemos: g(y ) = yy − yn−1 n− yn−1g(yn) + yn− y yn− yn−1g(yn−1) +E = y − fn−1 fn− f n − 1xn+ fn− y fn− fn−1xn−1+E E = ˙g(ζ)2 (y − yn)(y − yn−1) = g 0(ζ)
2 (y − fn)(y − fn−1), para cierto ζ.
Haciendo y = 0: α = fnxn−1− fn−1xn fn− fn−1 +¨g(ζ) 2 fnfn−1 De donde n+1 ≈ ¨ g(0) 2 f 0(α)2 nn−1
Esta idea se puede generalizar para más puntos de interpolación, de manera que se pueden obtener métodos de order arbitrariamente alto,pero...
Repaso de métodos básicos Método de la secante
Recordemos que con el método de la secante no tenemos intervalos de acotación de la raíz.
¿ Cómo garantizar que el método converge?
¿ Cómo escoger los valores iniciales?
Existen algoritmos que combinan bisección y secante que:
1 Garantizan la convergencia y dan un intervalo de acotación
2 Convergen más rápidamente que bisección
Los métodos deDekker(bisección + secante) yBrent(bisección +
Repaso de métodos básicos Método de la secante
Recordemos que con el método de la secante no tenemos intervalos de acotación de la raíz.
¿ Cómo garantizar que el método converge? ¿ Cómo escoger los valores iniciales?
Existen algoritmos que combinan bisección y secante que:
1 Garantizan la convergencia y dan un intervalo de acotación
2 Convergen más rápidamente que bisección
Los métodos deDekker(bisección + secante) yBrent(bisección +
Repaso de métodos básicos Método de la secante
Recordemos que con el método de la secante no tenemos intervalos de acotación de la raíz.
¿ Cómo garantizar que el método converge? ¿ Cómo escoger los valores iniciales?
Existen algoritmos que combinan bisección y secante que:
1 Garantizan la convergencia y dan un intervalo de acotación
2 Convergen más rápidamente que bisección
Los métodos deDekker(bisección + secante) yBrent(bisección +
Repaso de métodos básicos El método de Newton
El método de Newton
El método de Newton consiste en resolver la ecuación f (x ) = 0 invirtiendo la aproximación lineal de Taylor alrededor de x = α (f (α) = 0) 0 = f (xn− n) =f (xn) −f0(xn)n+ f00(ζn) 2 2 n donde n=xn− α Despreciando el error α 'xn+1 =xn− f (xn) f0(xn) Orden de convergencia = 2
Repaso de métodos básicos El método de Newton
x
y
x x x x3 2 1 0 α y=f(x) Metodo de Newton´ rectas tangentesRepaso de métodos básicos El método de Newton
Repaso de métodos básicos El método de Newton
En el plano complejo los problemas aumentan
El método de Newton también se puede utilizar para calcular ceros en el plano complejo.
Supongamos que queremos resolver f (z) = 0 donde f (z) = z3− 1.
Tenemos zn+1 =zn−z
3 n− 1
3zn2 . El conjunto de los valores iniciales que
Repaso de métodos básicos El método de Newton
En el plano complejo los problemas aumentan
El método de Newton también se puede utilizar para calcular ceros en el plano complejo.
Supongamos que queremos resolver f (z) = 0 donde f (z) = z3− 1.
Tenemos zn+1 =zn−z
3 n− 1
3zn2 . El conjunto de los valores iniciales que
Métodos de punto fijo
Métodos de punto fijo
Los métodos de punto fijo responden a esquemas xn+1 =T (xn)
Ejemplo: el método de Newton, T(x)=x-f(x)/f’(x)
Si T is contínua y, dado cierto x0, existe limn→∞xn= αentonces
α =T (α) (α punto fijo de T ).
Teorema
Si T (x ) es continua en I = [a, b] y T (I) ⊂ I entonces existe al menos un punto fijo de T (x ), α ∈ [a, b].
Métodos de punto fijo
x
y
y=x y=g(x) A B a b a b puntos fijos ´ la linea y=x para alcanzar La curva debe cruzar B desde A puesto que la curva esta confinada en la cajaMétodos de punto fijo
Teorema (Continuación)
Si, además T (x ) es continuamente diferenciable en (a, b) y
|T0(x )| ≤ M < 1 , ∀x ∈ (a, b) , entonces
1 T (x )tiene un único punto fijo α en [a, b]
2 Para cada x0∈ [a, b], la sucesión definida como
xn+1=T (xn) converge al único punto fijo α.
3 La estimación del error de la enésima iteración está dada por
|xn− α| ≤ Mn 1 − M|x1− x0| 4 Si T0(α) 6=0, y ∃N > 0 : an6= α ∀n > N entonces lim n→∞ α −xn+1 α −xn =T0(α).
Métodos de punto fijo
Teorema (Continuación)
Si, además T (x ) es continuamente diferenciable en (a, b) y
|T0(x )| ≤ M < 1 , ∀x ∈ (a, b) , entonces
1 T (x )tiene un único punto fijo α en [a, b]
2 Para cada x0∈ [a, b], la sucesión definida como
xn+1=T (xn) converge al único punto fijo α.
3 La estimación del error de la enésima iteración está dada por
|xn− α| ≤ Mn 1 − M|x1− x0| 4 Si T0(α) 6=0, y ∃N > 0 : an6= α ∀n > N entonces lim n→∞ α −xn+1 α −xn =T0(α).
Métodos de punto fijo
Teorema (Continuación)
Si, además T (x ) es continuamente diferenciable en (a, b) y
|T0(x )| ≤ M < 1 , ∀x ∈ (a, b) , entonces
1 T (x )tiene un único punto fijo α en [a, b]
2 Para cada x0∈ [a, b], la sucesión definida como
xn+1=T (xn) converge al único punto fijo α.
3 La estimación del error de la enésima iteración está dada por
|xn− α| ≤ Mn 1 − M|x1− x0| 4 Si T0(α) 6=0, y ∃N > 0 : an6= α ∀n > N entonces lim n→∞ α −xn+1 α −xn =T0(α).
Métodos de punto fijo
Teorema (Continuación)
Si, además T (x ) es continuamente diferenciable en (a, b) y
|T0(x )| ≤ M < 1 , ∀x ∈ (a, b) , entonces
1 T (x )tiene un único punto fijo α en [a, b]
2 Para cada x0∈ [a, b], la sucesión definida como
xn+1=T (xn) converge al único punto fijo α.
3 La estimación del error de la enésima iteración está dada por
|xn− α| ≤ Mn 1 − M|x1− x0| 4 Si T0(α) 6=0, y ∃N > 0 : an6= α ∀n > N entonces lim n→∞ α −xn+1 α −xn =T0(α).
Métodos de punto fijo x x x x
y
α y=x y=g(x)Métodos de punto fijo x2 x0x1
x
y
y=x α y=g(x)Métodos de punto fijo
x x x x
y
y=xy=g(x)
Métodos de punto fijo x0 x1 y=x
x
y=g(x)y
Métodos de punto fijo
Teorema (Otra versión)
Sea T (x ) continua en I ≡ [a, b] y continuamente diferenciable en (a, b). Si ∃α ∈ I : T (α) = α y se verifica que |g0(x )| ≤ M < 1 en (a, b), entonces se cumplen los resultados enunciados en el anterior.
Consecuencia de esto es que si T es continuamente diferenciable en un entorno de α y |T0(α)| <1, entonces existe un entorno de α tal que
xn+1=T (xn)converge a α para cualquier x0en ese entorno
(convergencia local).
Teorema (Convergencia monótona)
Si T (x ) tiene derivada primera continua en un intervalo I que contiene un punto fijo de T (x ) y 0 ≤ T0(x ) < 1 en I, entonces hay sólo un punto fijo de T (x ) en I, la iteración de punto fijo xn+1=T (xn)es convergente
Métodos de punto fijo
Dado un método de punto fijo xn+1=T (xn)y T (α) = α, si la primera
derivada no nula en α de T (x ) es la m − sima (y es continua),
entonces el método tiene orden de convergencia m con constante de error asintótica C = T(m)(α)/m!. En efecto: xn+1=T (α + n) =T (α) + T(m)(ζn) m! m n Luego n= T(m)(ζn) m! m n
con ζn entre α y xn, luego
lim
n→∞
n+1
mn
Métodos de punto fijo
Dos ejemplos de métodos de punto fijo con orden
m ≥ 2
1 El método de Newton cuando f0(α) 6=0:
T (x ) = x − f (x )/f0(x ) → T0(x ) = f (x )f00(x )/f ‘(x )2 → T0(α) =0, T00(α) =f00(α)/f0(α) Orden 2 2 Método de arctan(Newton) T (x ) = x − 1 w (x )arctan(w (x )y (x )/y 0(x )) para cierto w (x ).
¿Cuál es el orden si y (x) es solución de y00(x) + w (x)2y (x) = 0 ?
Métodos de punto fijo
Dos ejemplos de métodos de punto fijo con orden
m ≥ 2
1 El método de Newton cuando f0(α) 6=0:
T (x ) = x − f (x )/f0(x ) → T0(x ) = f (x )f00(x )/f ‘(x )2 → T0(α) =0, T00(α) =f00(α)/f0(α) Orden 2 2 Método de arctan(Newton) T (x ) = x − 1 w (x )arctan(w (x )y (x )/y 0(x )) para cierto w (x ).
¿Cuál es el orden si y (x) es solución de y00(x) + w (x)2y (x) = 0 ?
Métodos de punto fijo Soluciones numéricas de punto fijo
Como ejemplo consideremos el cálculo de los ceros de
κx sin(x ) − cos(x ) = 0 → tan x = 1
κx Invirtiendo
x = arctan 1κx+mπ ≡ Tm(x ), m = 1, 2, ...;
T0(x ) = π/2 − arctan(κx )
Tenemos un cero en cada intervalo
Im= ((m − 1/2)π/2, (m + 1/2)π/2), m ∈ N y otro en I0= (0, π/2) si
κ >0.
T (Im) ⊂Im,T0(x ) = −
κ 1 + κ2x2
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Aproximaciones analíticas: un ejemplo simple
Consideremos de nuevo el ejemplo κx sin(x ) − cos(x ) = 0.
Vamos a construir una aproximación para ceros grandes (o no tanto).
Partimos de x0=mπ e iteramos con Tmpara aproximar el cero αm en
Im.
Como |Tm0 (x )| = O(m−2), tenemos, iterando una vez:
α(m)=arctan 1 κmπ +mπ + O(m−2) =mπ + 1 πκm+ O(m −2)
E iterando dos veces
α(m)=Tm(Tm(xm))+O(m−4) =mπ+µ−1− κ + 1 3 µ−3+O(µ−5) (2) donde µ = πκm
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Otra forma de hacer lo mismo es por resustitución:
Empezamos con α(m) ∼ mπ. Teníamos Tm(x ) = arctan(1/(κx )) + mπ.
Como arctan 1 z = 1 z − 1 3z3 + 1 5z5− . . . , (3)
quedándonos sólo con el primer término y sustituyendo con la primera aproximación mπ. Tenemos: α(m)1 =mπ + 1 κmπ. Resustituyendo de nuevo: α(m)2 =mπ + 1 κα1 − 1 3(κα1)3
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Un caso más general
El anterior ejemplo
x − arctan(1/κx ) = mπ
para m grande es un ejemplo particular de un caso más general: f (x ) = w donde f (x ) = x + n X i=0 fi xi + O(x −n−1), x → ∞
En el que se puede comprobar la validez del esquema anterior considerando T (x ) = w − g(x ), g(x ) = f (x ) − x = n X i=0 fi xi + O(x −n−1)
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Un ejemplo no trivial
Expansion de McMahon para ceros grandes de las funciones de Bessel
La función de Bessel function Jν(z), solución regular en el origen de
z2y00+zy0+ (z2− ν2)y = 0
se puede escribir
Jν(z) =
r 2
πz {P(ν, z) cos ξ − Q(v , z) sin ξ} , |arg z| < π, (4) donde ξ = z − νπ/2 − π/4 y P y Q tienen conocidas expansiones cuando z → ∞, con Q/P ∼ µ −1
8z (1 + O(z
−1)), µ = 4ν2.
Para aproximar los ceros, tomamos tan(ξ) = P/Q e invertimos:
z = β − arctan(Q/P), β = (s + ν/2 − 1/4)π, s = 1, 2, . . . . (5) Una primera aproximación para los ceros de Jν(x ) es jν,s ∼ β and the second
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Expansion de McMahon (continuación)
Repitiendo el proceso, se puede escribir
jν,s ∼ β − µ −1 2 ∞ X i=0 Pi(µ) (4β)2i+1, (7)
con Pi(µ)polinomios en µ de grado i, que se pueden escribir
Pi(µ) =ci i
X
k =0
(−1)i−ka(k )i µk, ci ∈ Q+, a(k )i ∈ N. (8)
Algunos de los coeficientes (usando Maple) son i ci a(0)i a (1) i a (2) i a (3) i a (4) i a (5) i 0 1 1 — — — — — 1 1/3 31 7 — — — — 2 2/15 3779 982 83 — — — 3 1/105 6277237 1585743 153855 6949 — — 4 2/305 2092163573 512062548 48010494 2479316 70197 — 5 2/3465 8249725736393 1982611456181 179289628602 8903961290 287149133 5592657
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
McMahon no basta
Para valores de ν moderados, McMahon funciona hasta para los primeros ceros.
Para ν grande McMahon falla y se necesitan
aproximaciones uniformes (mucho más complicadas) Es habitual que haya que combinar métodos (como pasa con el ejemplo más sencillo)
Aunque hay otras estrategias para ciertas funciones, incluida la función de Bessel
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
McMahon no basta
Para valores de ν moderados, McMahon funciona hasta para los primeros ceros.
Para ν grande McMahon falla y se necesitan
aproximaciones uniformes (mucho más complicadas)
Es habitual que haya que combinar métodos (como pasa con el ejemplo más sencillo)
Aunque hay otras estrategias para ciertas funciones, incluida la función de Bessel
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
McMahon no basta
Para valores de ν moderados, McMahon funciona hasta para los primeros ceros.
Para ν grande McMahon falla y se necesitan
aproximaciones uniformes (mucho más complicadas) Es habitual que haya que combinar métodos (como pasa con el ejemplo más sencillo)
Aunque hay otras estrategias para ciertas funciones, incluida la función de Bessel
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
McMahon no basta
Para valores de ν moderados, McMahon funciona hasta para los primeros ceros.
Para ν grande McMahon falla y se necesitan
aproximaciones uniformes (mucho más complicadas) Es habitual que haya que combinar métodos (como pasa con el ejemplo más sencillo)
Aunque hay otras estrategias para ciertas funciones, incluida la función de Bessel
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
McMahon no basta
Para valores de ν moderados, McMahon funciona hasta para los primeros ceros.
Para ν grande McMahon falla y se necesitan
aproximaciones uniformes (mucho más complicadas) Es habitual que haya que combinar métodos (como pasa con el ejemplo más sencillo)
Aunque hay otras estrategias para ciertas funciones, incluida la función de Bessel
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Otras dos aproximaciones para el mismo
problema (el sencillo, claro)
◦ Para κ pequeño y ceros no muy grandes:
x = arctan 1 κx +mπ = (m+12)π −arctan(κx ), m = 0, 1, 2, . . . , (9) Consideramos xn+1 =T (xn)con T (x ) = Λπ − arctan(κx ), Λ = (m + 12). (10)
Para κ pequeño y moderado x , |T0(x )| ∼ κ y, empezando con x0= Λπ
tenemos un O(κ) en cada iteración. Iterando tres veces:
α(m)(κ) ∼ Λπ " 1 − κ + κ2+ −1 + Λ 2π2 3 ! κ3+ O(κ4) # , κ →0. (11) Esta expansión es útil para κ pequeño y ceros no muy grandes (caso para el que la anterior expansion no funciona).
α(m)(κ) ∼ Λπ " 1 − κ + κ2+ −1 + Λ 2π2! κ3+ O(κ4) # , κ →0.
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Para κ grande, el primer cero de κx sin x − cos x = 0 tiende a hacerse pequeño. Una primera aproximación viene de resolver
κx sin x − cos x ' −1 + (κ + 1/2)x2− (κ/6 + 1/24)x4=0
Expandiendo el menor cero en potencias de κ−1:
α(0)∼ √1 κ 1 − 1 6κ
El método de punto fijo para T0(x ) = π
2 − arctan(κx) no es tan fácil de
aplicar ahora porque T0(α(0)) = κ/(1 + κ2α(0)) ∼1, pero se puede...
Resultado: α(0)= 1√ κ 1 − 1 6κ−1+ 11360κ−2− 175040κ−3 (13)
Métodos de punto fijo Punto fijo y aproximaciones analíticas: dos ejemplos
Combinando los tres:
κ 1 2 3 4 5 6
0.01 2 10−7(2) 6 10−6(2) 2 10−6(2) 4 10−5(2) 6 10−5(2) 1 10−4(2) 0.1 4 10−4(2) 4 10−3(2) 1 10−2(2) 5 10−3(1) 2 10−3(1) 6 10−4(1) 1 1 10−4 (3) 2 10−5(1) 5 10−5(1) 5 10−6(1) 9 10−7(1) 2 10−7(1) 10 1 10−10(3) 2 10−6(1) 3 10−8(1) 3 10−9(1) 5 10−10(1) 1 10−10(1)
Y aprovechando la convergencia local del método de Newton tenemos un método eficiente y seguro para todo κ.
Cuadraturas gaussianas y ceros de polinomios ortogonales
Cuadratura gaussiana
A continuación trataremos de obtener los nodos y los pesos para cuadraturas de integrales tales que
Z b a f (x )w (x )dx = n X i=1 wif (xi) + γn f(2n)(λ) (2n)! , λ ∈ (a, b) siendo w (x ) una función peso.
Estas son cuadraturas gaussianas (con el mayor grado de exactitud posible para n nodos)
Ejemplos clásicos: 1 Gauss-Hermite: R+∞ −∞ f (x )e−x 2 dx 2 Gauss-Laguerre: R+∞ 0 f (x )xαe−xdx , α > −1 3 Gauss-Jacobi: R+1 −1 f (x )(1 − x )α(1 + x )βdx , α, β > −1
Cuadraturas gaussianas y ceros de polinomios ortogonales
Cuadratura gaussiana
A continuación trataremos de obtener los nodos y los pesos para cuadraturas de integrales tales que
Z b a f (x )w (x )dx = n X i=1 wif (xi) + γn f(2n)(λ) (2n)! , λ ∈ (a, b) siendo w (x ) una función peso.
Estas son cuadraturas gaussianas (con el mayor grado de exactitud posible para n nodos)
Ejemplos clásicos: 1 Gauss-Hermite: R+∞ −∞ f (x )e−x 2 dx 2 Gauss-Laguerre:R+∞ 0 f (x )xαe−xdx , α > −1 3 Gauss-Jacobi: R+1 −1 f (x )(1 − x )α(1 + x )βdx , α, β > −1
Cuadraturas gaussianas y ceros de polinomios ortogonales
Cuadratura gaussiana
A continuación trataremos de obtener los nodos y los pesos para cuadraturas de integrales tales que
Z b a f (x )w (x )dx = n X i=1 wif (xi) + γn f(2n)(λ) (2n)! , λ ∈ (a, b) siendo w (x ) una función peso.
Estas son cuadraturas gaussianas (con el mayor grado de exactitud posible para n nodos)
Ejemplos clásicos: 1 Gauss-Hermite: R+∞ −∞ f (x )e−x 2 dx 2 Gauss-Laguerre:R+∞ 0 f (x )xαe−xdx , α > −1
Cuadraturas gaussianas y ceros de polinomios ortogonales Teorema
Sea w (x ) una función peso en [a, b] y pnel polinomio mónico de grado n tal que
Z b
a
xkpn(x )w (x ) dx = 0, k = 0, . . . , n − 1. (14)
Sean x1, . . . ,xnlos ceros of pny widefinido por
wi = Z b a Li(x )w (x ) dx , Li(x ) = n Y k =1,k 6=i x − xk xi− xk , (15)
donde i = 1, 2, . . . , n. Entonces, la regla de cuadratura Z b a f (x )w (x ) dx ≈ QnG(f ) = n X i=1 wif (xi) (16)
es exacta para polinomios de grado menor o igual que 2n − 1. Si f tiene derivada continua f(2n)en [a, b], entonces
∃ λ ∈ (a, b) : Z b a f (x )w (x ) dx = QGn(f ) + γn f(2n)(λ) (2n)! , (17)
Cuadraturas gaussianas y ceros de polinomios ortogonales
Teorema
Los polinomios ortogonales mónicos {pk} asociados al peso w (x) en el intervalo [a, b] satisfacen la relación de recurrence
p1(x ) = (x − B0)p0(x ), pk +1(x ) = (x − Bk)pk(x ) − Akpk −1(x ), k = 1, 2, . . . , (18) donde Ak= ||pk||2 ||pk −1||2 , k ≥ 1, Bk= <xpk,pk> ||pk||2 , k ≥ 0. (19) Algoritmo (Stieltjes) Input: a, b, w (x ). Output: B0, Ai, Bi, pi(x ), i = 1, 2, . . . , n • p−1(x ) = 0; A0=0; • p0(x ) = 1, B0=<x , 1 > / < 1, 1 >; • DO i = 1, . . . , n − 1: pi+1(x ) = (x − Bi)pi(x ) − Aipi−1(x ).
Método de autovalores para relaciones de recurrencia
Método de recurrencias, construcción “general”
Consideremos relaciones de recurrencia
anyn+1(x ) + bnyn(x ) + cnyn−1(x ) = g(x )yn(x ), n = 0, 1, . . . ,
Las primeras N relaciones se pueden escribir
JNYN(x ) + aN−1yN(x )eN+c0y−1(x )e1=g(x )YN(x ), e1= (1, 0, . . . , 0)T,eN= (0, . . . , 0, 1)T,YN(x ) = (y0(x ), . . . , yN−1(x ))T JN= b0 a0 0 . . 0 c1 b1 a1 0 . 0 0 c2 b2 a2 . 0 . . . 0 . . . aN−2 0 0 0 . cN−1 bN−1 . (20)
Si para cierto x = x0aN−1yN(x0) =c0y−1(x0) =0 tenemos un problema de
autovalores con autovalor g(x0)
Esto es así cuando x0es un zcero of yN(x ) (o de y−1(x )) y, por algún
Método de autovalores para relaciones de recurrencia
Método de recurrencias, construcción “general”
Consideremos relaciones de recurrencia
anyn+1(x ) + bnyn(x ) + cnyn−1(x ) = g(x )yn(x ), n = 0, 1, . . . ,
Las primeras N relaciones se pueden escribir
JNYN(x ) + aN−1yN(x )eN+c0y−1(x )e1=g(x )YN(x ), e1= (1, 0, . . . , 0)T,eN= (0, . . . , 0, 1)T,YN(x ) = (y0(x ), . . . , yN−1(x ))T JN= b0 a0 0 . . 0 c1 b1 a1 0 . 0 0 c2 b2 a2 . 0 . . . 0 . . . aN−2 0 0 0 . cN−1 bN−1 . (20)
Si para cierto x = x0aN−1yN(x0) =c0y−1(x0) =0 tenemos un problema de
Método de autovalores para relaciones de recurrencia Ceros de polinomios ortogonales
Para polinomios ortogonales mónicos, yn=Pn(x ), g(x ) = x y anand
cntienen el mismo signo.
Además c0P−1=0, de modo que cuando yn(x0) =PN(x0) =0:
JNYN(x0) =x0YN(x0),
Luegos los ceros de los polinomios ortogonales (nodos of cuadraturas
gaussianas) sonexactamentelos autovalores de la matriz de Jacobi
matrixJN.
Método de autovalores para relaciones de recurrencia Ceros de soluciones mínimas de relaciones de recurrencia
Consideremos otra vez
JNYN(x ) + aN−1yN(x )eN+c0y−1(x )e1=g(x )YN(x ),
y ahora consideremos que son los ceros de y−1(x ) los que se buscan.
Si yN(x ) es suficientemente pequeño para N grande y y−1(x0) =0
JNYN(x0) ≈g(x0)YN(x )
Esta aproximación funcionaaproximadamenteparasoluciones mínimas de
recurrencias lineales y homogéneas con tres términos, y particularly para las funciones de Bessel Jν(x ) (Grad y Zakrajšek (1973), Ikebe (1975),..., Ball
(2000)).
Unas solución {fn} de una recurrencia a tres términos
yn+1+ βnyn+ αnyn−1=0
es mínima (o recesiva) cuando lim
n→+∞
fn
Método de autovalores para relaciones de recurrencia Pros y contras de los métodos de recurrencias
Pros
1 Todos los ceros de los P.O. se pueden calcular simultáneamente.
2 Los ceros complejos también se pueden evaluar cuando existen.
3 El método sólo requiere de los coeficientes de la recurrencia, y no
es necesario evaluar la función.
Cons
1 Todos los ceros se calculan
2 El condicionamiento no siempre es bueno.
3 El tipo de recurrencias es restrictivo
4 Para soluciones mínimas: ¿dónde truncar la matriz?
5 Eficiencia?
Otros métodos más flexibles, menos específicos y globalmente convergentes existen.
El método de Golub-Welsch
Volviendo al cálculo de cuadraturas gaussianas, consideremos el problema de calcular los nodos y pesos de una cuadratura gaussiana. Los nodos, como ya dijimos, se pueden obtener como autovalores de la matriz de Jacobi.
Para los polinomios ortogonales mónicos teníamos: p1(x ) = (x − B0)p0(x ), pk +1(x ) = (x − Bk)pk(x ) − Akpk −1(x ), k = 1, 2, . . . , (21) donde Ak = ||pk||2 ||pk −1||2 , k ≥ 1, Bk = <xpk,pk > ||pk||2 , k ≥ 0. (22)
Recurrencia para polinomios ortonormales
El método de Golub-Welsch
Partiendo de las recurrencias para polinomios ortonormales, es sencillo obtener también los pesos, a partir de los autovectores. Ver:
A. Gil, J. Segura, N.M. Temme
Numerical Methods for Special Functions, pp. 141-147
El método de Golub-Welsch
Partiendo de las recurrencias para polinomios ortonormales, es sencillo obtener también los pesos, a partir de los autovectores. Ver:
A. Gil, J. Segura, N.M. Temme
Numerical Methods for Special Functions, pp. 141-147