Dada una variable aleatoria 𝑋, introduciremos la funci´on caracte´ıstica de 𝑋, que se denotar´a 𝜑𝑋(𝑡). El objetivo de los Teoremas que se enuncian a continuaci´on es probar que
𝑋𝑛 𝒟
→ 𝑋 ⇐⇒ 𝜑𝑋𝑛(𝑡) → 𝜑𝑋(𝑡) ∀𝑡 ∈ 𝑅
Funci´on caracter´ıstica
Sean 𝑋 e 𝑌 v.a. en (Ω,𝒜, 𝒫), 𝑍 = 𝑋 + 𝑖 𝑌 es una variable aleatoria compleja, es decir, 𝑍 : Ω → 𝐶
𝑍(𝑤) = 𝑋(𝑤) + 𝑖 𝑌 (𝑤) ∀𝑤 ∈ Ω La esperanza de 𝑍 se define:
𝐸(𝑍) = 𝐸(𝑋) + 𝑖 𝐸(𝑌 ) si 𝐸(𝑋) < ∞, 𝐸(𝑌 ) < ∞.
Consideremos la funci´on 𝑒𝑖 𝑥 = 𝑐𝑜𝑠(𝑥) + 𝑖𝑠𝑒𝑛(𝑥), la variable aleatoria compleja
𝑒𝑖 𝑋 = 𝑐𝑜𝑠(𝑋) + 𝑖 𝑠𝑒𝑛(𝑋)
tiene esperanza finita cualquiera sea 𝑋 pues 𝑠𝑒𝑛(𝑥) y 𝑐𝑜𝑠(𝑥) est´an acotadas.
Definici´on: Sea 𝑋 una v.a. con distribuci´on 𝐹 , la funci´on caracter´ıstica de 𝑋 es la funci´on
𝜑𝑋 : 𝑅 → 𝐶 definida como
𝜑𝑋(𝑡) = 𝐸(𝑒𝑖 𝑡 𝑋) = 𝐸(𝑐𝑜𝑠(𝑡 𝑋)) + 𝑖 𝐸(𝑠𝑒𝑛(𝑡 𝑋))
Propiedades:
1) ∣𝜑𝑋(𝑡)∣ ≤ 1 ∀𝑡 ∈ 𝑅 2) 𝜑𝑋(0) = 1
3) 𝜑𝑋(𝑡) = 𝜑𝑋(−𝑡)
4) 𝜑𝑋 es uniformemente continua en 𝑅 5) Si 𝑋 e 𝑌 son v.a. independientes,
𝜑𝑋+𝑌(𝑡) = 𝜑𝑋(𝑡) 𝜑𝑌(𝑡) ∀𝑡 ∈ 𝑅 6) Si 𝑋1, . . . , 𝑋𝑛 son v.a. independientes,
𝜑∑𝑛
𝑖=1𝑋𝑖(𝑡) = ∏𝑛
𝑖=1𝜑𝑋𝑖(𝑡) ∀𝑡 ∈ 𝑅
7) 𝑋 tiene distribuci´on sim´etrica alrededor de 0 si y s´olo
8) Si 𝑌 = 𝑎 𝑋 + 𝑏,
𝜑𝑌(𝑡) = 𝑒𝑖 𝑡 𝑏𝜑𝑋(𝑎 𝑡)
9) Si 𝐸(∣𝑋∣𝑛) < ∞, entonces 𝜑𝑋 tiene 𝑛 derivadas continuas (𝜑𝑋 ∈ 𝒞𝑛) y
𝜑(𝑘)𝑋 (𝑡) = 𝑖𝑘𝐸(𝑋𝑘 𝑒𝑖 𝑡 𝑋) ∀ 𝑘 = 1, . . . , 𝑛
En particular, 𝜑(𝑘)𝑋 (0) = 𝑖𝑘 𝐸(𝑋𝑘), o sea que la funci´on caracter´ıstica act´ua como funci´on generadora de momentos.
Ejemplos: 1) 𝑋 ∼ 𝒫(𝜆)
𝜑𝑋(𝑡) = 𝐸(𝑒𝑖 𝑡 𝑋) = ∑∞
𝑛=0
𝑒𝑖𝑡𝑛𝑒−𝜆𝜆𝑛
𝑛! =
= 𝑒−𝜆 ∑∞
𝑛=0
(𝜆 𝑒𝑖 𝑡)𝑛
𝑛! = 𝑒−𝜆 𝑒𝜆 𝑒𝑖𝑡 = 𝑒𝜆 (𝑒𝑖𝑡−1) Entonces, 𝑖 𝐸(𝑋) = 𝜑′𝑋(0)
pero, 𝜑′𝑋(𝑡) = 𝑒𝜆(𝑒𝑖𝑡−1) 𝜆 𝑒𝑖𝑡𝑖
Entonces, 𝜑′𝑋(0) = 𝜆 𝑖 y por lo tanto, 𝑖 𝐸(𝑋) = 𝜆 𝑖 ⇒ 𝐸(𝑋) = 𝜆
Por otra parte, 𝑖2𝐸(𝑋2) = 𝜑′′𝑋(0) pero,
𝜑′′𝑋(𝑡) = 𝑒𝜆 (𝑒𝑖𝑡−1)𝜆𝑒𝑖𝑡𝑖 𝜆 𝑖 𝑒𝑖𝑡 + 𝑒𝜆 (𝑒𝑖𝑡−1)𝜆 𝑖2𝑒𝑖𝑡 =
= 𝑒𝜆 (𝑒𝑖𝑡−1) 𝑒𝑖𝑡𝑖2𝜆 (𝜆 𝑒𝑖𝑡 + 1) Entonces, 𝜑′′𝑋(0) = 𝑖2𝜆 (𝜆 + 1)
𝑖2𝐸(𝑋2) = 𝑖2𝜆 (𝜆 + 1) ⇒ 𝐸(𝑋2) = 𝜆2 + 𝜆 y 𝑉 (𝑋) = 𝜆2 + 𝜆 − 𝜆2 = 𝜆.
Del mismo modo, podemos obtener los restantes momentos de 𝑋.
2) 𝑋 ∼ 𝑁((0, 1)
𝜑𝑋(𝑡) = ∫ ∞
−∞𝑒𝑖 𝑡 𝑥𝑒−𝑥2/2
√2𝜋 𝑑𝑥 = 1
√2𝜋
∫ ∞
−∞𝑒𝑖 𝑡 𝑥𝑒−𝑥2/2𝑑𝑥 Pero,
𝑒𝑖𝑡𝑥−𝑥2/2 = 𝑒𝑖𝑡𝑥−𝑥2/2+𝑡2/2𝑒−𝑡2/2 = 𝑒(𝑡+𝑖𝑥)2/2𝑒−𝑡2/2
Entonces, 𝜑𝑋(𝑡) = 1
√2𝜋
∫ ∞
−∞ 𝑒(𝑡+𝑖𝑥)2/2𝑒−𝑡2/2𝑑𝑥 = 𝑒−𝑡2/2∫ ∞
−∞
√1
2𝜋𝑒(𝑡+𝑖𝑥)2/2𝑑𝑥 Probaremos que
ℎ(𝑡) = ∫−∞∞ 1
√2𝜋𝑒(𝑡+𝑖𝑥)2/2𝑑𝑥 = 1
ℎ′(𝑡) = 1
√2𝜋
∫ ∞
−∞(𝑡 + 𝑖 𝑥)𝑒(𝑡+𝑖𝑥)2/2𝑑𝑥 =
= lim
𝑘→∞
∫ 𝑘
−𝑘
√1
2𝜋(𝑡 + 𝑖 𝑥)𝑒(𝑡+𝑖𝑥)2/2𝑑𝑥 =
= lim
𝑘→∞
√1
2𝜋(−𝑖)𝑒(𝑡+𝑖𝑥)2/2∣𝑘−𝑘
= lim
𝑘→∞
(−𝑖)
√2𝜋
[
𝑒(𝑡+𝑖𝑘)2/2 − 𝑒(𝑡−𝑖𝑘)2/2
]
= lim
𝑘→∞
(−𝑖)
√2𝜋𝑒(𝑡2−𝑘2)/2 [𝑒𝑡𝑖𝑘 − 𝑒−𝑡𝑖𝑘] Pero,
∣𝑒𝑡𝑖𝑘 − 𝑒−𝑡𝑖𝑘∣ ≤ 2 y lim
𝑘→∞𝑒(𝑡2−𝑘2)/2 = 0 Entonces, ℎ′(𝑡) = 0 ⇒ ℎ(𝑡) es constante. Pero
ℎ(0) = ∫ ∞
−∞
√1
2𝜋 𝑒−𝑥2/2𝑑𝑥 = 1
Entonces, ℎ(𝑡) = 1 ∀𝑡 y
𝜑𝑋(𝑡) = 𝑒−𝑡2/2
Si 𝑌 ∼ 𝑁(𝜇, 𝜎2), entonces, 𝑌 = 𝜎 𝑋 + 𝜇 con 𝑋 ∼ 𝑁(0, 1), entonces
𝜑𝑌(𝑡) = 𝜑𝜎𝑋+𝜇(𝑡) = 𝑒𝑖𝑡𝜇𝜑𝑋(𝜎𝑡) = 𝑒𝑖𝑡𝜇𝑒−𝜎2𝑡2/2
F´ormula de Inversi´on: Sea 𝑋 una v.a. con distribuci´on 𝐹 y funci´on caracter´ıstica 𝜑, y sean 𝑎 y 𝑏 dos puntos de continuidad de 𝐹 , 𝑎 < 𝑏, entonces
𝐹 (𝑏) − 𝐹 (𝑎) = 1
2𝜋 lim
𝑘→∞
∫ 𝑘
−𝑘
𝑒−𝑖𝑡𝑎 − 𝑒−𝑖𝑡𝑏
𝑖𝑡 𝜑(𝑡)𝑑𝑡
Corolario:
𝐹𝑋 = 𝐹𝑌 ⇐⇒ 𝜑𝑋 = 𝜑𝑌 (𝜑𝑋(𝑡) = 𝜑𝑌(𝑡) ∀𝑡 ∈ 𝑅)
Ejemplo: Sea 𝜑(𝑡) = 𝑐𝑜𝑠(𝑎𝑡) (𝑎 > 0)
Veremos que 𝜑 es una funci´on caracter´ıstica, hallando la v.a. 𝑋 correspondiente.
Como 𝜑(𝑡) es real, 𝑋 es sim´etrica. Adem´as, 𝜑(𝑡) = 𝑐𝑜𝑠(𝑎𝑡) = 𝐸(𝑐𝑜𝑠(𝑡𝑋))
pues la parte imaginaria es nula. Como 𝑐𝑜𝑠(𝑎𝑡) = 𝑐𝑜𝑠(−𝑎𝑡), 𝑋 es la v.a. discreta tal que
𝑃 (𝑋 = 𝑎) = 𝑃 (𝑋 = −𝑎) = 1/2.
Teorema de Helly–Bray: Sean 𝐹 y 𝐹1, 𝐹2, . . . fun- ciones de distribuci´on. Si 𝐹𝑛 converge d´ebilmente a 𝐹 , entonces
lim𝑛→∞ ∫ 𝑔(𝑥)𝑑𝐹𝑛(𝑥) = ∫ 𝑔(𝑥)𝑑𝐹 (𝑥)
para toda funci´on 𝑔 continua y acotada (𝑔 : 𝑅 → 𝑅).
Observaciones: 1) La rec´ıproca del Teorema es v´alida, o sea si
𝑛→∞lim
∫ 𝑔(𝑥)𝑑𝐹𝑛(𝑥) = ∫ 𝑔(𝑥)𝑑𝐹 (𝑥)
para toda 𝑔 continua y acotada, entonces 𝐹𝑛 converge d´ebilmente a 𝐹 y, debido a esta equivalencia, muchas veces se toma como definici´on de convergencia d´ebil.
2) Si 𝑋𝑛 → 𝑋, por Helly–Bray, 𝐸(𝑔(𝑋𝒟 𝑛)) converge a 𝐸(𝑔(𝑋)) , para toda 𝑔 continua y acotada. En particular, como 𝑠𝑒𝑛(𝑥) y 𝑐𝑜𝑠(𝑥) son continuas y acotadas, resulta que
𝑛→∞lim 𝜑𝑋𝑛(𝑡) = 𝜑𝑋(𝑡) ∀𝑡 ∈ 𝑅
Teorema de continuidad de Paul–Levy: Sean 𝐹1, 𝐹2, . . . funciones de distribuci´on y 𝜑1, 𝜑2, . . . sus correspondientes funciones caracter´ısticas. Si 𝜑𝑛 converge puntualmente a una funci´on 𝜑 y si 𝜑 es con- tinua en 0, entonces
a) existe una funci´on de distribuci´on 𝐹 tal que 𝐹𝑛 𝑤
→ 𝐹 b) 𝜑 es la funci´on caracter´ıstica de 𝐹
Notas:
1) Estos dos teoremas implican que
𝑋𝑛 → 𝑋 ⇐⇒ 𝜑𝒟 𝑋𝑛 → 𝜑𝑋
2) El Teorema de Paul–Levy es m´as fuerte que la
”suficiencia” pues dice que el l´ımite de una sucesi´on de funciones caracter´ısticas es una funci´on caracter´ıstica si es continua en 0.
Corolario:
a) Sean 𝑋1, 𝑋2, . . . v.a. Si 𝜑𝑋𝑛(𝑡) → 𝜑𝑋(𝑡)∀𝑡 ∈ 𝑅 y si 𝜑 es continua en 0, entonces 𝜑 es funci´on caracter´ıstica de alguna v.a. 𝑋, o sea 𝜑 = 𝜑𝑋 y 𝑋𝑛 𝒟
→ 𝑋.
b) Si 𝜑𝑋𝑛(𝑡) → 𝑒−𝑡2/2 ∀𝑡, entonces 𝑋𝑛 → 𝑍𝒟 con 𝑍 ∼ 𝑁(0, 1), es decir 𝐹𝑛 → 𝜙.𝑤
Teorema Central del L´ımite
Teorema Central del L´ımite para v.a. i.i.d:
Sean 𝑋1, 𝑋2, . . . v.a. i.i.d. con 𝐸(𝑋𝑖) = 𝜇, 𝑉 (𝑋𝑖) = 𝜎2 < ∞, y sea 𝑆𝑛 = 𝑋1 + 𝑋2 + . . . + 𝑋𝑛, entonces
𝑆𝑛 − 𝐸(𝑆𝑛)
√𝑉 (𝑆𝑛) = 𝑆𝑛 − 𝑛 𝜇 𝜎√
𝑛
→ 𝑍𝒟
con 𝑍 ∼ 𝑁(0, 1).
Demostraci´on: Supondremos 𝜇 = 0. Por el Teorema de Paul–Levy, basta probar que
𝜑𝑆𝑛/𝜎√𝑛(𝑡) → 𝑒−𝑡2/2 ∀𝑡 ∈ 𝑅
𝜑𝑆𝑛/𝜎√𝑛(𝑡) = 𝜑𝑆𝑛
⎛
⎜
⎝
𝑡 𝜎√
𝑛
⎞
⎟
⎠ = ∏𝑛
𝑖=1𝜑𝑋𝑖
⎛
⎜
⎝
𝑡 𝜎√
𝑛
⎞
⎟
⎠ =
⎡
⎢
⎣𝜑𝑋𝑖
⎛
⎜
⎝
𝑡 𝜎√
𝑛
⎞
⎟
⎠
⎤
⎥
⎦
𝑛
Como 𝐸(𝑋𝑖2) < ∞, entonces 𝜑𝑋𝑖 tiene dos derivadas continuas y, aplicando la f´ormula de Taylor
𝜑𝑋𝑖(𝑡) = 𝜑𝑋𝑖(0) + 𝜑(1)𝑋𝑖(0) 𝑡 + 𝜑(2)𝑋𝑖(𝜃) 𝑡2/2 donde ∣𝜃∣ ≤ ∣𝑡∣.
𝜑𝑋𝑖(𝑡) = 𝜑𝑋𝑖(0)+𝜑(1)𝑋𝑖(0) 𝑡+𝜑(2)𝑋𝑖(0) 𝑡2 2+𝑡2
2 [𝜑(2)𝑋𝑖(𝜃)−𝜑(2)𝑋𝑖(0)]
donde 𝜑(2)𝑋𝑖(𝜃) − 𝜑(2)𝑋𝑖(0) →𝑡→0 0.
Pero,
𝜑𝑋𝑖(0) = 1 𝜑(1)𝑋𝑖(0) = 𝑖𝜇 = 0 𝜑(2)𝑋𝑖(0) = 𝑖2𝐸(𝑋𝑖2) = −𝜎2 Entonces
𝜑 (𝑡) = 1 − 𝜎2𝑡2
+ 𝑡2 𝜖(𝑡)
donde lim𝑡→0𝜖(𝑡) = 0.
Para 𝑡 fijo,
⎡
⎢
⎣𝜑𝑋𝑖
⎛
⎜
⎝
𝑡 𝜎√
𝑛
⎞
⎟
⎠
⎤
⎥
⎦
𝑛
=
⎡
⎢
⎣1 − 𝑡2
2𝑛 + 𝑡2
2𝜎2𝑛𝜖( 1 𝜎√
𝑛)
⎤
⎥
⎦
𝑛
=
=
⎡
⎢
⎣1− 𝑡2 2𝑛
⎛
⎜
⎝1− 1
𝜎2 𝜖( 1 𝜎√
𝑛)
⎞
⎟
⎠
⎤
⎥
⎦
𝑛
→𝑛→∞ 𝑒−𝑡2/2 pues 1 − 𝜎12𝜖(𝜎√1𝑛) →𝑛→∞ 1.
Corolario (TCL de De Moivre y Laplace): Sea 𝑆𝑛 el n´umero de ´exitos en 𝑛 ensayos Bernoulli independientes con probabilidad 𝑝 de ´exito (0 < 𝑝 < 1), entonces
𝑆𝑛 − 𝑛 𝑝
√𝑛 𝑝 (1 − 𝑝)
→ 𝑍𝒟
con 𝑍 ∼ 𝑁(0, 1).
Ejemplos: 1) Al sumar n´umeros, una calculadora aproxima cada n´umero al entero m´as pr´oximo. Los errores de aproximaci´on se suponen independientes y con distribuci´on 𝑈 (−0.5, 0.5).
a) Si se suman 1500 n´umeros, cu´al es la probabilidad de que la magnitud del error total exceda 15?
𝑃 (∣𝑆1500∣ > 15) = 1 − 𝑃 (∣𝑆1500∣ ≤ 15) =
= 1− 𝑃 (−15 ≤ 𝑆1500 ≤ 15) =
= 1− 𝑃
⎛
⎜
⎜
⎝
−15
√1500/12 ≤ 𝑆1500
√1500/12 ≤ 15
√1500/12
⎞
⎟
⎟
⎠
pues 𝐸(𝑋𝑖) = 0 y 𝑉 (𝑋𝑖) = 1/12. Entonces,
𝑃 (∣𝑆1500∣ > 15) (𝑎)= 1 − 𝜙(15/11.18) + 𝜙(−15/11.18) = 1 − 𝜙(1.34) + 𝜙(−1.34) = 0.18
b) Cu´antos n´umeros pueden sumarse a fin de que la mag- nitud del error total sea menor que 10, con probabilidad 0.90?
𝑛 tal que 𝑃 (∣𝑆𝑛∣ ≤ 10) ≥ 0.90 𝑃 (−10 ≤ 𝑆𝑛 ≤ 10) ≥ 0.90
𝑃
⎛
⎜
⎜
⎝
−10
√𝑛/12 ≤ 𝑆𝑛
√𝑛/12 ≤ 10
√𝑛/12
⎞
⎟
⎟
⎠ ≥ 0.90 𝜙
⎛
⎜
⎜
⎝
10
√𝑛/12
⎞
⎟
⎟
⎠ − 𝜙
⎛
⎜
⎜
⎝
−10
√𝑛/12
⎞
⎟
⎟
⎠ ≥ 0.90
2 𝜙
⎛
⎜
⎜
⎝
10
√𝑛/12
⎞
⎟
⎟
⎠ − 1 ≥ 0.90 10
√𝑛/12 ≥ 1.64
√𝑛 ≤ 21.12 𝑛 ≤ 446
2) Sea 𝑋 ∼ 𝐵𝑖(60, 1/3). Calcular en forma aproximada la probabilidad de que 𝑋 sea mayor o igual que 25.
𝑃 (𝑋 ≥ 25) = 𝑃 (𝑋 ≥ 24.5) =
𝑃
⎛
⎝𝑋 − 20√
13.33 ≥ 24.5√ − 20 13.33
⎞
⎠
(𝑎)= 1−𝜙(1.23) = 1−0.89 = 0.11
Proposici´on: Sean 𝑋 y 𝑋1, 𝑋2, . . . v.a. y 𝑔 : 𝑅 → 𝑅 una funci´on continua, entonces
a) 𝑋𝑛 → 𝑋𝑝𝑝 ⇒ 𝑔(𝑋𝑛) → 𝑔(𝑋)𝑝𝑝 b) 𝑋𝑛 → 𝑋𝑝 ⇒ 𝑔(𝑋𝑛) → 𝑔(𝑋)𝑝 c) 𝑋𝑛 → 𝑋𝒟 ⇒ 𝑔(𝑋𝑛) → 𝑔(𝑋)𝒟
Ejemplos:
1) 𝑋𝑛 → 𝑍 ∼ 𝑁(0, 1)𝒟 ⇒ 𝑋𝑛2 → 𝑊 ∼ 𝜒𝒟 21
2) 𝑋𝑛 → 𝑍 ∼ 𝑁(0, 1)𝒟 ⇒ 𝑐 𝑋𝑛 → 𝑌 ∼ 𝑁(0, 𝑐𝒟 2) 3) 𝑋𝑛 → 𝑐 (𝑐 > 0)𝑝 ⇒ 𝑙𝑛(𝑋𝑛) → 𝑙𝑛(𝑐)𝑝
Nota: Si 𝑔 no est´a definida o no es continua en toda la recta (𝑔(𝑥) = 𝑙𝑛(𝑥) o 𝑔(𝑥) = 1/𝑥), se puede probar que la proposici´on anterior es cierta si, para alg´un abierto 𝐴 de 𝑅, 𝑔 es continua en 𝐴 y 𝑃 (𝑋 ∈ 𝐴) = 1.
Teorema de Slutsky: Sean 𝑋, 𝑋1, 𝑋2, . . . e 𝑌1, 𝑌2, . . . v.a. tales que 𝑋𝑛 → 𝑋, 𝑌𝒟 𝑛 → 𝑐 (𝑐 constante), entonces:𝑝 a) 𝑋𝑛 + 𝑌𝑛 → 𝑋 + 𝑐𝒟
b) 𝑋𝑛 − 𝑌𝑛 → 𝑋 − 𝑐𝒟 c) 𝑋𝑛 𝑌𝑛 𝒟
→ 𝑐 𝑋
d) Si 𝑐 ∕= 0 y 𝑃 (𝑌𝑛 ∕= 0) = 1, entonces 𝑋𝑛
𝑌𝑛
→𝒟 𝑋 𝑐
Proposici´on: Sean 𝑌1, 𝑌2, . . . v.a. tales que
√𝑛(𝑌𝑛 − 𝜇) → 𝑁(0, 𝜎𝒟 2)
Si 𝑔(𝑦) es una funci´on derivable en 𝜇, entonces
√𝑛(𝑔(𝑌𝑛) − 𝑔(𝜇)) → 𝑁(0, 𝜎𝒟 2(𝑔′(𝜇))2)
Nota: Vale si 𝑔′(𝜇) = 0, si se piensa que 𝑁 (0, 0) equivale a la masa puntual en 0.
Ejemplo: Si 𝑋1, 𝑋2, . . . son v.a. i.i.d. con 𝐸(𝑋𝑖) = 𝜇 y 𝑉 (𝑋𝑖) = 𝜎2 < ∞ entonces, por el TCL:
𝑆𝑛 − 𝑛 𝜇
√𝑛 𝜎
→ 𝑁(0, 1)𝒟
√𝑛
⎛
⎜
⎝
𝑋¯𝑛 − 𝜇 𝜎
⎞
⎟
⎠
→ 𝑁(0, 1)𝒟
√𝑛 (𝑋¯𝑛 − 𝜇) → 𝑁(0, 𝜎𝒟 2) Sea 𝑔(𝑥) = 𝑥2, entonces 𝑔′(𝜇) = 2 𝜇 y
√𝑛 (𝑋¯𝑛2 − 𝜇2) → 𝑁(0, 4 𝜎𝒟 2𝜇2)
Teorema Central del L´ımite de Lindeberg:
Sean 𝑋1, 𝑋2, . . . v.a. independientes tales que 𝐸(𝑋𝑛) = 𝜇𝑛 y 𝑉 (𝑋𝑛) = 𝜎𝑛2 < ∞ con por lo menos un 𝜎𝑛 > 0. Sea 𝑆𝑛 = 𝑋1 + . . . + 𝑋𝑛, entonces para que
𝑆𝑛 − 𝐸(𝑆𝑛)
√𝑉 (𝑆𝑛)
→ 𝑍 ∼ 𝑁(0, 1)𝒟
es suficiente que se satisfaga la siguiente condici´on:
∀𝜖 > 0 𝑙𝑖𝑚𝑛→∞ 1 𝑠2𝑛
∑𝑛 𝑘=1
∫
∣𝑥−𝜇𝑘∣>𝜖 𝑠𝑛(𝑥−𝜇𝑘)2𝑑𝐹𝑘(𝑥) = 0 donde 𝐹𝑘 = 𝐹𝑋𝑘 y 𝑠𝑛 = √𝑉 (𝑆𝑛) = √𝜎12 + ... + 𝜎𝑛2.
Nota: La condici´on de Lindeberg significa que los t´erminos 𝑋𝑘 − 𝜇𝑘
𝑠𝑛
de la suma 𝑆𝑛 − 𝐸(𝑆𝑛) 𝑠𝑛
son uniformemente peque˜nos para 𝑛 grande.
Por ejemplo, la condici´on de Lindeberg implica que
1≤𝑘≤𝑛max 𝜎𝑘2
𝑠2𝑛 → 0
cuando 𝑛 → ∞, o sea que las varianzas de cada sumando 𝑋𝑘 son uniformemente peque˜nas cuando 𝑛 es grande y, por lo tanto, ning´un sumando tiene demasiado peso en la suma 𝑆𝑛−𝐸(𝑆𝑛).