Introducci´on. En este escrito exponemos de forma detallada elTeorema de Bernoulli. Inroducimos primero el modelo de distribuci´on Bernoulli par´ametro p, ofreciendo una discusi´on sobre el sentido del teorema que nos ocupa. En la secci´on inmediata, formalizamos el concepto de independencia para vari-ables aleatorias (y ensayos) Bernoulli e introducimos el modelo de distribuci´on binomial como una suma finita de variables aleatorias Bernoulli independi-entes y con mismo par´ametrop. Complementariamente se probar´an algunos propiedades ´utiles para la prueba delTeorema de Bernoulli, el cual se enuncia y se demuestra en la ´ultima parte de este texto.
Lo aqu´ı expuesto est´a basado enteramente en las referecias bibliog´aficas que aparecen al final. Estas p´aginas est´an dedicadas a los autores.
Contenido
1. Ensayos Bernoulli 2
2. Modelo de probabilidad y distribuci´on Bernoulli 3 3. Modelo de probabilidad y distribuci´on binomial 4
4. Teorema de Bernoulli 10
Referencias 12
1. Ensayos Bernoulli
Definici´on 1(Ensayo Bernoulli). Unensayo Bernoullies un fen´omeno aleatorio que solo admite dos posibles eventualidades, uno denominado´exitoy otrofracaso.
Los ejemplos cl´asicos de ensayos Bernoulli son los juegos de azar que consisten en “ganar” o “perder”, como los volados, la loter´ıa y ciertos juegos de apuesta con cartas.
Probabilidad de ´exito en un ensayo Bernoulli. Un ensayo Bernoulli est´a asociado a un par´ametropdeterminado por la probabilidad de obtener ´exito en la realizaci´on del ensayo. Definimos los par´ametros
p:= Probabilidad de ´Exito y q= 1−p:= Probabilidad de Fracaso.
Ensayos Bernoulli independientes. Dos (o m´as) ensayos Bernoulli son independientessi la realizaci´on de alguno de ellos (o algunos de ellos) no altera en forma alguna, en t´erminos estoc´asticos, el resultado de ning´un otro (o ningunos otros). En tal caso, diremos que se trata de una sucesi´on (finita o infinita) de ensayos Bernoulli independientes. Lanzar sucesivamente una moneda (o monedas distintas cada vez) constituye el ejemplo t´ıpico de sucesi´on de ensayos Bernoulli independientes.
Sucesi´on de ensayos Bernoulli independientes con misma probabili-dad de ´exito. Debemos remarcar que las propiedades caracter´ısticas de un ensayo Bernoulli son puramente estoc´asticas. Es decir, dos (o m´as) ensayos Bernoulli se distinguen entre s´ı, seg´un si las probabilidades de ´exito (y por ende, las de fracaso) de cada uno de ellos son tambi´en distintas. Una sucesi´on de repeticiones indepen-dientes (es decir, bajo las mismas e igualitarias condiciones) de un mismo ensayo Bernoulli (como lanzar la misma modena), se interpreta como una sucesi´on de en-sayos Bernoulli independientes con la misma probabilidad de ´exito. Por ejemplo, lanzar una misma moneda 10 veces es equivalente a lanzar 10 modenas id´enticas (aunque en la pr´actica ello puede parecer imposible).
Principio de regularidad de las frecuencias relativas. La forma en que se determina el par´ametropno es una cuesti´on trivial. Por ejemplo, pensemos en el t´ıpico experimento de lanzar una modena al aire (volado). Decimos que una moneda eshonestasi observamos, tras varios lanzamientosindependientes que la regularidad con la que resulta ´aguila es cercana al 50% de las veces, y en este caso, ateniendonos a un esquema de razonamiento frecuentista, aceptamos que la probabilidad de ´exito (o fracaso) es 0.5. Esto es, ambos resultados son equiprobables.
En general, a´un cuando la moneda podr´ıa estar cargada hacia un resultado, ya sea ´aguila o sol, en la pr´actica, es posible observar que la regularidad frecuentista con la que ocurre tanto sol como ´aguila tiende a ser estable, de modo que en principio, podemos aceptar que hay un valor “te´orico” para las probabilidades de que la moneda caiga sol o bien ´aguila, y que las distintas frecuencias relativas, tras numerosas sucesiones de repeticiones independientes del volado, son estimaciones de dicho valor te´orico. Este hecho emp´ırico es conocido comoPrincipio de regularidad de las frecuencias relativas.
No obstante, podr´ıamos cuestionar si es v´alido “aproximar” el supuesto valor te´orico de las probabilidades de ´exito y fracaso (los par´ametros p y q) mediante sucesiones de repeticiones independientes del volado, en tanto que, en apariencia, no hay manera de saber qu´e n´umero de volados hay que realizar para aproximar, dentro de un margen de error establecido a priori, los valores de los par´ametros p y q. Y por otro lado, aunque en la pr´actica, desde siempre, se ha aceptado que el valor de p, sea cual fuere, puede aproximarse por este razonamiento de regularidad frecuentista, hasta el trabajo de Bernoulli no hab´ıa manera de justificar de alg´un modo esta v´ıa en la determinaci´on depyq, al menos dentro de una teor´ıa matem´atica consistente.
ElTeorema de Bernoulli. Bernoulli trabaj´o, seg´un sus propias palabras, cerca de 20 a˜nos en este problema. Bernoulli dio la primera forma matem´atica rigurosa de comprender una teor´ıa de la probabilidad basada en los principios frecuentistas comunmente aceptados. Dentro de este marco te´orico, demostr´o finalmente que en t´erminos estoc´asticos (lo cual es relevante se˜nalar), el esquema frecuentista de razonamiento en la aproximaci´on del par´ametro p, es efectivo. Intuitivamente, el
Teorema de Bernuolli afirma que, dado un margen de error previamente estable-cido, tras un n´umero grande de realizaciones independientes de un mismo ensayo Bernoulli, la diferencia entre la frecuencia relativa con que ocurre ´exito y el valor te´orico del par´ametrop, es muy probablemente menor a dicho margen.
actuales, se puede probar que, de hecho, es “casi seguro” que el valor te´orico (supuesto) de p es pr´oximo a la la frecuencia relativa con que ocurre ´exito, tras un n´umero grande de repeticiones sucesivas e independientes de un mismo ensayo Bernoulli. Esto se conoce ahora como Ley fuerte de los grandes n´umeros (para el caso de ensayos Bernoulli).
Aunque el Teorema de Bernoulli se˜nala que es pausible determinar mediante regularidad frecuentista el valor depen una sucesi´on de ensayos Bernoulli indepen-dientes, es importante observar que estos enunciados est´an expresadas en t´erminos estoc´asticos, como algo que sucede muy probablemente, y de ninguna manera son conlusiones deterministas.
2. Modelo de probabilidad y distribuci´on Bernoulli
Al margen de toda discusi´on relativa al Principio de regularidad de las frecuen-cias relativas, cualquier ensayo Bernoulli tiene un modelo matem´atico preciso. Si denotamos comoE el evento “se obtiene ´exito” yF el evento “se obtiene fracaso”, entonces la clase de eventos es la familia de conjuntos complementariosF={E, F}. Sipdenota la probabilidad de ´exito, entonces la medida de probabilidad queda de-terminada con las f´ormulas
P(E) =p y P(F) = 1−p=q.
Debemos notar que el espacio muestral puede tener diversas formas, como en los siguientes ejemplos.
Ejemplo 1. Supongamos que lanzamos una moneda honesta. Podemos describir el espacio muestral comoΩ ={s, a}, dondes=“sol” ya=“´aguila”. Si definimos ´exito como “cae sol” y fracaso como “cae ´aguila”, entoncesE={s} y F ={a}. Luego, dado que la moneda es honesta, P(E) = 12 =P(F). En general, si la probabilidad
de que la moneda caiga en sol es p∈[0,1], entonces P(E) =pyP(F) = 1−p=q.
Ejemplo 2. Un juego consiste en extraer una bola de una urna que contiene
50 bolas numeradas. Se gana el juego si la bola extra´ıda est´a marcada con un n´umero primo. En este juego, el espacio muestral es la colecci´on Ω ={1, ...,50}. Suponiendo que el juego es justo, la probabilidad de extraer cualquiera de las bolas es 501. Por otro lado, el evento ´exito es el conjunto E = {2,3,5, ....,50}, o bien,
E={1≤n≤50 :n es primo}. As´ı,
P(E) = 15 50 =
3
10 y P(F) = 1−P(E) = 7 10.
Es posible modelar cualquier ensayo Bernoulli mediante una variable aleatoria param´etrica.
Definici´on 2 (Variable aleatoria Bernoulli). Una variable aleatoria discretaX es
Bernoulli de par´ametro p∈[0,1] si solo toma los valores1 y 0, con probabili-dadespy 1−prespectivamente.
Esto es, en un espacio de probabilidad (Ω,F,P), una v.a. X: Ω→Res Bernoulli de par´ametrop, conp∈[0,1], si el rango deX es el conjunto{0,1}y la funci´on de probabilidades deX est´a dada por
Ejemplo 3. Si sabemos que una modena es honesta, entonces la v.a. X que es igual a 1 si se obtiene sol al lanzar la moneda (´exito), y vale 0 cuando cae ´aguila, es una Bernoulli de par´ametro 12.
Ejemplo 4. Un juego consiste en extraer una bola de una urna que est´a compuesta de 8 bolas negras y 12 rojas. El juego se gana (´exito) si se obtiene bola negra. Definimos X como la v.a. que vale 1 en caso de ´exito y 0 en caso de fracaso. EntoncesX es Bernoulli de par´ametro 208.
3. Modelo de probabilidad y distribuci´on binomial
Modelo de probabilidad binomial. Muchos fen´omenos aleatorios pueden descomponerse en una sucesi´on finita de ensayos Bernoulliindependientes uno de otro. Un ejemplo t´ıpico consiste en lanzar cierto n´umero de veces una misma moneda (balanceda o no) en condiciones de igualdad. Aqu´ı de se trata de una serie de ensayos Bernoulli con igual probabilidad de ´exito. O bien, realizar tantos lanza-mientos como monedas distintas se tenga. Aqu´ı se trata de ensayos Bernoulli con distintas probabilidades de ´exito. El modelo estoc´astico aplicado a los fen´omenos consistentes en una serie finita de ensayos Bernoulli independientes con igual pro-babilidad de ´exito es conocido comomodelo binomial de probabilidad. En lo que sigue describimos c´omo construir este modelo.
Espec´ıficamente, supongamos que un experimento aleatorio consiste en una sucesi´on de n ensayos Bernoulli independientes con igual probabilidad de ´exito p ∈ [0,1]. El problema es encontrar un modelo de probabilidad adecuado a este fen´omeno.
El punto central ser´a la condici´on de independencia de los ensayos Bernoulli. Dicha condici´on, impuestaa priori, no es siempre absoluta desde un punto de vista pr´actico. Por ejemplo, podemos cuestionar si es realmente posible lanzar dos veces la misma monedaexactamentebajo las misma condiciones.
Omitiendo esta cuesti´on, en cuanto al modelo te´orico, la condici´on de inde-pendencia tiene una clara formulaci´on matem´atica. En efecto, si Ei denota el
evento “se obtiene ´exito en eli-´esimo ensayo”, yFi el evento “se obtiene fracaso”,
para 1 ≤i ≤n, y si suponemos que P es una medida de probabilidad adecuada, entonces, en primer lugar,
P(Ei) =p y P(Fi) =q= 1−p, 1≤i≤n,
y por otra parte, para cualquier colecci´on finita de ´ındices 1≤i1< i2<· · ·im≤n,
los eventos Ai1,...,Aim, donde cada literalA puede sustituirse por las literalesE ´o
F, son independientes respecto aP. Por ejemplo,
(2) P(E1∩E3∩F6∩E7) =P(E1)P(E3)P(F6)P(E7) =p3q
Es f´acil entender estas cualidades de P si asuminos que ning´un ensayo Bernoulli altera o modifica a ning´un otro, en t´erminos estoc´asticos.
Ahora bien, hay que notar que todo el experimento queda descrito mediante los conjuntos de la forma
Ai1∩Ai2∩ · · · ∩Aim,
donde 1≤i1< i2 <· · ·< im≤n, y la literalApuede sustituirse con las literales
muestral Ω (sea cual sea). Por lo que la medida de probabilidad buscadaPqueda completamente determinada por las probabilidades
P(Ai1∩Ai2∩ · · · ∩Aim) =P(Ai1)P(Ai2)· · ·P(Aim) =p
aqb,
dondeaes el n´umero de ´exitos en la colecci´onAi1,...,Aim, ybel n´umero de fracasos.
Ejemplo 5. Un juego de azar consiste en extraer una bola de una urna que contiene
50 bolas numeradas del 1 al 50. El juego se gana si se obtiene una bola marcada con un n´umero primo. ¿Cu´al es la probabilidad de ganar al menos5 veces en una serie de10repeticiones independientes del juego?
Notamos primero que el espacio muestral Ωest´a constituido por todas las suce-siones ordenadas de10 n´umeros
(n1, ..., n10), donde 1≤ni≤50, para 1≤i≤10.
Por otro lado, si Ei denota el evento “se gana en el i-´esimo juego” (´exito), para cada1≤i≤10, entonces
Ei={(n1, ..., n10)∈Ω : ni es primo}.
De modo que
P(Ei) =
509·15 5010·15 =
3 10
Por tanto, la probabilidad de perder (fracaso) en eli-´esimo juego es
P(Fi) = 1−P(Ei) =
7 10.
Ahora, para ganar exactamente kveces en la serie de 10 repeticiones del juego, deben suceder exactamente k extracciones con n´umero primo, lo cual ocurre una cantidad de 10k
de formas posibles. Luego, seg´un el principio de aditividad finita, la probabilidad de ganar exactamentek veces en la corrida de10juegos es
10
k 3 10
k 7
10
10−k
.
Finalmente, por el mismo principio de aditividad finita, la probabilidad de ganar al menos5 juegos en la serie de10 juegos est´a dada por
10
X
k=5
10
k 3 10
k 7
10
10−k
.
Variables aleatorias Bernoulli independientes. Podemos introducir un n´umero finito de variables aleatorias Bernoulli (tantas como ensayos Bernoulli) para modelar cada uno de las repeticiones del mismo ensayo Bernoulli. Concretamente, seaXi la v.a. Bernoulli par´ametropcorrespondiente a lai-´esima repetici´on de un
ensayo Bernoulli (par´ametrop), 1≤i≤n. Es decir, Xi es una variable aleatoria
que admite el valor 1 si se obtiene ´exito en eli-´esimo ensayo Bernoulli, y 0 si sucede fracaso.
La extensi´on del concepto de idependencia para estas variables aleatorias es entonces natural. Por ejemplo, podemos reescribir la igualdad (??), como
Definici´on 3. Decimos que las variables aleatorias X1, X2,...,Xn Bernoulli con probabilidad de ´exito p ∈ [0,1], definidas sobre un mismo espacio de probabili-dad (Ω,F,P), son independientes si para cualesquiera n´umeros xj ∈ {0,1}, j =
1, ..., m≤n,
(3) P[Xi1 =x1, ..., Xim =xm] =P[Xi1 =x1]× · · · ×P[Xim =xm].
Dado que P(Xk = xi) = pxi(1−p)1−xi, entonces la igualdad (??) tiene la
expresi´on espec´ıfica
P[Xi1 =x1, ..., Xim =xm] =p
Pm
j=1xj(1−p)m−Pmj=1xj.
Note que esta probabilidad depende ´unicamente de los n´umerosx1,...,xm y de la
muestrax1,...,xm.
Suma de variables aleatorias Bernoulli independientes. Distribuci´on Binomial. En n ensayos Bernoulli con probabilidad de ´exito p, si Xi es la v.a.
Bernoulli par´ametro pcorrespondiente al i-´esimo ensayo, i = 1, ..., n, entonces la variable aleatoriaX definida como la suma de tales variables aletorias, es decir,
X:=X1+X2+· · ·+Xn,
cuenta el n´umero de ´exitos obtenidos en la sucesi´on denensayos Bernoulli. Para un valork∈ {0, ..., n}, la v.a. X es igual a kunicamente cuando´ kde las nvariablesX1,...,Xn toma el valor 1, y las restantesn−ktoman el valor 0. Esta
hecho sugiere c´omo debe ser la disribuci´on deX.
Teorema. Supongamos que X1,...,Xn son variables aleatorias independientes con misma distruci´on Bernoulli par´ametrop∈[0,1], definidas sobre un mismo espacio de probabilidad (Ω,F,P). Entonces la funci´on de probabilidades de X :=Pn
i=1Xi
est´a dada por
pX(k) :=P(X=k) =
n
k
pk(1−p)n−k,
parak= 0, ..., n.
Demostraci´on. Claramente, el rango deX es el conjuntoR={0,1,2, ..., n}. Para cadak∈R, definimos la clase de subconjuntos
Γk ={A⊂R:|A|=k}.
Por ejemplo, Γ0={∅}, Γ1={{0},{1}, ...,{n}}y Γn={{0,1,2, ..., n}}. Entonces
|Γk|=
n
k
.
La clase Γk respresenta todas las formas posibles en que podemos elegirkensayos
denensayos realizados.
Ahora, para cadaA∈Γk definimos el evento
SA=
\
j∈A
(Xj= 1)
\
\
j /∈A
(Xj= 0)
.
Es decir, despu´es de realizar una particular elecci´on dekensayos denrealizados (el eventoA),SA es el caso en donde se obtienen exactamentek´exitos (o
independientes del ensayo Bernoulli. Por independencia, tenemos
P[SA] =
Y
j∈A
P[Xj = 1]
×
Y
j /∈A
P[Xj = 0]
=pk(1−p)n−k.
Por otro lado, siA, B∈Γk, entoncesA6=B si y s´olo si SA∩SB =∅. Adem´as,
(X=k) = (X1+X2+· · ·+Xn=k) =
[
A∈Γk
SA.
De este modo,
P[X =k] =
X
A∈Γk
P[SA]
=|Γk|pk(1−p)n−k
=
n
k
pk(1−p)n−k.
Esta distribuci´on, que depende de dos par´ametrosn y p, es tambi´en conocida con un nombre especial dada su relevancia.
Definici´on 4. Decimos que una variable aleatoriaXtienedistribuci´on binomial
par´ametrosn∈N yp∈(0,1), si la funci´on de probabilidades de X est´a dada por
pX(x) =
n
k
px(1−p)n−x,
parax∈ {0, ..., n}.
Ejemplo 6. Pensemos en experimento descrito en el ejemplo ??. Definimos Xi como la v.a. que toma al valor 1 si se obtiene n´umero primo en la i-´esima ex-tracci´on y 0 si no, 1≤i≤n. Claramente, las variables aleatorias X1,...,X10 son Bernoulli independientes de par´ametro 103. De modo queX=P10
i=1Xies binomial de par´ametrosn= 10y p= 3
10. De modo que la probabilidad de obtener al menos 5 n´umero primos en10 extracciones es
P(X ≥5) = 10
X
k=5
P(X=k) = 10
X
k=5
10
k 3 10
k 7
10
10−k
.
Podemos programar en Octave este ejemplo. Describimos el c´odigo a contin-uaci´on. Creamos primero la funci´on binomial con el c´odigo
function y=fp_binomial(x,n,p) >for i=1:length(x)
>y(i)=(nchoosek(n,x(i)))*(p^x(i))*((1-p)^(n-x(i))); >end
>endfunction
>x=0:10;
>y=fp_binomial(x,10,0.33); >stem(x,y,’-.k’)
Obtenemos
0 0.05 0.1 0.15 0.2 0.25
0 2 4 6 8 10
Figure 1. Distribuci´on binomial par´ametrosn= 10 yp= 0.33.
El valor m´aximo se alcanza en x = 3. Antes de este valor, la distribuci´on es creciente, en seguida la distribuci´on decrece. A continuaci´on verificamos que este comportamiento de “campana”, es caracter´ıstico de la distribuci´on binomial, el cual liga esta distribuci´on con una de las distribuciones m´as importantes, la distribuci´on normal o gaussina.
Sixes un n´umero real, recordemos quebxcdenota la parte entera dex, esto es el m´aximo entero menor o igual quex.
Teorema. SiX es una variable aleatoria con distribuci´on binomial con par´ametros
n y p (0 ≤ p < 1), entonces la funci´on de probabilidades pX es creciente en
{0,1, ...,bp(n + 1)c}, y es decreciente en {bp(n + 1)c, ..., n − 1, n}. As´ı,
pX alcanza su valor m´aximo en k = bp(n+ 1)c. Si p = 1, pX es creciente y el valor m´aximo se alcanza enk=n.
Demostraci´on. Si p= 0 ´o p= 1, la afirmaci´on es obvia. Supongamos 0 < p <1, entoncesp(n+ 1)< n+ 1, luegop(n+ 1)≤n. Por tanto 0≤ bp(n+ 1)c ≤n.
Ahora, seaj ∈ {1, ..., n−1}. Entonces
pX(j−1)
pX(j)
=
n j−1
pj−1(1−p)n−j+1
n j
pj(1−p)n−j
De este modo,
pX(j−1)< pX(j) ⇔
pX(j−1)
pX(j)
<1
⇔ j(1−p) (n−j+ 1)p<1 ⇔ j−jp < np−jp+p ⇔ j < p(n+ 1)
⇔ j≤ bp(n+ 1)c.
EntoncespX es creciente en{0,1, ...,bp(n+ 1)c}.
Por otra parte, sij∈ {0,2, ..., n−1}, entonces
pX(j)
pX(j+ 1)
=
n j
pj(1−p)n−j
n j+1
pj+1(1−p)n−j−1
=(j+ 1)(1−p) (n−j)p .
De este modo,
pX(j)> pX(j+ 1) ⇔
pX(j)
pX(j+ 1)
>1
⇔ (j+ 1)(1−p) (n−j)p >1 ⇔ j−jp+ 1−p > np−jp
⇔ j > p(n+ 1)−1 ⇔ j≥ bp(n+ 1)c.
EntoncespX es decreciente en{bp(n+ 1)c, ..., n−1, n}.
De lo anterior se sigue quepX alcanza su valor m´aximo enk=bp(n+ 1)c.
Naturalmente, siX tiene distribuci´on binomial y cuenta el n´umero de ´exitos en nensayos Bernoulli, entoncesn−X, que cuenta el n´umero de fracasos en el mismo n´umero de ensayos Bernoulli, tiene tambi´en distribuci´on binomial.
Proposici´on. SiX es una variable aleatoria binomial par´ametrosnyp, entonces
Y = n−X es una variable aleatoria con distribuci´on binomial par´ametros n y
q= 1−p.
Demostraci´on. Claramente el rango deY es el conjunto{0,1, ..., n}. Ahora, sikes un n´umero en este rango, entonces
P[Y =k] =P[n−X =k] =P[X =n−k] =
n
n−k
pn−k(1−p)n−(n−k)
=
n
k
qk(1−q)n−k.
4. Teorema de Bernoulli
Ahora estamos en condiciones de probar el resultado principal de estas notas.
Teorema de Bernoulli. Supongamos que para cada n ≥1, X1,...., Xn es una colecci´on de variables aleatorias independientes, cada una de ellas con distribuci´on Bernoulli par´ametrop, donde0≤p≤1. Entonces, para toda >0
lim
n→∞P
Pn
i=1Xi
n −p
> = 0.
Demostraci´on. Paran∈Nconsideremos la variable aleatoriaZn =P n
i=1Xi.
En-toncesZn tiene distribuci´on Binomial par´ametrosny p. Para cadaj ∈ {1, ..., n},
para reducir notaci´on, definimos
tj=P[Zn=j] =
n
j
pj(1−p)n−j.
Tambi´en nombramos
sj =
tj
tj−1
=
n j
pj(1−p)n−j n
j−1
pj−1(1−p)n−j+1
=(n−j+ 1)p j(1−p) .
Dado que n−j+ 1< n−j+ 2 y j−1< j, entonces (n−j+ 1)(j−1)<(n−j+ 2)j, de aqu´ı,
sj =
(n−j+ 1)p j(1−p) <
(n−j+ 2)p
(j−1)(1−p) =sj−1. Es decir, la colecci´on de n´umeros{sj}nj=1 es decreciente.
Ahora, consideremosj≥k >(n+ 1)p, entonces
tj=
tj
tj−1
tj−1=sjtj−1≤sktj−1,
de donde
tj≤sktj−1≤s2ktj−2≤ · · · ≤s
j−k
k tj−(j−k)=s
j−k k tk.
Por lo tanto,
P[Zn ≥k] = n
X
j=k
tj ≤tk n
X
j=k
sjk−k,
y dado que
n
X
j=k
sjk−k= 1−s
n−k+1
k
1−sk
< 1 1−sk
= k(1−p) k−(n+ 1)p,
se sigue
(4) P[Zn≥k]<
k(1−p) k−(n+ 1)ptk.
Ahora bien, seam= [(n+ 1)p] (notamos que, por definici´on,m≤(n+ 1)p). Dado que
entonces
1>P[k > Zn≥m] =tm+tm+1+· · ·+tk−1>(k−m)tk≥(k−(n+ 1)p)tk,
de donde
tk <
1 k−(n+ 1)p. Comparando con (??),
P[Zn ≥k]<
k(1−p) (k−(n+ 1)p)2.
Sea > 0 y sea n ∈ N tal que n > 1 (propiedad arquimideana). Sea k0 = [n(p+)] + 1. Observamos quek0es el ´unico entero tal que
n(p+ 1)< n(p+)< k0≤n(p+) + 1.
De este modo,
P
Pn
i=1Xi
n −p >
=P
Z
n
n −p >
=P[Zn > n(p+)]
=P[Zn ≥k0]
< k0(1−p) (k0−(n+ 1)p)2
≤ (np+n+ 1)(1−p) (np+n+ 1−(n+ 1)p)2
=(np+n+ 1)(1−p) (n+p)2 .
Por lo tanto
lim
n→∞P Pn
i=1Xi
n −p >
= 0. Ahora bien, p− Pn
i=1Xi
n >
=
p−Zn n >
=
n−Z
n
n −(1−p)>
=
Y
n
n −q >
,
donde q = 1−p y Yn = n−Zn tiene distribuci´on binomial par´ametros n y q.
Entonces, repitiendo todo el proceso anterior, obtenemos que
lim
n→∞P
p−
Pn
i=1Xi
n >
= 0.
Por lo tanto,
lim
n→∞P
Pn
i=1Xi
n −p