• No se han encontrado resultados

Teorema de Bernoulli

N/A
N/A
Protected

Academic year: 2020

Share "Teorema de Bernoulli"

Copied!
11
0
0

Texto completo

(1)

Introducci´on. En este escrito exponemos de forma detallada elTeorema de Bernoulli. Inroducimos primero el modelo de distribuci´on Bernoulli par´ametro p, ofreciendo una discusi´on sobre el sentido del teorema que nos ocupa. En la secci´on inmediata, formalizamos el concepto de independencia para vari-ables aleatorias (y ensayos) Bernoulli e introducimos el modelo de distribuci´on binomial como una suma finita de variables aleatorias Bernoulli independi-entes y con mismo par´ametrop. Complementariamente se probar´an algunos propiedades ´utiles para la prueba delTeorema de Bernoulli, el cual se enuncia y se demuestra en la ´ultima parte de este texto.

Lo aqu´ı expuesto est´a basado enteramente en las referecias bibliog´aficas que aparecen al final. Estas p´aginas est´an dedicadas a los autores.

Contenido

1. Ensayos Bernoulli 2

2. Modelo de probabilidad y distribuci´on Bernoulli 3 3. Modelo de probabilidad y distribuci´on binomial 4

4. Teorema de Bernoulli 10

Referencias 12

1. Ensayos Bernoulli

Definici´on 1(Ensayo Bernoulli). Unensayo Bernoullies un fen´omeno aleatorio que solo admite dos posibles eventualidades, uno denominado´exitoy otrofracaso.

Los ejemplos cl´asicos de ensayos Bernoulli son los juegos de azar que consisten en “ganar” o “perder”, como los volados, la loter´ıa y ciertos juegos de apuesta con cartas.

Probabilidad de ´exito en un ensayo Bernoulli. Un ensayo Bernoulli est´a asociado a un par´ametropdeterminado por la probabilidad de obtener ´exito en la realizaci´on del ensayo. Definimos los par´ametros

p:= Probabilidad de ´Exito y q= 1−p:= Probabilidad de Fracaso.

Ensayos Bernoulli independientes. Dos (o m´as) ensayos Bernoulli son independientessi la realizaci´on de alguno de ellos (o algunos de ellos) no altera en forma alguna, en t´erminos estoc´asticos, el resultado de ning´un otro (o ningunos otros). En tal caso, diremos que se trata de una sucesi´on (finita o infinita) de ensayos Bernoulli independientes. Lanzar sucesivamente una moneda (o monedas distintas cada vez) constituye el ejemplo t´ıpico de sucesi´on de ensayos Bernoulli independientes.

(2)

Sucesi´on de ensayos Bernoulli independientes con misma probabili-dad de ´exito. Debemos remarcar que las propiedades caracter´ısticas de un ensayo Bernoulli son puramente estoc´asticas. Es decir, dos (o m´as) ensayos Bernoulli se distinguen entre s´ı, seg´un si las probabilidades de ´exito (y por ende, las de fracaso) de cada uno de ellos son tambi´en distintas. Una sucesi´on de repeticiones indepen-dientes (es decir, bajo las mismas e igualitarias condiciones) de un mismo ensayo Bernoulli (como lanzar la misma modena), se interpreta como una sucesi´on de en-sayos Bernoulli independientes con la misma probabilidad de ´exito. Por ejemplo, lanzar una misma moneda 10 veces es equivalente a lanzar 10 modenas id´enticas (aunque en la pr´actica ello puede parecer imposible).

Principio de regularidad de las frecuencias relativas. La forma en que se determina el par´ametropno es una cuesti´on trivial. Por ejemplo, pensemos en el t´ıpico experimento de lanzar una modena al aire (volado). Decimos que una moneda eshonestasi observamos, tras varios lanzamientosindependientes que la regularidad con la que resulta ´aguila es cercana al 50% de las veces, y en este caso, ateniendonos a un esquema de razonamiento frecuentista, aceptamos que la probabilidad de ´exito (o fracaso) es 0.5. Esto es, ambos resultados son equiprobables.

En general, a´un cuando la moneda podr´ıa estar cargada hacia un resultado, ya sea ´aguila o sol, en la pr´actica, es posible observar que la regularidad frecuentista con la que ocurre tanto sol como ´aguila tiende a ser estable, de modo que en principio, podemos aceptar que hay un valor “te´orico” para las probabilidades de que la moneda caiga sol o bien ´aguila, y que las distintas frecuencias relativas, tras numerosas sucesiones de repeticiones independientes del volado, son estimaciones de dicho valor te´orico. Este hecho emp´ırico es conocido comoPrincipio de regularidad de las frecuencias relativas.

No obstante, podr´ıamos cuestionar si es v´alido “aproximar” el supuesto valor te´orico de las probabilidades de ´exito y fracaso (los par´ametros p y q) mediante sucesiones de repeticiones independientes del volado, en tanto que, en apariencia, no hay manera de saber qu´e n´umero de volados hay que realizar para aproximar, dentro de un margen de error establecido a priori, los valores de los par´ametros p y q. Y por otro lado, aunque en la pr´actica, desde siempre, se ha aceptado que el valor de p, sea cual fuere, puede aproximarse por este razonamiento de regularidad frecuentista, hasta el trabajo de Bernoulli no hab´ıa manera de justificar de alg´un modo esta v´ıa en la determinaci´on depyq, al menos dentro de una teor´ıa matem´atica consistente.

ElTeorema de Bernoulli. Bernoulli trabaj´o, seg´un sus propias palabras, cerca de 20 a˜nos en este problema. Bernoulli dio la primera forma matem´atica rigurosa de comprender una teor´ıa de la probabilidad basada en los principios frecuentistas comunmente aceptados. Dentro de este marco te´orico, demostr´o finalmente que en t´erminos estoc´asticos (lo cual es relevante se˜nalar), el esquema frecuentista de razonamiento en la aproximaci´on del par´ametro p, es efectivo. Intuitivamente, el

Teorema de Bernuolli afirma que, dado un margen de error previamente estable-cido, tras un n´umero grande de realizaciones independientes de un mismo ensayo Bernoulli, la diferencia entre la frecuencia relativa con que ocurre ´exito y el valor te´orico del par´ametrop, es muy probablemente menor a dicho margen.

(3)

actuales, se puede probar que, de hecho, es “casi seguro” que el valor te´orico (supuesto) de p es pr´oximo a la la frecuencia relativa con que ocurre ´exito, tras un n´umero grande de repeticiones sucesivas e independientes de un mismo ensayo Bernoulli. Esto se conoce ahora como Ley fuerte de los grandes n´umeros (para el caso de ensayos Bernoulli).

Aunque el Teorema de Bernoulli se˜nala que es pausible determinar mediante regularidad frecuentista el valor depen una sucesi´on de ensayos Bernoulli indepen-dientes, es importante observar que estos enunciados est´an expresadas en t´erminos estoc´asticos, como algo que sucede muy probablemente, y de ninguna manera son conlusiones deterministas.

2. Modelo de probabilidad y distribuci´on Bernoulli

Al margen de toda discusi´on relativa al Principio de regularidad de las frecuen-cias relativas, cualquier ensayo Bernoulli tiene un modelo matem´atico preciso. Si denotamos comoE el evento “se obtiene ´exito” yF el evento “se obtiene fracaso”, entonces la clase de eventos es la familia de conjuntos complementariosF={E, F}. Sipdenota la probabilidad de ´exito, entonces la medida de probabilidad queda de-terminada con las f´ormulas

P(E) =p y P(F) = 1−p=q.

Debemos notar que el espacio muestral puede tener diversas formas, como en los siguientes ejemplos.

Ejemplo 1. Supongamos que lanzamos una moneda honesta. Podemos describir el espacio muestral comoΩ ={s, a}, dondes=“sol” ya=“´aguila”. Si definimos ´exito como “cae sol” y fracaso como “cae ´aguila”, entoncesE={s} y F ={a}. Luego, dado que la moneda es honesta, P(E) = 12 =P(F). En general, si la probabilidad

de que la moneda caiga en sol es p∈[0,1], entonces P(E) =pyP(F) = 1−p=q.

Ejemplo 2. Un juego consiste en extraer una bola de una urna que contiene

50 bolas numeradas. Se gana el juego si la bola extra´ıda est´a marcada con un n´umero primo. En este juego, el espacio muestral es la colecci´on Ω ={1, ...,50}. Suponiendo que el juego es justo, la probabilidad de extraer cualquiera de las bolas es 501. Por otro lado, el evento ´exito es el conjunto E = {2,3,5, ....,50}, o bien,

E={1≤n≤50 :n es primo}. As´ı,

P(E) = 15 50 =

3

10 y P(F) = 1−P(E) = 7 10.

Es posible modelar cualquier ensayo Bernoulli mediante una variable aleatoria param´etrica.

Definici´on 2 (Variable aleatoria Bernoulli). Una variable aleatoria discretaX es

Bernoulli de par´ametro p∈[0,1] si solo toma los valores1 y 0, con probabili-dadespy 1−prespectivamente.

Esto es, en un espacio de probabilidad (Ω,F,P), una v.a. X: Ω→Res Bernoulli de par´ametrop, conp∈[0,1], si el rango deX es el conjunto{0,1}y la funci´on de probabilidades deX est´a dada por

(4)

Ejemplo 3. Si sabemos que una modena es honesta, entonces la v.a. X que es igual a 1 si se obtiene sol al lanzar la moneda (´exito), y vale 0 cuando cae ´aguila, es una Bernoulli de par´ametro 12.

Ejemplo 4. Un juego consiste en extraer una bola de una urna que est´a compuesta de 8 bolas negras y 12 rojas. El juego se gana (´exito) si se obtiene bola negra. Definimos X como la v.a. que vale 1 en caso de ´exito y 0 en caso de fracaso. EntoncesX es Bernoulli de par´ametro 208.

3. Modelo de probabilidad y distribuci´on binomial

Modelo de probabilidad binomial. Muchos fen´omenos aleatorios pueden descomponerse en una sucesi´on finita de ensayos Bernoulliindependientes uno de otro. Un ejemplo t´ıpico consiste en lanzar cierto n´umero de veces una misma moneda (balanceda o no) en condiciones de igualdad. Aqu´ı de se trata de una serie de ensayos Bernoulli con igual probabilidad de ´exito. O bien, realizar tantos lanza-mientos como monedas distintas se tenga. Aqu´ı se trata de ensayos Bernoulli con distintas probabilidades de ´exito. El modelo estoc´astico aplicado a los fen´omenos consistentes en una serie finita de ensayos Bernoulli independientes con igual pro-babilidad de ´exito es conocido comomodelo binomial de probabilidad. En lo que sigue describimos c´omo construir este modelo.

Espec´ıficamente, supongamos que un experimento aleatorio consiste en una sucesi´on de n ensayos Bernoulli independientes con igual probabilidad de ´exito p ∈ [0,1]. El problema es encontrar un modelo de probabilidad adecuado a este fen´omeno.

El punto central ser´a la condici´on de independencia de los ensayos Bernoulli. Dicha condici´on, impuestaa priori, no es siempre absoluta desde un punto de vista pr´actico. Por ejemplo, podemos cuestionar si es realmente posible lanzar dos veces la misma monedaexactamentebajo las misma condiciones.

Omitiendo esta cuesti´on, en cuanto al modelo te´orico, la condici´on de inde-pendencia tiene una clara formulaci´on matem´atica. En efecto, si Ei denota el

evento “se obtiene ´exito en eli-´esimo ensayo”, yFi el evento “se obtiene fracaso”,

para 1 ≤i ≤n, y si suponemos que P es una medida de probabilidad adecuada, entonces, en primer lugar,

P(Ei) =p y P(Fi) =q= 1−p, 1≤i≤n,

y por otra parte, para cualquier colecci´on finita de ´ındices 1≤i1< i2<· · ·im≤n,

los eventos Ai1,...,Aim, donde cada literalA puede sustituirse por las literalesE ´o

F, son independientes respecto aP. Por ejemplo,

(2) P(E1∩E3∩F6∩E7) =P(E1)P(E3)P(F6)P(E7) =p3q

Es f´acil entender estas cualidades de P si asuminos que ning´un ensayo Bernoulli altera o modifica a ning´un otro, en t´erminos estoc´asticos.

Ahora bien, hay que notar que todo el experimento queda descrito mediante los conjuntos de la forma

Ai1∩Ai2∩ · · · ∩Aim,

donde 1≤i1< i2 <· · ·< im≤n, y la literalApuede sustituirse con las literales

(5)

muestral Ω (sea cual sea). Por lo que la medida de probabilidad buscadaPqueda completamente determinada por las probabilidades

P(Ai1∩Ai2∩ · · · ∩Aim) =P(Ai1)P(Ai2)· · ·P(Aim) =p

aqb,

dondeaes el n´umero de ´exitos en la colecci´onAi1,...,Aim, ybel n´umero de fracasos.

Ejemplo 5. Un juego de azar consiste en extraer una bola de una urna que contiene

50 bolas numeradas del 1 al 50. El juego se gana si se obtiene una bola marcada con un n´umero primo. ¿Cu´al es la probabilidad de ganar al menos5 veces en una serie de10repeticiones independientes del juego?

Notamos primero que el espacio muestral Ωest´a constituido por todas las suce-siones ordenadas de10 n´umeros

(n1, ..., n10), donde 1≤ni≤50, para 1≤i≤10.

Por otro lado, si Ei denota el evento “se gana en el i-´esimo juego” (´exito), para cada1≤i≤10, entonces

Ei={(n1, ..., n10)∈Ω : ni es primo}.

De modo que

P(Ei) =

509·15 5010·15 =

3 10

Por tanto, la probabilidad de perder (fracaso) en eli-´esimo juego es

P(Fi) = 1−P(Ei) =

7 10.

Ahora, para ganar exactamente kveces en la serie de 10 repeticiones del juego, deben suceder exactamente k extracciones con n´umero primo, lo cual ocurre una cantidad de 10k

de formas posibles. Luego, seg´un el principio de aditividad finita, la probabilidad de ganar exactamentek veces en la corrida de10juegos es

10

k 3 10

k 7

10

10−k

.

Finalmente, por el mismo principio de aditividad finita, la probabilidad de ganar al menos5 juegos en la serie de10 juegos est´a dada por

10

X

k=5

10

k 3 10

k 7

10

10−k

.

Variables aleatorias Bernoulli independientes. Podemos introducir un n´umero finito de variables aleatorias Bernoulli (tantas como ensayos Bernoulli) para modelar cada uno de las repeticiones del mismo ensayo Bernoulli. Concretamente, seaXi la v.a. Bernoulli par´ametropcorrespondiente a lai-´esima repetici´on de un

ensayo Bernoulli (par´ametrop), 1≤i≤n. Es decir, Xi es una variable aleatoria

que admite el valor 1 si se obtiene ´exito en eli-´esimo ensayo Bernoulli, y 0 si sucede fracaso.

La extensi´on del concepto de idependencia para estas variables aleatorias es entonces natural. Por ejemplo, podemos reescribir la igualdad (??), como

(6)

Definici´on 3. Decimos que las variables aleatorias X1, X2,...,Xn Bernoulli con probabilidad de ´exito p ∈ [0,1], definidas sobre un mismo espacio de probabili-dad (Ω,F,P), son independientes si para cualesquiera n´umeros xj ∈ {0,1}, j =

1, ..., m≤n,

(3) P[Xi1 =x1, ..., Xim =xm] =P[Xi1 =x1]× · · · ×P[Xim =xm].

Dado que P(Xk = xi) = pxi(1−p)1−xi, entonces la igualdad (??) tiene la

expresi´on espec´ıfica

P[Xi1 =x1, ..., Xim =xm] =p

Pm

j=1xj(1p)m−Pmj=1xj.

Note que esta probabilidad depende ´unicamente de los n´umerosx1,...,xm y de la

muestrax1,...,xm.

Suma de variables aleatorias Bernoulli independientes. Distribuci´on Binomial. En n ensayos Bernoulli con probabilidad de ´exito p, si Xi es la v.a.

Bernoulli par´ametro pcorrespondiente al i-´esimo ensayo, i = 1, ..., n, entonces la variable aleatoriaX definida como la suma de tales variables aletorias, es decir,

X:=X1+X2+· · ·+Xn,

cuenta el n´umero de ´exitos obtenidos en la sucesi´on denensayos Bernoulli. Para un valork∈ {0, ..., n}, la v.a. X es igual a kunicamente cuando´ kde las nvariablesX1,...,Xn toma el valor 1, y las restantesn−ktoman el valor 0. Esta

hecho sugiere c´omo debe ser la disribuci´on deX.

Teorema. Supongamos que X1,...,Xn son variables aleatorias independientes con misma distruci´on Bernoulli par´ametrop∈[0,1], definidas sobre un mismo espacio de probabilidad (Ω,F,P). Entonces la funci´on de probabilidades de X :=Pn

i=1Xi

est´a dada por

pX(k) :=P(X=k) =

n

k

pk(1−p)n−k,

parak= 0, ..., n.

Demostraci´on. Claramente, el rango deX es el conjuntoR={0,1,2, ..., n}. Para cadak∈R, definimos la clase de subconjuntos

Γk ={A⊂R:|A|=k}.

Por ejemplo, Γ0={∅}, Γ1={{0},{1}, ...,{n}}y Γn={{0,1,2, ..., n}}. Entonces

|Γk|=

n

k

.

La clase Γk respresenta todas las formas posibles en que podemos elegirkensayos

denensayos realizados.

Ahora, para cadaA∈Γk definimos el evento

SA=

 \

j∈A

(Xj= 1)

 \

 \

j /∈A

(Xj= 0)

.

Es decir, despu´es de realizar una particular elecci´on dekensayos denrealizados (el eventoA),SA es el caso en donde se obtienen exactamentek´exitos (o

(7)

independientes del ensayo Bernoulli. Por independencia, tenemos

P[SA] =

 Y

j∈A

P[Xj = 1]

×

 Y

j /∈A

P[Xj = 0]

=pk(1−p)n−k.

Por otro lado, siA, B∈Γk, entoncesA6=B si y s´olo si SA∩SB =∅. Adem´as,

(X=k) = (X1+X2+· · ·+Xn=k) =

[

A∈Γk

SA.

De este modo,

P[X =k] =

X

A∈Γk

P[SA]

=|Γk|pk(1−p)n−k

=

n

k

pk(1−p)n−k.

Esta distribuci´on, que depende de dos par´ametrosn y p, es tambi´en conocida con un nombre especial dada su relevancia.

Definici´on 4. Decimos que una variable aleatoriaXtienedistribuci´on binomial

par´ametrosn∈N yp∈(0,1), si la funci´on de probabilidades de X est´a dada por

pX(x) =

n

k

px(1−p)n−x,

parax∈ {0, ..., n}.

Ejemplo 6. Pensemos en experimento descrito en el ejemplo ??. Definimos Xi como la v.a. que toma al valor 1 si se obtiene n´umero primo en la i-´esima ex-tracci´on y 0 si no, 1≤i≤n. Claramente, las variables aleatorias X1,...,X10 son Bernoulli independientes de par´ametro 103. De modo queX=P10

i=1Xies binomial de par´ametrosn= 10y p= 3

10. De modo que la probabilidad de obtener al menos 5 n´umero primos en10 extracciones es

P(X ≥5) = 10

X

k=5

P(X=k) = 10

X

k=5

10

k 3 10

k 7

10

10−k

.

Podemos programar en Octave este ejemplo. Describimos el c´odigo a contin-uaci´on. Creamos primero la funci´on binomial con el c´odigo

function y=fp_binomial(x,n,p) >for i=1:length(x)

>y(i)=(nchoosek(n,x(i)))*(p^x(i))*((1-p)^(n-x(i))); >end

>endfunction

(8)

>x=0:10;

>y=fp_binomial(x,10,0.33); >stem(x,y,’-.k’)

Obtenemos

0 0.05 0.1 0.15 0.2 0.25

0 2 4 6 8 10

Figure 1. Distribuci´on binomial par´ametrosn= 10 yp= 0.33.

El valor m´aximo se alcanza en x = 3. Antes de este valor, la distribuci´on es creciente, en seguida la distribuci´on decrece. A continuaci´on verificamos que este comportamiento de “campana”, es caracter´ıstico de la distribuci´on binomial, el cual liga esta distribuci´on con una de las distribuciones m´as importantes, la distribuci´on normal o gaussina.

Sixes un n´umero real, recordemos quebxcdenota la parte entera dex, esto es el m´aximo entero menor o igual quex.

Teorema. SiX es una variable aleatoria con distribuci´on binomial con par´ametros

n y p (0 ≤ p < 1), entonces la funci´on de probabilidades pX es creciente en

{0,1, ...,bp(n + 1)c}, y es decreciente en {bp(n + 1)c, ..., n − 1, n}. As´ı,

pX alcanza su valor m´aximo en k = bp(n+ 1)c. Si p = 1, pX es creciente y el valor m´aximo se alcanza enk=n.

Demostraci´on. Si p= 0 ´o p= 1, la afirmaci´on es obvia. Supongamos 0 < p <1, entoncesp(n+ 1)< n+ 1, luegop(n+ 1)≤n. Por tanto 0≤ bp(n+ 1)c ≤n.

Ahora, seaj ∈ {1, ..., n−1}. Entonces

pX(j−1)

pX(j)

=

n j−1

pj−1(1p)n−j+1

n j

pj(1p)n−j

(9)

De este modo,

pX(j−1)< pX(j) ⇔

pX(j−1)

pX(j)

<1

⇔ j(1−p) (n−j+ 1)p<1 ⇔ j−jp < np−jp+p ⇔ j < p(n+ 1)

⇔ j≤ bp(n+ 1)c.

EntoncespX es creciente en{0,1, ...,bp(n+ 1)c}.

Por otra parte, sij∈ {0,2, ..., n−1}, entonces

pX(j)

pX(j+ 1)

=

n j

pj(1−p)n−j

n j+1

pj+1(1p)n−j−1

=(j+ 1)(1−p) (n−j)p .

De este modo,

pX(j)> pX(j+ 1) ⇔

pX(j)

pX(j+ 1)

>1

⇔ (j+ 1)(1−p) (n−j)p >1 ⇔ j−jp+ 1−p > np−jp

⇔ j > p(n+ 1)−1 ⇔ j≥ bp(n+ 1)c.

EntoncespX es decreciente en{bp(n+ 1)c, ..., n−1, n}.

De lo anterior se sigue quepX alcanza su valor m´aximo enk=bp(n+ 1)c.

Naturalmente, siX tiene distribuci´on binomial y cuenta el n´umero de ´exitos en nensayos Bernoulli, entoncesn−X, que cuenta el n´umero de fracasos en el mismo n´umero de ensayos Bernoulli, tiene tambi´en distribuci´on binomial.

Proposici´on. SiX es una variable aleatoria binomial par´ametrosnyp, entonces

Y = n−X es una variable aleatoria con distribuci´on binomial par´ametros n y

q= 1−p.

Demostraci´on. Claramente el rango deY es el conjunto{0,1, ..., n}. Ahora, sikes un n´umero en este rango, entonces

P[Y =k] =P[n−X =k] =P[X =n−k] =

n

n−k

pn−k(1−p)n−(n−k)

=

n

k

qk(1−q)n−k.

(10)

4. Teorema de Bernoulli

Ahora estamos en condiciones de probar el resultado principal de estas notas.

Teorema de Bernoulli. Supongamos que para cada n ≥1, X1,...., Xn es una colecci´on de variables aleatorias independientes, cada una de ellas con distribuci´on Bernoulli par´ametrop, donde0≤p≤1. Entonces, para toda >0

lim

n→∞P

Pn

i=1Xi

n −p

> = 0.

Demostraci´on. Paran∈Nconsideremos la variable aleatoriaZn =P n

i=1Xi.

En-toncesZn tiene distribuci´on Binomial par´ametrosny p. Para cadaj ∈ {1, ..., n},

para reducir notaci´on, definimos

tj=P[Zn=j] =

n

j

pj(1−p)n−j.

Tambi´en nombramos

sj =

tj

tj−1

=

n j

pj(1p)n−j n

j−1

pj−1(1p)n−j+1

=(n−j+ 1)p j(1−p) .

Dado que n−j+ 1< n−j+ 2 y j−1< j, entonces (n−j+ 1)(j−1)<(n−j+ 2)j, de aqu´ı,

sj =

(n−j+ 1)p j(1−p) <

(n−j+ 2)p

(j−1)(1−p) =sj−1. Es decir, la colecci´on de n´umeros{sj}nj=1 es decreciente.

Ahora, consideremosj≥k >(n+ 1)p, entonces

tj=

tj

tj−1

tj−1=sjtj−1≤sktj−1,

de donde

tj≤sktj−1≤s2ktj−2≤ · · · ≤s

j−k

k tj−(j−k)=s

j−k k tk.

Por lo tanto,

P[Zn ≥k] = n

X

j=k

tj ≤tk n

X

j=k

sjk−k,

y dado que

n

X

j=k

sjk−k= 1−s

n−k+1

k

1−sk

< 1 1−sk

= k(1−p) k−(n+ 1)p,

se sigue

(4) P[Zn≥k]<

k(1−p) k−(n+ 1)ptk.

Ahora bien, seam= [(n+ 1)p] (notamos que, por definici´on,m≤(n+ 1)p). Dado que

(11)

entonces

1>P[k > Zn≥m] =tm+tm+1+· · ·+tk−1>(k−m)tk≥(k−(n+ 1)p)tk,

de donde

tk <

1 k−(n+ 1)p. Comparando con (??),

P[Zn ≥k]<

k(1−p) (k−(n+ 1)p)2.

Sea > 0 y sea n ∈ N tal que n > 1 (propiedad arquimideana). Sea k0 = [n(p+)] + 1. Observamos quek0es el ´unico entero tal que

n(p+ 1)< n(p+)< k0≤n(p+) + 1.

De este modo,

P

Pn

i=1Xi

n −p >

=P

Z

n

n −p >

=P[Zn > n(p+)]

=P[Zn ≥k0]

< k0(1−p) (k0−(n+ 1)p)2

≤ (np+n+ 1)(1−p) (np+n+ 1−(n+ 1)p)2

=(np+n+ 1)(1−p) (n+p)2 .

Por lo tanto

lim

n→∞P Pn

i=1Xi

n −p >

= 0. Ahora bien, p− Pn

i=1Xi

n >

=

p−Zn n >

=

nZ

n

n −(1−p)>

=

Y

n

n −q >

,

donde q = 1−p y Yn = n−Zn tiene distribuci´on binomial par´ametros n y q.

Entonces, repitiendo todo el proceso anterior, obtenemos que

lim

n→∞P

p−

Pn

i=1Xi

n >

= 0.

Por lo tanto,

lim

n→∞P

Pn

i=1Xi

n −p

Referencias

Documento similar

[r]

[r]

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,

De hecho, este sometimiento periódico al voto, esta decisión periódica de los electores sobre la gestión ha sido uno de los componentes teóricos más interesantes de la

Ciaurriz quien, durante su primer arlo de estancia en Loyola 40 , catalogó sus fondos siguiendo la división previa a la que nos hemos referido; y si esta labor fue de

It must be noted that the use of sliding windows for HMM-based handwriting recognition is not new and, in- deed, the best Word Error Rate (WER) reported on the standard