• No se han encontrado resultados

Probabilidad Discreta

N/A
N/A
Protected

Academic year: 2021

Share "Probabilidad Discreta"

Copied!
16
0
0

Texto completo

(1)

Cap´ıtulo IV

Probabilidad Discreta

IV.1.

Introducci ´on

Aunque un concepto intuitivo de probabilidad se ten´ıa ya por mucho tiem-po, siendo esencial en los juegos de azar, y algunos matem´aticos hab´ıan dado unos primeros pasos (por ejemplo Cardano), la teor´ıa matem´atica de la proba-bilidad s ´olo se comenz ´o a desarrollar en forma a mediados del siglo XVII en una comunicaci ´on entre los matem´aticos franceses Pascal y Fermat. Esta comu-nicaci ´on fue motivada por una consulta de un tal de M´er`e acerca del siguiente problema. Si se lanza un dado no cargado, los posibles resultados son

,,,, ,

y cada uno de estos tiene una “probabilidad” igual 1/6 de suceder. Intuitiva-mente, esto significa que si se lanza el dado varias veces, se espera que muy aproximadamente una sexta fracci ´on de estas tiene como resultado. Entonces, siguiendo el razonamiento intuitivo de de M´er`e, si se lanza un dado tres veces la probabilidad de obteneral menos una vez es1/2, y por lo tanto si se lanza el dado cuatro veces es de esperar que la probabilidad de obtenersea mayor que1/2. De aqu´ı que sea ventajoso apostar a que

en 4 lanzamientos de un dado se obtiene al menos una vez el resultado

Esto aparentemente hab´ıa sido verificado en la pr´actica por de M´er`e, quien trat ´o de extender el razonamiento al lanzamiento de dos dados: hay 36 resulta-dos posibles con probabilidad igual1/36 y por lo tanto, extendiendo la intuici´on anterior es de esperar que sea ventajoso apostar a que (note24/36 = 4/6)

en 24 lanzamientos de dos dados se obtiene al menos una vez el resultado,

De acuerdo con la historia de M´er`e encontr ´o que en la pr´actica era desventajoso apostar de esta manera y esto lo llev ´o a consultar con su amigo el famoso Blaise Pascal, quien tuvo entonces una comunicaci ´on con Pierre de Fermat acerca de la soluci ´on del problema.

(2)

Con lo que sabemos de conteo podemos explicar el resultado de estos dos juegos. En el primer caso se tienen 64 resultados posibles cada uno de los cuales es igualmente probable. Los resultados favorables son aquellos en que

aparece, y los contamos como el complemento de los resultados en queno aparece. El resultado es64−54. Por lo tanto el cociente de resultados favorables al total de resultados es 6454 64 =1 − 54 64 =1 − 5 6 4 =0,517747 · · · Un an´alisis similar para el segundo caso resulta en

36243524 3624 =1 − 3524 3624 =1 − 35 36 !24 =0,491404 · · ·

Esto explica los resltados supuestamente experimentados por De M´er`e. Obvia-mente la intuici ´on de como se opera con probabilidades que estaba detr´as de su argumento es err ´onea. La teor´ıa de la probabilidad formaliza la forma correcta de calcular con probabilidades. Y al menos en el caso discreto que nos ocupa corresponde esencialmente a contar correctamente.

IV.2.

Bases de Probabilidad

Se considera un experimento que tiene un conjunto finitoΩ de posibles re-sultados. El conjuntoΩ se denomina el espacio de probabilidad y los elementos ω ∈ Ω se denominan eventos elementales. La distribuci´on de probabilidad es una funci ´on

Pr :Ω → [0, 1]

tal que X

ω∈Ω

Pr(ω) = 1. (∗)

Est´a condici ´on (∗) se llama la condici ´on de normalizaci ´on. Un evento E es un subconjunto deΩ (de aqu´ı que los ω ∈ Ω se llamen eventos elementales). La

probabilidad de un evento Ees la suma de las probabilidades de sus elementos: Pr(E) =X

ω∈E

Pr(ω). Es claro que0 ≤ Pr(E) ≤ 1.

Ejemplo. Sea

(3)

IV.2. BASES DE PROBABILIDAD 3 el conjunto de los posibles resultados de lanzar un dado. Entonces seaΩ = D×D el espacio de probabilidad para el experimeto de lanzar dos dados:

{ (,), (,), (,), (,), (, ), (,), (,), (,), (,), (,), (, ), (,), (,), (,), (,), (,), (, ), (,), (,), (,), (,), (,), (, ), (,), ( ,), ( ,), ( ,), ( ,), ( , ), ( ,), (,), (,), (,), (,), (, ), (,) }

Asumiendo los dados no est´an cargados la funci ´on de distribuci ´on de pro-babilidad est´a dada por

Pr1((a, b)) = 361

donde a, b ∈ D, la cual claramente satisface la condici´on de normalizaci´on. (Note que hemos usado un sub´ındice en Pr1 para distinguirla de otras funciones de

distribuci ´on. Cuando s ´olo hay una funci ´on de distribuci ´on en el contexto, se puede escribir simplemente Pr.)

Sea E ⊆ Ω el evento en que los dados suman 6, esto es E ={(, ), (,), (,), (,), (, )}. La probabilidad de E es Pr1(E) = 5 · 1 36 = 5 36.

El ejemplo ilustra el caso m´as b´asico en que los eventos elementales son equiprobables, esto es

Pr(ω) = 1

para todoω ∈ Ω. Esta distribuci´on se llama la distribuci´on uniforme sobre Ω. Correspondientemente, la probabilidad de un evento E es entonces

Pr(E) = |E| |Ω|

El marco m´as general descrito permite eventos elementales que no son equi-probables.

IV.2.1.

Propiedades

De las definiciones anteriores se derivan algunas propiedades importantes, an´alogas a las que ten´ıamos en el contexto de conteo (probabilidad del comple-mento, de una uni ´on disyunta, e inclusi ´on/exclusi´on):

(4)

? Pr(E) =1 − Pr(E) donde E es el complemento del evento E : Pr(E) =X ω∈E Pr(ω) = 1 −X ω∈E Pr(ω) = 1 − Pr(E). ? Pr(E1E2) =Pr(E1) +Pr(E2)si E1y E2son eventos disyuntos :

Pr(E1∪E2) = X ω∈E1∪E2 Pr(ω) = X ω∈E1 Pr(ω) +X ω∈E2 Pr(ω) = Pr(E1) +Pr(E2).

? Pr(E1∪E2) =Pr(E1) +Pr(E2) −Pr(E1∩E2)si E1y E2son eventos :

usando el caso disyunto se obtiene

Pr(E1∪E2) =Pr(E1∪ (E2−E1)) = Pr(E1) +Pr(E2−E1)

y

Pr(E2) =Pr((E2−E1) ∪ (E1E2)) = Pr(E2E1) +Pr(E1E2); substituyendo Pr(E1−E2)de la segunda ecuaci ´on en la primera se obtiene

la relaci ´on deseada.

Ejemplo. (Problema del programa concurso.)En un programa concurso el mo-derador le presenta al concursante tres cajas, A, B, C, una de las cuales contiene el premio mayor de $1.000.000 y las otras dos contienen premios de consolaci ´on de $1.

A

B

C

El moderador da la opci ´on al concursante de elegir una caja cuyo contenido puede ´el llevar consigo. Una vez el concursante elige una caja, digamos A, pero antes de abrirla, el moderador, quien conoce de antemano que hay en cada caja, le muestra al concursante una de las cajas no elegidas, digamos B, la cual no contiene un premio de consolaci ´on (por lo menos una entre B y C tiene un premio de consolaci ´on y el moderador sabe cual ´o cuales). Finalmente, el moderador le ofrece al concursante la oportunidad de cambiar su elecci ´on a C. Pregunta: Es ventajoso para el concursante cambiar ? No cambiar ? Es indiferente ?

Respuesta: Es ventajoso cambiar. La probabilidad de ganar aumenta de 1/3 a 2/3. La forma m´as directa de verlo es que la elecci´on A tiene probabilidad 1/3 de ser ganadora y las otras dos juntas tienen probabilidad2/3; por lo tanto una vez el moderador revela B como no ganador, C s ´ola tiene probabilidad2/3.

$1M

A

$1

B

$1

C

$1

A

$1M

C

$1

B

(5)

IV.3. PROBABILIDAD CONDICIONAL 5 La ilustraci ´on muestra las tres posibles posiciones del premio mayor cada una de las cuales sucede con probabilidad 1/3. La elecci´on inicial del concursante es la caja de la izquierda (A). La caja que revela el moderador (B) es una de las otras que contiene el premio de consolaci ´on (en el segundo y tercer caso es ´unica, y en el primero es una arbitraria de ellas). Si el concursante no cambia su elecci ´on, entonces s ´olo gana en el primer caso (probabilidad1/3), mientras que si cambia entonces gana en los otros dos casos (probabilidad2/3).

Ejemplo. (a) Se sacan una primera carta al azar de una baraja de p ´oker (52 cartas, 4 figuras) y luego otra de las restantes. Cu´al es la probabilidad de que tengan el mismo valor (pero diferente figura) ?

Soluci´on: El n ´umero total de eventos posibles es52·51. De estos, el n ´umero de eventos en que ambas cartas tienen el mismo valor es 52 · 3 (porque la segunda s ´olo se puede escoger entre las otras tres con el mismo valor). Por lo tanto la probabilidad es52 · 3/52 · 51 = 1/17.

(b) Se lanza un dado tres veces. Cu´al es la probabilidad de obtener el mismo resultado m´as de una vez ?

Soluci´on: El n ´umero total de eventos posibles es63. El n ´umero de eventos en que aparece el mismo resultado m´as de una vez es63−6 · 5 · 4. Por lo tanto la probabilidad es

636 · 5 · 4

63 =1 −

6 · 5 · 4 63 .

(c) Se lanzan dos dados. Cu´al es la probabilidad de que los dos den igual resultado ´o que la suma sea 6 ?

Soluci´on: Esto es la uni ´on de dos eventos no son disyuntos. La probabilidad del primer evento es 1/6, la probabilidad del segunto evento es 5/36, la probabilidad de la intersecci ´on es 1/36. Entonces la probabilidad de la uni ´on de los eventos es1/6 + 5/36 − 1/36 = 10/36 = 5/18.

IV.3.

Probabilidad Condicional

Ejemplo. Consideremos el experimento de lanzar dos dados y supongamos que sabemos que la suma de los dados es mayor o igual a 9. Cu´al es la probabi-lidad de los dos dados sean iguales ? La figura muestra los eventos elementales para los que la suma es mayor o igual a 9 (en cajas). El n ´umero de estos eventos

(6)

es 10, y entre estos, s ´olo 2 tienen ambos dados iguales (con corchete debajo). (,) | {z } (,) (,) (,) (, ) (,) (,) (,) | {z } (,) (,) (, ) (,) (,) (,) (,) | {z } (,) (, ) (,) (,) (,) (,) (,) | {z } (, ) (,) ( ,) ( ,) ( ,) ( ,) ( , ) | {z } ( ,) (,) (,) (,) (,) (, ) (,) | {z } Por lo tanto

Pr(dados iguales| suma ≥ 9) = 2 10 =

1 5.

En general, sean E1, E2 dos eventos, entonces la probabilidad condicional

de E1dado E2es

Pr(E1| E2) = Pr{E1

E2) Pr(E2) .

Se dice que E1es independiente de E2si

Pr(E1| E2) =Pr(E2).

De la definici ´on se obtiene entonces que cuando E1 es independiente de E2 se

tiene que

Pr(E1y E2) =Pr(E1∩E2) =Pr(E1) ·Pr(E2).

IV.4.

Teorema de Bayes

Se detectan ciertos s´ıntomas en una persona; cu´al es la probabilidad de que ella tenga cierta enfermedad ? M´as general, en el contexto del problema de clasificaci´on (´o reconocimiento) de patrones, si se detecta ciertas caracter´ısticas en una muestra, cu´al es la probabilidad de que la muestra pertenezca a cierta clase ?

Sean Ci, i =1, 2, . . . , k las clases, y F el conjunto de caracter´ısticas. De acuerdo

con lo visto anteriormente

Pr(Ci| F) =

Pr(Ci ∩F)

Pr(F)

y aplicando de nuevo la relaci ´on pero a Pr(F| Ci)se obtiene

Pr(Ci| F) =

Pr(F| Ci)Pr(Ci)

(7)

IV.5. VARIABLES ALEATORIAS Y VALOR ESPERADO 7 Las probabilidades Pr(F), Pr(Ci), y Pr(F| Ci)est´an relacionadas: Asumiendo las

Cison todas las clases posibles (y son disyuntas), se tiene que

F = (F ∩ C1) ∪ (F ∩ C2) ∪ · · · ∪ (F ∩ Ck) y por lo tanto Pr(F) = Pr(F ∩ C1) +Pr(F ∩ C2) + · · · +Pr(F ∩ Ck) y Pr(Ci| F) = Pr(F| Ci)Pr(Ci) Pr(F ∩ C1) +Pr(F ∩ C2) + · · · +Pr(F ∩ Ck)

Ver ejemplo en Taller 9.

IV.5.

Variables Aleatorias y Valor Esperado

Una variable aleatoria es una funci ´on definida sobre el espacio de probabi-lidad

X :Ω → R

La probabilidad de que la variable aleatoria X tome cierto valor x, lo que se escribe como Pr(X = x), es entonces

Pr(X = x) = Pr({ω ∈ Ω : X(ω) = x}). Es claro que se tiene la normalizaci ´on

X

x∈X(Ω)

Pr(X = x) =1.

Ejemplo. En el ejemplo de lanzar de dos dados,Ω = D × D, posibles variables aleatorias conω = (d1, d2)son

S(ω) = d1+d2; M(ω) = m´ax(d1, d2); P(ω) = d1d2

Para la variable aleatoria S se tiene

x Pr(S = x) x Pr(S = x) x Pr(S = x)

2 1/36 3 2/36 4 3/36

5 4/36 6 5/36 7 6/36

8 5/36 9 4/36 10 3/36

(8)

Si para una secuencia de observaciones (eventos elementales observados) ω1, ω2, ω3, . . . , ωN

del experimento con espacio de probabilidadΩ, determinamos la secuencia de observaciones de la variable aleatoria X :Ω → R:

x1, x2, x3, . . . , xN

donde

xi =X(ωi), i = 1, 2, . . . , N

Nos interesa el promedio de estas observaciones µ = 1 N N X i=1 xi

Esta expresi ´on se puede reescribir como µ = X x∈X(Ω) x · N(x) N donde N(x) =|{i : xi =x, 1 ≤ i ≤ N}|

es el n ´umero de apariciones del valor x entre los xi. Como el cociente N(x)/N

aproxima Pr(X = x), entonces una expresi ´on razonable para predecirµ es el llamado valor esperado E(X) de la variable aleatoria X dado por

E(X) = X x∈X(Ω) x · Pr(X = x) (∗) lo cual es igual a E(X) =X ω∈Ω X(ω) · Pr(ω). (∗∗)

Ejemplo. En el experimento de lanzar dos dados y la variable aleatoria S definida como la suma de los n ´umeros que muestran los dados, tenemos que, usando (∗), E(S) = 2 · 1 36 +3 · 2 36 +4 · 3 36+5 · 4 36 +6 · 5 36+7 · 6 36 +8 · 5 36 +9 · 4 36 +10 · 3 36 +11 · 2 36 +12 · 1 36 = 252 36 =7

(9)

IV.6. DISTRIBUCI ´ON BINOMIAL 9

Propiedades

Una propiedad muy importante de valores esperados es la linealidad: Dadas dos variables aleatorias X y Y, y realesα, β, se tiene que

E(α X + β Y) = α E(X) + β E(Y). Verificaci ´on: Usando (∗∗), se tiene

E(α X + β Y) = X ω∈Ω (α X(ω) + β Y(ω)) · Pr(ω) = X ω∈Ω α X(ω) · Pr(ω) +X ω∈Ω β Y(ω) · Pr(ω) = αX ω∈Ω X(ω) · Pr(ω) + β X ω∈Ω Y(ω) · Pr(ω) = α E(X) + β E(Y).

Otra propiedad que es v´alida para variables aleatorias independientes es E(XY) = E(X)E(Y).

IV.6.

Distribuci ´on Binomial

Un experimento b´asico que llamamos una prueba de Bernoulli tiene dos posibles resultados que podemos llamar0 y 1, ´o ´exito y falla y se toma nota de la secuencia de resultados. Supongamos que la probabilidad de ´exito es p. C ´ual es la probabilidad de k ´exito’s ? Sea X la variable aleatoria indicando el n ´umero de ´exitos en n pruebas. Entonces

Pr(X = k) = n k !

pk(1 − p)n−k

Esta se llama la distribuci ´on binomial. Es claro que est´a normalizada (por le teorema binomial). El valor esperado es

E(X) = n X k=0 k · n k ! pk(1 − p)n−k = n X k=0 k · n! k! (n − k)! p k(1 − p)n−k = np · n X k=0 k (n −1)! (k −1)! (n − k)! p k−1(1 − p)n−k = np · n X k=0 · n −1 k −1 ! pk−1(1 − p)n−k = np · (p + (1 − p))n = np

(10)

(lo que era de esperar). Un m´etodo alternativo de realizar este c´alculo es usando variables aleatorias Xk donde

Xk =

1 en caso de ´exito en la k-´esima prueba 0 en caso de falla Con esto X = n X k=1 Xk y E(X) = E        n X k=1 Xk        = n X k=1 E(Xk) = n X k=1 p = np.

IV.7.

Distribuci ´on Geom´etrica

Consideremos el siguiente experimento: Se lanza repetidamente una mone-da no cargamone-da hasta que el resultado es s. Cu´al es el valor esperado del n ´umero de lanzamientos hasta que se obtiene s ? Aunque se origina en el problema dis-creto de lanzar una moneda, nos encontramos con un espacio de probabilidad que no es finito:

Ω = {s, c s, c s, cc c s, cc c c s, . . .}c

La teor´ıa que se ha presentado se aplica tambi´en en este caso, s ´olo que se deben manejar entonces sumas infinitas. Escribimos estas secuencias en forma compacta como c ks, para k = 0, 1, 2, 3, . . ., donde el exponente indica el n ´umero

de repeticiones. Entonces Pr( c ks) = 1 2 k · 1 2 = 1 2k+1 Note que ∞ X k=0 Pr( c ks) = ∞ X k=0 1 2k+1 = 1 2 + 1 4 + 1 8 + 1 16 + · · · =1.

El valor esperado de el n ´umero de lanzamientos antes de obtener s es entonces

∞ X k=0 k · 1 2k = ∞ X k=0 k · 1 2 k

El valor de esta suma se puede obtener con un poco de c´alculo: Por una parte se tiene que para0 < x < 1

X

k=0

xk = 1 1 − x

(11)

IV.7. DISTRIBUCI ´ON GEOM ´ETRICA 11 Entonces derivando a ambos lados se obtiene

X

k=0

kxk−1 = 1

(1 − x)2 (∗) y multiplicando por x se obtiene

X

k=0

kxk = x (1 − x)2. Reemplazando x =1/2 se tiene que

∞ X k=0 k · 1 2k = 1/2 (1 − 1/2)2 =2.

As´ı que el valor esperado del n ´umero de lanzamientos hasta obtener s es 2. El an´alisis anterior se extiende f´acilmente al caso de una moneda cargada con probabilidad p de obtener s (´o prueba de Bernoulli). Si X es la variable aleatoria que denota el n ´umero de pruebas antes de obtener s entonces, para k ≥1,

Pr(X = k) = (1 − p)k−1p

Esta es la llamada distribuc ´on geom´etrica. Se verifica f´acilmente la normaliza-ci ´on X k=1 (1 − p)k−1p = p ∞ X k=0 (1 − p)k =p · 1 1 − (1 − p) =1. El valor esperado es, usando la ecuaci ´on (*) arriba,

E(X) = ∞ X k=1 k · (1 − p)k−1p = p · 1 (1 − (1 − p))2 = 1 p. M´etodo Alternativo

Sea E(X) el valor esperado de X. Analicemos que pasa con la primera prueba. Con probabilidad p se obtiene ´exito y el experimento termina con n ´umero de pruebas hasta obtener ´exito igual a 1. Con probabiliad1 − p se obtiene falla, se ha usado una pruena y estamos en el mismo punto de partida: a partir de este momento el n ´umero esperado de pruebas hasta obtener ´exito es de nuevo E(X). Por lo tanto E(X) satisface la ecuaci ´on

E(X) =1 · p + (1 + E(X)) · (1 − p), de donde se obtiene

E(X) = 1 p

(12)

IV.8.

Aplicaciones

El Colleccionista de Cupones

Problema:Una persona est´a tratando de completar una collecci ´on de cupones que vienen con cada unidad de cierto producto. Si n es el n ´umero total de motivos diferentes, y cada motivo tiene la misma probabilidad1/n de aparecer en cualquier unidad del producto, cu´al es el n ´umero esperado de unidades que la persona debe comprar para poder completar la colecci ´on ?

Tenemos una prueba de Bernoulli en la cu´al “´exito” al comprar una unidad significa que se ha encontrado un motivo que todav´ıa no se ten´ıa. En la primera compra siempre se tiene ´exito y quedan n −1 motivos por conseguir. Como la probabilidad de cada motivo es1/n, entonces la probabilidad de tener ´exito en la segunda compra es (n −1)/n = 1 − 1/n. Cuando se logra un segundo ´exito despu´es de un n ´umero de pruebas (unidades compradas), la probabilidad de ´exito se reduce a1 − 2/n. En general, despu´es de k ´exitos, k = 0, 1, . . . , n − 1, la probabilidad se ha reducido a pk+1 =1 − k/n. Sea Xk la variable aleatoria

indi-cando el n ´umero de pruebas usadas para obtener el k-´esimo ´exito. De acuerdo con el resultado de arriba (n ´umero de pruebas para obtener un ´exito) el valor esperado de Xk es 1/pk. Entonces el valor esperado total hasta completar la

colecci ´on es E        n X k=1 Xk        = n X k=1 E(Xk) = n X k=1 1 pk = n X k=1 1 1 −k−1 n = n · n X k=1 1 n − k +1 = n · n X j=1 1 j = nHn donde Hn = Pn

j=11/j es el n-´esimo n ´umero arm´onico. Recuerde que Hn es

cercano a ln n; m´as precisamente

(13)

IV.8. APLICACIONES 13

El Problema de la Entrevista

Problema:Se est´an realizando entrevistas para elegir entre n candidatos a cierto trabajo un s ´olo favorecido. Al final de la entrevista, cada candidato por supuesto quiere saber que posibilidades tiene. El entrevistador siendo honesto tiene dos casos para responder; en el primero caso: “ud es el mejor candidato hasta aho-ra pero debemos terminar con todos los candidatos y s ´olo entonces podemos anunciar la decisi ´on”; y en el segundo caso: “desafortunadamente ya hemos entrevistado un candidato mejor, as´ı que ud ya no tiene opci ´on”. Asumiendo que existe un orden bien definido entre los candidatos (consistente con el cri-terio de evaluaci ´on usado en la entrevista), y que la entrevista es realizada en un ordenamiento aleatorio de los candidatos, cu´al es el n ´umero esperado de candidatos mejores que los anteriores ?

Denotemos los candidatos con los enteros1, 2, 3, . . . , n de tal forma que este es el ´orden de menos calificado a mejor calificado. Estos candidatos son entre-vistados en un orden determinado por una permutaci ´on aleatoria de1, 2, . . . , n. Esto es, el espacio de probabilidad es

Ω = {π : {1, 2, . . . , n} → {1, 2, . . . , n} : π es biyectiva} y todas las permutacionesπ ∈ Ω son equiprobables:

Pr(π) = 1 n!

Un candidato mejor que los anteriores corresponde a unπ(i) tal que π(j) < π(i) para j < i

Definamos entonces la variable 0/1 que indica esto Xi =

1 si π(j) < π(i) para 1 ≤ j < i 0 en otro caso

Con esto, entonces el n ´umero total de candidatos mejores que los anteriores est´a dado por

X = n X i=1 Xi El valor esperado es E(X) = E       n X i=1 Xi       = n X i=1 E(Xi) = n X i=1 Pr(Xi =1)

A qu´e es igual Pr(Xi =1) ? Veamos que

Pr(Xi =1) = 1

i.

1a. alternativa: Contando. Una permutaci ´on de In={1, 2, 3, . . . , n} se puede

(14)

1. Se escogen los primeros i elementos de la permutaci ´on J ={π(1), π(2), π(3), . . . , π(i)} como conjunto (sin el ordenamiento).

2. Se escoge una permutaci ´on de J (los primeros elementos)

3. Se escoge una permutaci ´on de In−J (los ´ultimos, el resto, de los elementos)

El n ´umero de formas de proceder es nk, i! y (n − i)! respectivamente, y por la regla del producto se obtiene

n k !

·i! · (n − i)! = n!

lo que corresponde al total de permutaciones de In. Para determinar Pr(Xi =1)

debemos determinar el n ´umero de permutaciones que tienenπ(j) < π(i) para 1 ≤ j < i. Es decir, π(i) es el m´aximo entre los elementos de J (en la construcci´on anterior). Estas permutaciones se pueden obtener usando los 3 mismos pasos con el segundo modificado restringiendo la permutaci ´on de tal forma queπ(i) es el m´aximo de J. Entonces en el paso 2 el n ´umero de formas de proceder es (i −1)! (el n’umero de permutaciones de n − 1 elementos), y el n ´umero total es

n k ! · (i −1)! · (n − i)! = n!/i Por lo tanto Pr(Xi =1) = n!/i n! = 1 i.

2a. alternativa: Probabilidades Condicionales. Sea E un evento y F1, F2, . . . , Fk una

partici ´on deΩ (los Fison disyuntos y la uni ´on esΩ). Entonces

Pr(E) = Pr(E∩Ω) = Pr         E ∩         k [ j=1 Fi                 =Pr         k [ j=1 (E ∩ Fj)         = k X i= j=1 Pr(E∩Fj) = k X j=1 Pr(E|Fj)Pr(Fj)

Vamos a usar esto aqu´ı donde cada Fj de la partici ´on corresponde a

permuta-ciones de Indonde

{π(1), π(2), π(3), . . . , π(i)}

es un mismo conjunto. Por conveniencia, en lugar de sub´ındice j entero, usemos sub´ındice J que es un subconjunto, y

FJ ={π : In→ In| π es biyectiva y {π(1), π(2), . . . , π(i)} = J} Entonces Pr(Xi =1) = X J⊆In,|J|=i Pr(Xi =1 | FJ)Pr(FJ)

(15)

IV.8. APLICACIONES 15 donde la suma es sobre todos los subconjuntos de Inde tama ˜no i. Pero

Pr(Xi =1 | FJ) = 1

i

porqueπ(i) es igual a cada elemento de J con igual probabilidad. Por lo tanto Pr(Xi =1) = X J⊆In,|J|=i 1 i Pr(FJ) = 1 i X J⊆In,|J|=i 1 i = 1 i donde la suma es1 porque los FJson una partici ´on deΩ.

Con esto tenemos finalmente que E(X) = n X i=1 1 i =Hn, donde de nuevo encontramos los n ´umeros arm ´onicos.

Problema del Coleccionista (cont)

Hemos determinado que el n ´umero esperado de compras para completar la colecci ´on de n elementos es nHn. Queremos informaci ´on m´as precisa acerca

de cuantas compras pueden asegurar con probabilidad bastante cercana a 1 que la colecci ´on se ha completado. Vamos a determinar una cota superior para la probabilidad de que no se complete la colecci ´on despu´es de K = n ln n + cn compras (es decir aproximadamente cn m´as que el n ´umero esperado de compras necesarias) donde c es una variable (que despu´es podemos escoger para hacer la probabilidad convenientemente peque ˜na).

La colecci ´on no se ha completado despu´es de K compras si alguno de las n l´aminas a coleccionar no ha sido encontrada. Sea E el evento de que la colecci ´on no se ha completado despu´es de K compras y sea Ei el evento de que la i-´sima

l´amina i no se ha encontrado. Entonces E =

n

[

i=1

En

donde la uni ´on no es disyunta. Sin embargo, se tiene que Pr(E) ≤

n

X

i=1

Pr(Ei).

La probabilidad que la i-´esima l´amina no se ha encontrado en K compras es Pr(Ei) =

 1 − 1

n K

(16)

porque1/n es la probabiliadad de encontrar la l´amina en un art´ıculo y todas las compras son independientes.

Para facilitar los c´alculos, puesto que de todas formas no tenemos ya un c´aculo exacto de la probabilidad, sino una cota superior, usamos la siguiente desigualdad, la cual es v´alida para x> 0:

1 − x < e−x.

(Esto se puede verificar de la siguiente manera: d(1 − x)/dx = −1 y d(e−x)/dx =

−e−x> −1 para x > 0. Como ambas funciones, 1 − x y e−x coinciden para x =0, entonces1 − x < e−x. Dicho de otra manera, la gr´afica de1 − x est´a por debajo

de la gr´afica de e−xpara x> 0.) Entonces

1 − 1 n < e −1/n y Pr(Ei) =  1 − 1 n K < (e−1/n )K =e−K/n =e−(n ln n+cn)/n) =e−lnn−c =e−ln ne−c = 1 nec y entonces Pr(E) ≤ n X i=1 Pr(Ei) =n · 1 nec = 1 ec

Para asegurar que

Pr(E)< 

donde es un valor especificado, escogemos c = ln(1/). Por lo tanto escogiendo K = dn ln n + n/e

compras asegura que la probabilidad de no completar la colecci ´on despu´es de K compras es menor que.

Por ejemplo, para n =300 y  = 1/100, se necesita K = d300 · 5,7037 + 300 · 4,6051e = 3093.

Referencias

Documento similar

&#34;No porque las dos, que vinieron de Valencia, no merecieran ese favor, pues eran entrambas de tan grande espíritu […] La razón porque no vió Coronas para ellas, sería

(1886-1887) encajarían bien en una antología de textos históricos. Sólo que para él la literatura es la que debe influir en la historia y no a la inversa, pues la verdad litera- ria

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,

Ciaurriz quien, durante su primer arlo de estancia en Loyola 40 , catalogó sus fondos siguiendo la división previa a la que nos hemos referido; y si esta labor fue de

En la parte central de la línea, entre los planes de gobierno o dirección política, en el extremo izquierdo, y los planes reguladores del uso del suelo (urbanísticos y

Es el proceso mediante el cual se realiza una elección entre diferentes alternativas o formas para resolver diferentes problemas a los que nos enfrentamos en la vida, estas se

La empresa presentaba algunos problemas en el proceso administrativo como: no tenían establecido los objetivos del año, ni las estrategias para cumplir con los objetivos;