• No se han encontrado resultados

Diplomado en Probabilidad y Estadística. Módulo II. Probabilidad Nivel Intermedio.

N/A
N/A
Protected

Academic year: 2022

Share "Diplomado en Probabilidad y Estadística. Módulo II. Probabilidad Nivel Intermedio."

Copied!
44
0
0

Texto completo

(1)

Diplomado en Probabilidad y Estad´ıstica.

M´ odulo II. Probabilidad Nivel Intermedio.

Gerardo Rubio.

Facultad de Ciencias, UNAM.

1 Vectores Aleatorios.

1.1 Breve repaso de variables aleatorias.

El concepto de variable aleatoria permite cambiar el conjunto donde se est´a trabajando. Cuando se parte de un espacio de probabilidad (Ω, F , P) se requiere trabajar y operar con conjuntos en general abstractos. Si X : Ω → R es una variable aleatoria, el tratamiento de probabilidad se da ahora sobre un espacio bastante m´as conocido (R, B(R)) donde el conjunto B(R) lo llamaremos el conjunto de los Borelianos de R. No es la intenci´on de este m´odulo el de dar un tratatimiento t´ecnico a la probabilidad. Por lo tanto lo ´unico que haremos ser´a dar la siguiente observaci´on.

Observaci´on 1.1. El conjunto B(R) contiene a todos los intervalos de la forma (a, b), (a, b], [a, b), [a, b], (−∞, b], (−∞, b), (a, ∞), [a, ∞) para a ≤ b y cualquier operaci´on conjuntista numerable entre ellos

Por lo tanto, cuando se trabaja sobre el espacio (Ω, F , P) se trabajan probabilidades de la forma P [A] con A ∈ F mientras que cuando se trabaja con una variable aleatoria se trabaja con probabilidades de la forma P [X ∈ B] con B ∈ B(R).

Alternativamente a la definici´on tradicional, se puede dar como definici´on de variable aleatoria la siguiente.

Definici´on 1.1 (Variable aleatoria.). Sea X : Ω → R, decimos que X es una variable aleatoria si para todo B ∈ B(R)

{X ∈ B} := {ω ∈ Ω|X(ω) ∈ B} ∈ F .

Esta definici´on lo que permite es garantizar que las probabilidades de la forma P [X ∈ B] est´en bien definidas para una clase suficientemente rica de conjuntos (los borelianos de R).

Definici´on 1.2 (Variable aleatoria discreta.). Sea X : Ω → R una variable aleatoria. Se dice que es una variable aleatoria discreta si Ran(X) ⊂ R es un conjunto a lo m´as numerable. Es decir, que se cumple que

P [X = x] = px, si x ∈ Ran(X), 0, si x /∈ Ran(X).

(2)

Y adem´as se cumple que

X

x∈Ran(X)

px = 1.

Esto motiva la siguiente definici´on

Definici´on 1.3 (Funci´on de densidad. Caso discreto.). Sea X una variable aleatoria discreta.

Definimos su funci´on de densidad fX : R → [0, 1] dada por fX(x) := P [X = x] .

De manera general, para una variable aleatoria que no necesariamente cumpla con las carac- ter´ısticas de una variable aleatoria discreta se tiene lo siguiente

Definici´on 1.4 (Funci´on de distribuci´on.). Sea X una variable aleatoria. Definimos su funci´on de distribuci´on FX : R → [0, 1] como

FX(x) := P [X ≤ x] .

La ventaja de la funci´on de distribuci´on es que est´a bien definida para cualquier tipo de variable aleatoria y tiene la virtud de que caracteriza el comportamiento estad´ıstico de ´esta. Sin embargo tiene la problem´atica de que no es pr´actica al realizar c´alculos de probabilidades.

Existe otra gran familia de variables aleatorias que se les conoce como variables aleatorias con- tinuas (el nombre correcto es variables aleatorias absolutamente continuas). Tenemos la siguiente definici´on.

Definici´on 1.5 (Variable aleatoria absolutamente continua. Funci´on de densidad.). Sea X una variable aleatoria y sea FX su funci´on de distribuci´on. Decimos que X es una variable aleatoria absolutamente continua (gen´ericamente diremos continua) si FX(x) es una funci´on continua con derivada continua excepto, tal vez, en una cantidad finita de puntos.

La funci´on de densidad de X, fX : R → [0, ∞) se define como fX(x) := d

dxFX(x).

Se tiene la siguiente observaci´on

Observaci´on 1.2. La funci´on de densidad en el caso discreto tiene un claro sentido probabilista, es decir,

fX(x) = P [X = x] ,

sin embargo para la funci´on de densidad en el caso continuo no es claro que esto suceda. Es m´as, dada la continuidad la funci´on de distribuci´on en este caso, se puede probar que

P [X = x] ≡ 0.

Nos podemos preguntar entonces, ¿porqu´e es que ambas funciones comparten el nombre? La respuesta viene en el siguiente Teorema

Teorema 1.1. Sea X una variable aleatoria y sea fX su funci´on de densidad.

(3)

1. Si X es una variable aleatoria discreta, entonces P [X ∈ B] =

X

x∈B∩RanX

fX(x), para todo B ∈ B(R).

2. Si X es una variable aleatoria continua, entonces P [X ∈ B] =

Z

B

fX(x)dx para todo B ∈ B(R).

Es este resultado el que explica el porque la similitud del nombre y adem´as este resultado es el que nos dice que todo la informaci´on que querramos acerca de una variable aleatoria X, la podemos obtener a partir de su funci´on de densidad (salvo los problemas de c´alculo evidentemente).

1.2 Vectores aleatorias. Funciones de densidad conjunta y marginales.

Existen muchos problemas interesantes para los cuales m´as de un aspecto se puede cuantificar de manera aleatoria. Veamos los siguientes ejemplos

Ejemplo 1.1. Un paciente se realiza un chequeo general. Con el fin de comprender mejor su salud se realizan las siguientes mediciones

• A =la altura,

• P =el peso,

• E =la edad,

• S =el sexo,

• P S =la presi´on sangu´ınea.

Si se quiere hacer alg´un estudio estad´ıstico, se puede considerar que dichas medidas son aleatorias.

Sin embargo es m´as conveniente considerarlas de manera conjunta que separadas, es decir, trabajar con el vector (A, P, E, S, P S).

Ejemplo 1.2. Un puente se sostiene con 10 vigas paralelas. El puente no es seguro si 5 o m´as de ellas se encuentran oxidadas. Si denotamos como Xk el tiempo que tarda en oxidarse la viga k, una vez m´as tenemos dos situaciones. La primera es que no se sabe a ciencia cierta dicho tiempo, es decir, Xk es objeto aleatorio. Y segundo, que nos interesa estudiar al vector (X1, . . . , Xk) m´as que a las variables por separado.

Ejemplo 1.3. Una p´oliza de vida garantiza el pago de la suma asegurada, en caso de que el cliente fallezca. Sin embargo hay planes que consideran que el beneficiario se puede retirar del contrato y no por ello perder todo el dinero ya invertido (por el pago de las primas). Entonces para la aseguradora hacer c´alculos, necesita dos estimaciones, τM el tiempo de muerte y τC el tiempo de cancelaci´on. En este caso, el pago depender´a de m´ın{τM, τC} por lo que a la aseguradora le interesa el vector (τM, τC).

Durante esta primera parte, revisaremos el concepto de vector aleatorio. Para ello trabajaremos un par de ejemplos sencillos que nos permitir´an entender las ideas principales detr´as de este tema.

(4)

1.2.1 Vectores aleatorios discretos.

Ejemplo 1.4 (Lanzamiento de volados.). Se tiene una moneda cargada de tal manera que la prob- abilidad de sol es p y la de ´aguila es 1 − p. Se lanza de manera consecutiva la moneda. Definamos las siguientes funciones

X =el lanzamiento donde ocurre el primer sol, Y =el lanzamiento donde ocurre el segundo sol.

De manera marginal sabemos que X ∼ Geo(p) y que Y ∼ Binneg(2, p). Si estamos interesados en el comportamiento conjunto, es decir, en el vector (X, Y ), ¿qu´e podemos decir?

Soluci´on. Para eso calcularemos primero

P [X = x, Y = y] := P [{X = x} ∩ {Y = y}] .

Lo siguiente pregunta que podemos contestar es ¿qu´e informaci´on es mejor, P [X = x, Y = y] o por separado tener P [X = x] y P [Y = y]?

En general tenemos las siguientes definiciones.

Definici´on 1.6 (Vector aleatorio.). Una funci´on X : Ω → Rn, es decir, X = (X1, . . . , Xn) decimos que es un vector aleatorio si se tiene que Xk es una variable aleatoria para toda k = 1, ˙,n.

Definici´on 1.7 (Vector aleatorio discreto.). Sea X = (X1, . . . , Xn) un vector aleatorio. Decimos que X = (X1, . . . , Xn) es un vector aleatorio discreto si se tiene que Xk es una variable aleatoria discreta para toda k = 1, . . . , n.

De manera alternativa, podemos dar la siguiente definici´on.

Definici´on 1.8 (Funci´on de densidad conjunta. Caso discreto.). Sea X = (X1, . . . , Xn) un vector aleatorio discreto y denotemos su rango como Ran(X) ⊂ Rn. La funci´on de densidad conjunta fX : Rn→ [0, 1] la definimos como

fX1,...,Xn(x1, . . . , xn) = P [X1 = x1, . . . , Xn= xn]

donde el conjunto {X1 = x,. . . , Xn= xn} := {X1 = x1} ∩ {X2 = x2} ∩ · · · ∩ {Xn= xn}.

Se tiene el siguiente Teorema

Teorema 1.2 (Funci´on de densidad marginal. Caso discreto.). Sea X = (X1, . . . , Xn) un vector aleatorio discreto. Sean Y1 = (Xi1, . . . , Xir) y Y2 = (Xj1, . . . , Xjm) dos conjuntos ajenos de vari- ables aleatorias tales que r + m = n. Entonces la funci´on de densidad del vector Y1 est´a dada por

fY1(xi1, . . . , xir) = X

(xj1,...,xjm)

fX1,...,Xn(x1, . . . , xn) A la funci´on fY1 le llamaremos la funci´on de densidad marginal del vector Y1.

(5)

Observaci´on 1.3. Veamos el caso particular de un vector (X, Y ). Entonces el resultado nos dice que

fX(x) =X

y

fX,Y(x, y), fY(y) =X

x

fX,Y(x, y).

La idea de la prueba se basa en que Ω = {X ∈ Ran(X)} y por lo tanto P [Y = y] =P [X ∈ Ran(X), Y = y]

=P

 [

x∈Ran(X)

{X = x, Y = y}

=X

x

P [X = x, Y = y] .

1.2.2 Vectores aleatorios absolutamente continuos.

Ejemplo 1.5. Se lanza un dardo a un area delimitada por un cuadrado. Es decir, consideramos el problema de elegir un punto al azar del cuadrado unitario (0, 1) × (0, 1). Consideremos el vector (X, Y ) que denota el punto del cuadrado donde cay´o la punta del dardo. Si estamos interesados en el comportamiento conjunto del vector (X, Y ), ¿qu´e podemos decir? ¿Qu´e comportamiento marginal esperamos?

Soluci´on. Lo primero que podemos observar es que si tratamos de repetir el tratamiento del prob- lema pasado obtenemos lo siguiente

P [X = x, Y = y] ≡ 0.

Para trabajar este problema consideramos la interpretaci´on geom´etrica de la probabilidad sobre el conjunto (0, 1) × (0, 1). Se tiene que la densidad est´a dada por

f (x, y) = 1(0,1)(x) 1(0,1)(y) .

Ejemplo 1.6. Repetimos el problema anterior s´olo que ahora cambiamos la regi´on donde cae el dardo. Consideramos el tri´angulo con v´ertices en el (0, 0), (1, 0) y (1, 1). Si repetimos las mismas preguntas que en el caso anterior, ¿qu´e podemos decir?

Soluci´on. Al igual que en el ejemplo pasado se tiene que P [X = x, Y = y] ≡ 0.

Una vez m´as utilizamos la interpretaci´on geom´etrica de la probabilidad, ahora sobre el tri´angulo descrito. Se tiene que

f (x, y) = 21(0,1)(x) 1(0,x)(y) = 21(0,1)(y) 1(y,1)(x) .

(6)

En el caso univariado argumentamos el porqu´e las funciones de densidad (caso discreto y caso continuo) comparten el nombre a pesar de tener distintas interpretaciones probabilistas. Una funci´on de densidad para una variable aleatoria continua X cumple que

P [X ∈ B] = Z

B

fX(x)dx, para todo B ∈ B(R).

Para simplificar las cosas, consideraremos a ´esta como la definici´on de un vector aleatorio continuo y una funci´on de densidad continua.

Definici´on 1.9 (Vector aleatorio absolutamente continuo. Funci´on de densidad conjunta.). Sea X = (X1, . . . , Xn) un vector aleatorio. Diremos que es un vector aleatorio absolutamente continuo si existe fX : Rn → [0, ∞) tal que para todo B ∈ B(Rn) se cumple que

P [(X1, . . . , Xn) ∈ B] = Z

· · · Z

(x1,...,xn)∈B

fX(x1, . . . , xn)dx1. . . dxn. A fX1,...,Xn le llamaremos la funci´on de densidad conjunta de X = (X1, . . . , Xn).

Para el c´alculo de las funciones de densidad marginales tenemos

Teorema 1.3 (Funci´on de densidad marginal. Caso continuo.). Sea X = (X1, . . . , Xn) un vector aleatorio continuo. Sean Y1 = (Xi1, . . . , Xir) y Y2 = (Xj1, . . . , Xjm) dos conjuntos ajenos de variables aleatorias tales que r + m = n. Entonces la funci´on de densidad del vector Y1 est´a dada por

fY1(xi1, . . . , xir) = Z

−∞

· · · Z

−∞

m veces

fX1,...,Xn(x1, . . . , xn)dxj1. . . dxjm. A la funci´on fY1 le llamaremos la funci´on de densidad marginal del vector Y1.

Observaci´on 1.4. Veamos el caso particular de un vector (X, Y ). Entonces el resultado nos dice que

fX(x) = Z

−∞

fX,Y(x, y)dy, fY(y) =

Z

−∞

fX,Y(x, y)dx.

La idea de la prueba se basa en que Ω = {X ∈ Ran(X)} y por lo tanto P [Y ∈ B] =P [X ∈ R, Y ∈ B]

= Z

B

Z

−∞

fX,Y(x, y)dx

 dy

Ejemplo 1.7 (Distribuci´on normal bivariada.). Sean (X, Y ) variables aleatorias. Se dice que tienen una distribuci´on normal bivariada si su funci´on de densidad conjunta est´a dada por

f (x, y) = 1

2πσxσyp1 − ρ2 exp



− 1

2(1 − ρ2)

 (x − µx)2

σx2 + (y − µy)2

σ2y − 2ρ(x − µx)(y − µy) σxσy



. Se puede probar que X ∼ N (µx, σx2) y Y ∼ N (µy, σ2y). Veamos el c´alculo en el caso que µx = µy = 0 y σx = σy = 1.

(7)

Soluci´on. Para esto necesitamos calcular la siguiente integral fX(x) =

Z

−∞

1

2πp1 − ρ2 exp



− 1

2(1 − ρ2)(x2+ y2− 2ρxy)

 dy.

1.3 Funci´ on de distribuci´ on y funci´ on de densidad. Propiedades b´ asicas.

En esta secci´on definiremos la funci´on de distribuci´on conjunta y veremos algunas de sus propiedades b´asicas. Al igual que en el caso univariado, la funci´on de distribuci´on tiene como ventaja que la podemos definir en el mismo sentido tanto para vectores discretos como continuos, sin embargo no es ´util para realizar c´alculos. Su funci´on es m´as bien te´orica. Adem´as de eso daremos las propiedades b´asicas que caracterizan a las funciones de densidad conjuntas.

1.3.1 Funci´on de distribuci´on conjunta.

Definici´on 1.10 (Funci´on de distribuci´on.). Sea X = (X1, . . . , Xn) un vector aleatorio. Definimos la funci´on de distribuci´on conjunta de X, FX : Rn→ [0, 1] como

FX(x1, . . . , xn) := P [X1 ≤ x1, . . . , Xn ≤ xn] .

A continuaci´on daremos un par de resultados te´oricos. Para su mayor comprensi´on los daremos en el caso que estemos considerando una pareja (X, Y ) de variables aleatorias.

Proposici´on 1.1. Sea (X, Y ) un vector aleatorio y sea F su funci´on de distribuci´on conjunta.

Entonces F satisface las siguientes propiedades:

1. F (x, y) es no decreciente en cada una de sus entradas por separado.

2. F (x, y) es continua por la derecha con l´ımites por la izquierda en cada una de sus entradas.

3. Para toda i = 1, . . . , n

xilim→−∞F (x1, . . . , xi, . . . , xn) = 0.

4. Se cumple que

x1→∞,...,xlimn→∞F (x1, . . . , xn) = 1.

5. Para todo x0 ≤ x1 y y0 ≤ y1 se tiene que

F (x1, y1) − F (x0, y1) − F (x1, y0) + F (x0, y0) ≥ 0.

Observaci´on 1.5. La propiedad 1 a la 4 tienen una interpretaci´on similar al caso univariado. La propiedad 5 se interpreta a partir de la siguiente igualdad

P [x0 < X ≤ x1, y0 < Y ≤ y1] = F (x1, y1) − F (x0, y1) − F (x1, y0) + F (x0, y0).

(8)

La importancia de estas propiedades radica en que caracterizan a la funci´on de distribuci´on, es decir, que si una funci´on arbitraria cumple dichas propiedades, entonces esa funci´on corresponde a una funci´on de distribuci´on. Tenemos el siguiente resultado

Teorema 1.4. Sea F : Rn→ R funci´on que cumple las propiedades 1 a la 5 de la proposici´on ante- rior. Entonces existe un espacio de probabilidad (Ω, F , P) y un vector aleatorio X = (X1, . . . , Xn) tal que F es la distribuci´on conjunta de ´este, i.e.

P [X1 ≤ x1, . . . , Xn≤ xn] = F (x1, . . . , xn).

1.3.2 Funcion de densidad conjunta.

Para el caso de la funci´on de densidad se tienen los siguientes resultados

Proposici´on 1.2. Sea X = (X1, . . . , Xn) un vector aleatorio discreto y sea f su funci´on de densidad. Entonces se cumple que existe un conjunto R ⊂ Rn a lo m´as numerable tal que

1. • f (x1, . . . , xn) > 0, si (x1, . . . , xn) ∈ R,

• f (x1, . . . , xn) = 0, si (x1, . . . , xn) /∈ R.

2. Adem´as

X

(x1,...,xn)∈R

f (x1, . . . , xn) = 1.

Al conjunto R generalmente se le asocia con el rango de X.

Para el caso continuo se tiene

Proposici´on 1.3. Sea X = (X1, . . . , Xn) un vector aleatorio discreto y sea f su funci´on de densidad. Entonces se tiene que

1. f (x1, . . . , xn) ≥ 0 para todo (x1, . . . , xn) ∈ Rn.

2. Z

−∞

· · · Z

−∞

f (x1, . . . , xn)dx1. . . dxn= 1.

Al igual que en el caso de la funci´on de distribuci´on, las propiedades anteriores caracterizan a las funciones de densidad.

Teorema 1.5. Sea f : Rn → R funci´on que cumple las propiedades 1 y 2 de alguna de las proposiciones anteriores. Entonces existe un espacio de probabilidad (Ω, F , P) y un vector aleatorio X = (X1, . . . , Xn) tal que f es la funci´on de densidad conjunta de ´este.

An´alogo al caso univariado tenemos el siguiente resultado. En ´el se ve la importancia de las funciones de densidad

Teorema 1.6. Sea X = (X1, . . . , Xn) vector aleatoria y sea fX su funci´on de densidad conjunta.

(9)

1. Si X es un vector aleatorio discreto, entonces P [(X1, . . . , Xn) ∈ B] = X

(x1,...,xn)∈B∩RanX

fX(x1, . . . , xn),

para todo B ∈ B(Rn).

2. Si X es un vector aleatorio continuo, entonces P [(X1, . . . , Xn) ∈ B] =

Z

· · · Z

(x1,...,xn)∈B

fX(x1, . . . , xn)dx1. . . xn para todo B ∈ B(Rn).

1.4 Densidades condicionales e independencia.

1.4.1 Densidad condicional.

Retomemos el ejemplo 1.4

Ejemplo 1.8. Sean X y Y como en el ejemplo 1.4, es decir, X representa la llegada del primer sol y Y representa la llegada del segundo sol. Sabemos que Y es una variable aleatoria Binneg(2, p).

Entonces los aspectos relacionados con predecir la llegada del segundo sol los podemos calcular a partir de la funci´on

fY(y) = P [Y = y] = (y − 1)(1 − p)y−2p21{2,3,... }(y) .

Si comenzamos a lanzar la moneda y obtenemos que en el volado x se obtuvo un sol, no ser´ıa conveniente despreciar esta informaci´on para predecir la llegada del segundo sol. Por lo pronto sabemos que Y toma valores del x + 1 en adelante y no del 2 en adelante como originalmente lo hac´ıa. Lo que queremos es encontrar c´omo se distribuye Y ahora que sabemos que X = x.

De la misma forma, si ahora sabemos que el segundo sol se obtuvo en el lanzamiento y, ¿c´omo incorporamos esa informaci´on para predecir la llegada del primer sol?

Soluci´on. Las variables aleatorias son discretas, por lo tanto se tiene que los eventos de la forma {X = x} y {Y = y} tienen probabilidad positiva sobre el rango de las variables. Por lo tanto, podemos trabajar con las siguientes probabilidades

P [Y = y|X = x]

y

P [X = x|Y = y]

como una probabilidad condicional.

Definici´on 1.11 (Funci´on de densidad condicional. Caso discreto.). Sea X = (X1, . . . , Xn) un vector aleatorio discreto. Sean Y1 = (Xi1, . . . , Xir) y Y2 = (Xj1, . . . , Xjm) dos conjuntos ajenos de variables aleatorias tales que r + m = n. Entonces, la funci´on de densidad condicional de Y1 dado Y2 = y2 = (xj1, . . . , xjm) est´a dada por

fY1|Y2(y1|y2) = ( f (x

1,...,xn)

fY2(y2) , si fY2 > 0, 0, si fY2 = 0.

(10)

Observaci´on 1.6. En el caso de una pareja (X, Y ) se tiene que la densidad condicional de X dado Y = y est´a dada por

fX|Y(x|y) =

( f (x,y)

fY(y), si fY > 0, 0, si fY = 0.

Veamos ahora qu´e pasa en el caso continuo.

Ejemplo 1.9. Recordemos las variables trabajadas en los ejemplos 1.5 y 1.6, es decir, (X, Y ) las coordenadas de un punto elegido al azar en un cuadro y en un tri´angulo respectivamente. Una vez m´as, si ahora sabemos que la coordenada x est´a dada por un valor a, queremos utilizar esa informaci´on para predecir el valor que tomar´a Y . El primer problema que podemos observar es que los conjuntos de la forma {X = a} y {Y = b} tiene probabilidad cero. Por lo tanto no podemos proceder igual que en el caso discreto, es decir, usando la definici´on de esperanza condicional. De todas formas, en ambos problemas podemos esperar que ocurran diversos resultados.

Soluci´on. Intuitivamente podemos ver que el caso del cuadrado el valor que tome X no influye en el valor de Y , por lo tanto se espera que Y se distribuya uniforme (0,1). En cambio, en el caso del tri´angulo se espera que el resultado en X si influya la predicci´on en Y por lo que se espera que Y se distribuya uniforme (0, x).

Se tiene la siguiente definici´on an´aloga al caso discreto

Definici´on 1.12 (Funci´on de densidad condicional. Caso continuo.). Sea X = (X1, . . . , Xn) un vector aleatorio continuo. Sean Y1 = (Xi1, . . . , Xir) y Y2 = (Xj1, . . . , Xjm) dos conjuntos ajenos de variables aleatorias tales que r + m = n. Entonces, la funci´on de densidad condicional de Y1 dado Y2 = y2 = (xj1, . . . , xjm) est´a dada por

fY1|Y2(y1|y2) = ( f (x

1,...,xn)

fY2(y2) , si fY2 > 0, 0, si fY2 = 0.

Observaci´on 1.7. En el caso de una pareja (X, Y ) se tiene que la densidad condicional de X dado Y = y est´a dada por

fX|Y(x|y) =

( f (x,y)

fY(y), si fY > 0, 0, si fY = 0.

La interpretaci´on para la densidad condicional nos la da el siguiente Teorema

Teorema 1.7. Sean (X, Y ) variables aleatorias continuas con funci´on de densidad conjunta f (x, y).

Entonces se cumple que para todo B ∈ B(R) P [Y ∈ B|X = x] =

Z

B

fY |X(y|x)dy.

Observaci´on 1.8. El resultado anterior nos dice que la funci´on de densidad condicional es en efecto la funci´on de densidad de Y |X = x. Este resultado require de argumentos t´ecnicos, sin embargo su interpretaci´on es sencilla.

(11)

Ejemplo 1.10. Con esta definici´on podemos ahora terminar el problema planteado atr´as, de donde llegamos a lo siguiente

• Problema del cuadrado. Podemos probar entonces que

fX|Y(x|y) = 1(0,1)(x) , si y ∈ (0, 1), 0, si y /∈ (0, 1).

y

fY |X(y|x) =  1(0,1)(x) , si x ∈ (0, 1), 0, si x /∈ (0, 1).

• Problema del tri´angulo.

fX|Y(x|y) =

( 1(y,1)(x)

1−y , si y ∈ (0, 1), 0, si y /∈ (0, 1).

y

fY |X(y|x) =

 1(0,x)(y)

x , si x ∈ (0, 1), 0, si x /∈ (0, 1).

1.4.2 Independencia.

Como vimos en el ejemplo pasado, para el caso del cuadrado, no importaba el valor que tomara Y , la distribuci´on de X no variaba. Sin embargo, en el caso del tri´angulo observamos que para cada valor que tomaba Y , la densidad condicional de X cambiaba. En otras palabras, lo que vemos en el primer caso es que el valor que toma una variable es independiente del valor que toma la otra, mientras que en el segundo caso esto no sucede. De manera similar al caso de eventos1 podemos decir que dos variables son independientes si

fX|Y(x|y) = f (x, y)

fX(x) = fX(x).

Sin embargo, esto requiere de que fX(x) > 0. Haciendo un razonamiento igual al que se hace para independencia de eventos decimos lo siguiente

Definici´on 1.13 (Variables aleatorias independientes.). Sean X1, . . . , Xn variables aleatorias con funci´on de densidad conjunta f y funciones de densidad marginales fXi, i = 1, . . . , n. Entonces decimos que son independientes si se cumple que

f (x1, x2, . . . , xn) = fX1(x1)fX2(x2) · · · fXn(xn), para todo (x1, x2, . . . , xn) ∈ Rn.

Observaci´on 1.9. En general la independencia de variables aleatorias se define a trav´es de la funci´on de distribuci´on conjunta, sin embargo, dado el tratamiento que hemos llevado, sentimos que es m´as natural hacerlo a trav´es de la funci´on de densidad.

1La motivaci´on para decir que dos eventos son independientes viene de la igualdad P [A|B] = P [A].

(12)

Observaci´on 1.10. Si juntamos la definici´on de independencia y el resultado del Teorema 1.6 tenemos que para todo A, B ∈ B(R) se cumple que si X y Y son independientes, entonces

P [X ∈ A, Y ∈ B] = P [X ∈ A] P [Y ∈ B]

lo cual es un concepto m´as natural de independencia.

Retomemos el ejemplo de la funci´on normal bivariada (ejemplo 1.7)

Ejemplo 1.11. Por simplicidad de notaci´on trabajemos con la funci´on de densidad bivariada est´andar. Sean (X, Y ) variables aleatorias con funci´on de densidad conjunta

f (x, y) = 1

2πp1 − ρ2exp



− 1

2(1 − ρ2)(x2+ y2− 2ρxy)

 .

Seg´un probamos en el ejemplo 1.7 se sabe que marginalmente X ∼ N (0, 1) y Y ∼ N (0, 1). Por lo tanto

fX(x)fY(y) = 1 2π exp



−1

2(x2+ y2)

 .

Podemos concluir entonces que una pareja de variables aleatorias normales bivariadas son inde- pendientes si y s´olo si el par´ametro ρ = 0.

El mismo resultado se obtiene en el caso de una normal bivariada general. M´as adelante daremos una interpretaci´on a las consecuencias de este resultado.

1.5 Transformaci´ on de variables aleatorias. Primer enfoque.

Hasta el momento hemos trabajado con vectores aleatorios. Hemos argumentado que el compor- tamiento estad´ıstico del vector est´a resumido en la funci´on de densidad conjunta. Hemos visto adem´as que a partir del comportamiento conjunto podemos inferir el comportamiento marginal.

Existen problemas interesantes para los cuales no interesa el comportamiento de todo el vector sino de una parte de ´el. Veamos el siguiente ejemplo.

Ejemplo 1.12. Una compa˜n´ıa de seguros tiene un contrato con los siguientes beneficios:

• Muerte.

• Recuperaci´on o cancelaci´on.

• Invalidez.

Denotemos por τM el tiempo de muerte, τR el tiempo de recuperaci´on y τI el tiempo de invalidez.

La compa˜n´ıa paga el primero de los tres beneficios que ocurra y en ese momento cancela la p´oliza.

En este ejemplo vemos que la aseguradora no est´a necesariamente interesada en la distribuci´on conjunta del vector (τM, τR, τI) sino en la distribuci´on de la variable

τ := min{τM, τR, τI}.

Una vez que determina la causa de decremento la compa˜n´ıa realiza el pago convenido, BM, BR ´o BI, seg´un sea el caso.

(13)

Para la compa˜n´ıa el problema no termina aqu´ı. Dado que tiene m´as de un asegurado (digamos n), lo que le interesa saber es qu´e pasa con toda su cartera. Si denotamos por Ai la variable que determina el beneficio recibido por el asegurado i, i = 1, . . . , n, una vez m´as no est´a tan interesada en el vector (A1, . . . , An) sino en la variable

A =

n

X

i=1

Ai.

En esta secci´on revisaremos un primer m´etodo para calcular el comportamiento probabil´ıstico de transformaciones de variables aleatorias.

1.5.1 Suma de variables aleatorias independientes. F´ormula de la convoluci´on.

Ejemplo 1.13. Sean X y Y variables aleatorias geom´etricas independientes e id´enticamente dis- tribuidas de par´ametro p. Definamos Z = X + Y . Nos interesa saber ¿Cu´al es la distribuci´on de Z?

Soluci´on. Hasta el momento hemos argumentado que toda la informaci´on de la pareja (X, Y ) puede ser obtenida a partir de la funci´on de densidad conjunta. En este caso tenemos que

f (x, y) = (1 − p)x+y−2p21{1,2,... }(x) 1{1,2,... }(y) .

Dado que esperamos que la variable aleatoria Z sea discreta, procedemos a calcular su funci´on de densidad

fZ(z) =P [Z = z] = P [X + Y = z]

= X

x,y|x+y=z

f (x, y).

Ejemplo 1.14. Sean X y Y variables aleatorias independientes e id´enticamente distribuidas ex- ponenciales de par´ametro λ. Si definimos Z = X + Y , entonces ¿cu´al ser´a la distribuci´on de Z?

Soluci´on. En este caso tenemos que

f (x, y) = λ2e−(x+y)1(0,∞)(x) 1(0,∞)(y) .

Para obtener la funci´on de densidad de Z, dado que esperamos que Z sea una variable aleatoria continua no podemos proceder como en el caso anterior (pues P [Z = z] ≡ 0). Para ello primero calculamos la funci´on de distribuci´on de Z y a partir de ella calculamos la funci´on de densidad.

FZ(z) =P [Z ≤ z] = P [X + Y ≤ z]

= Z

x,y|x+y≤z

f (x, y)dxdy Una vez obtenida FZ entonces

fZ(z) = d

dzFZ(z).

(14)

La argumentaci´on hecha en los ejemplos pasados puede repetirse en general. Tenemos el sigu- iente resultado

Proposici´on 1.4 (F´ormula de la convoluci´on.). Sean X y Y variables aleatorias independientes con funci´on de densidad fX y fY respectivamente y sea Z = X + Y . Entonces la funci´on de densidad de Z est´a dada por:

1. si las variables X y Y son discretas

fZ(z) =X

y

fX(z − y)fY(y),

2. si las variables X y Y son continuas fZ(z) =

Z

−∞

fX(z − y)fY(y)dy.

Ejemplo 1.15. Sean X y Y variables aleatorias independientes e id´enticamente distribuidas U(0, 1).

Calcular la distribuci´on de Z = X + Y .

Observaci´on 1.11. Cuando se quiere calcular la densidad de una suma de variables aleatorias continuas puede procederse de dos formas:

• Utilizar la f´ormula de la convoluci´on.

• Calcular directamente la funci´on de distribuci´on y luego derivarla.

1.5.2 Transformaciones generales.

En el secci´on anterior vimos el caso particular de la suma de variables aleatorias independientes.

Sin embargo la lecci´on que podemos aprender es que dicha t´ecnica s´olo depende del conocimiento de la funci´on de densidad conjunta y de la transformaci´on a realizar. Veamos algunos ejemplos para ilustrar esto.

Ejemplo 1.16. Sean X y Y variables aleatorias N(0,1) independientes. Calcular la densidad de W = XY.

Soluci´on. Procedemos al igual que en la suma

fW(w) = P [W ≤ w] = P X Y ≤ w

 .

A diferencia de la suma, cuando despejemos en este caso depender´a del signo de Y por lo tanto procedemos de la siguiente forma

P

 X Y ≤ w



= P X

Y ≤ w, Y < 0



+ P X

Y ≤ w, Y > 0

 .

(15)

Ejemplo 1.17. Regresemos al problema de la compa˜n´ıa aseguradora. Supongamos que τM, τR y τI son variables aleatorias independientes exponenciales con par´amtro λM, λR y λI respectivamente.

¿Cu´al es la distribuci´on de τ = min{τM, τR, τI}?

Soluci´on. La funci´on de distribuci´on de τ est´a dada por Fτ(t) =P [τ ≤ t]

=P [min{τM, τR, τI} ≤ t] .

2 Transformaciones de vectores aleatorios continuos. Se- gundo enfoque.

En esta secci´on trabajaremos un tema sumamente ´util para conocer la distribuci´on de vectores aleatorios. El siguiente teorema est´a basado en el Teorema de Cambio de Variable del C´alculo Diferencial.

Teorema 2.1 (Transformaci´on de vectores aleatorios.). Sea X = (X1, . . . , Xn) un vector aleatorio continuo con funci´on de densidad conjunta fX. Sea T : Rn → Rn una transformaci´on continua- mente diferenciable e invertible. Definimos el vector Y = (Y1, . . . , Yn) como

Y = T (X1, . . . , Xn) = (Y1(X1, . . . , Xn), . . . , Yn(X1, . . . , Xn)).

Entonces la funci´on de densidad conjunta del vector Y est´a dada por

fY(y1, . . . , yn) =fX(x1(y1, . . . , yn), . . . , xn(y1, . . . , yn))| det DT |−1

=fX(x1(y1, . . . , yn), . . . , xn(y1, . . . , yn))| det D(T−1)|, donde DT y D(T−1) representan la matrices de derivadas de las tranformaciones.

Veamos el siguiente ejemplo.

Ejemplo 2.1. Sean X y Y variables aleatorias continuas con funci´on de densidad conjunta f (x, y).

Definamos la transformaci´on

W = X + Y Z = X − Y.

Calcular la densidad conjunta de (W, Z).

Soluci´on. Lo primero que nos dice el Teorema de cambio de variable es que necesitamos la trans- formaci´on inversa, es decir

X = W + Z 2 Y = W − Z

2 .

(16)

El determinante de la transformaci´on es 12 de donde obtenemos que si g es la densidad conjunta de W y Z, entonces

g(w, z) = 1

2f w + z

2 ,w − z 2

 .

Ejemplo 2.2. Consideremos la transformaci´on anterior en el caso particular de que las variables sean N (0, 1) independientes. En ese caso tenemos que

f (x, y) = 1

2πe12(x2+y2).

Utilizando el c´alculo del inciso anterior tenemos para W = X + Y y Z = X − Y que g(w, z) = 1

4πe14(w2+z2).

De este funci´on podemos obtener la densidad de W = X + Y . Tenemos que W ∼ N (0, 2)

Observaci´on 2.1. El ejemplo pasado nos muestra una t´ecnica m´as para calcular la densidad de una variable aleatoria. Es decir, si tenemos una transformaci´on h : R2 → R, una pareja de variables aleatorias (X, Y ) y definimos

Z = h(X, Y ), podemos hacer lo siguiente para obtener la densidad de Z.

• Completamos la transformaci´on, por ejemplo W = X

Z = h(X, Y ).

• Usando el cambio de variable calculamos, a partir de la densidad conjunta de (X, Y ), la densidad conjunta de (W, Z).

• De la densidad conjunta de (W, Z) sacamos la marginal de Z.

Ejemplo 2.3. Sean X y Y variables aleatorias independientes tales que X ∼ Γ(α, λ) y Y ∼ Γ(β, λ).

Consideremos la siguiente transformaci´on

W =X + Y

Z = X

X + Y. Calcular la densidad conjunta de (W, Z).

(17)

2.1 Estad´ısticos de orden.

Sean X1, . . . , Xn variables aleatorias independientes e id´enticamente distribuidas. En estad´ıstica se le conoce a esto como una muestra aleatoria. Ciertos aspectos relacionados con las variables ordenadas son com´unmente requeridos en la estad´ıstica: el m´aximo, el m´ınimo, la mediana, el rango, el rango medio, entre otros. Es por esto que trabajaremos las siguientes funciones.

Definici´on 2.1 (Estad´ısticos de orden.). Sean X1, . . . , Xn variables aleatorias independientes e id´enticamente distribuidas absolutamente continuas. Definimos los estad´ısticos de orden como

X(1) = la m´as peque˜na de X1, . . . , Xn

X(2) = la segunda m´as peque˜na de X1, . . . , Xn ... ...

X(n)= la m´as grande de X1, . . . , Xn. Observaci´on 2.2. Los estad´ısiticos definidos arriba est´an dadas por

M´aximo= X(n) M´ınimo= X(1) Mediana= X(n/2)

Rango= X(n)− X(1) Rango medio= 12(X(n)+ X(1)).

Para trabajar con ellos se requiere calcular su funci´on de densidad cojunta. A pesar de que est´an definidos como una transformaci´on de las variables aleatorias surge un problema y es que la transformaci´on no es invertible. El Teorema de Cambio de Variable no puede usarse tal como est´a escrito y se requiere de realizar ciertas consideraciones. De todas formas se puede probar el siguiente resultado.

Proposici´on 2.1. Sean X1, . . . , Xnvariables aleatorias independientes e id´enticamente distribuidas cada una de ellas con funci´on de densidad f y funci´on de distribuci´on F . Sean X(1) < · · · < X(n) sus respectivos estad´ısticos de orden.

1. Funci´on de densidad conjunta. Denotemos como g la funci´on de densidad conjunta de X(1) < · · · < X(n). Entonces

g(y1, . . . , yn) = n!f (y1)f (y2) · · · f (yn)1y1<y2<···<yn. 2. Densidades marginales. Para k = 1, . . . , n tenemos que

fX(k)(x) = n!

(n − k)!(k − 1)!F (x)k−1(1 − F (x))n−kf (x).

Para i, j ∈ {1, . . . , n} con i < j fX(i),X(j)(x, y) = n!

(i − 1)!(j − i − 1)!(n − j)!F (x)i−1(F (y)−F (x))j−i−1(1−F (y))n−jf (x)f (y)1x<y. Veamos el siguiente ejemplo

(18)

Ejemplo 2.4 (Distribuci´on del Rango.). Sean X1, . . . , Xn variables aleatorias independientes e id´enticamente distribuidas y sean X(1) < · · · < X(n) sus respectivos estad´ısticos de orden. Defini- mos el rango como R = X(n)− X(1). Calcular la distribuci´on del rango.

Soluci´on. Para calcular la densidad del rango necesitamos la densidad conjunta de (X(1), X(n)).

Tenemos que

fX(1),X(n)(x, y) = n(n − 1)(F (y) − F (x))n−2f (x)f (y)1x<y. Por lo tanto para r > 0

P [R ≤ r] =PX(n)− X(1) ≤ r

= Z Z

y−x≤r

fX(1),X(n)(x, y)dxdy.

Con este c´alculo obtenemos que

P [R ≤ r] = n Z

−∞

(F (x + r) − F (x))n−1f (x)dx.

El caso particular que las variables aleatorias sean uniformes (0,1) obtenemos que P [R ≤ r] = n(1 − r)rn−1+ rn,

y por lo tanto, en ese caso

fR(r) = n(n − 1)rn−2(1 − r)1(0,1)(r) .

3 Esperanza y sus propiedades.

En muchos problemas es imposible trabajar con toda la informaci´on desagregada. Por ejemplo, el pago de la prima del seguro se calcula a partir de considerar un grupo grande de individuos con caracter´ısticas similares. A cada individuo de ese grupo se le cobra la misma cantidad. Esto tiene como principio el evitar incurrir en altos costos relacionados con seguimientos detallados a cada individuo de la poblaci´on. En otras palabras, lo que se pretende es resumir toda la informaci´on disponible en un s´olo n´umero y que ese n´umero prediga el resultado de la “mejor” manera posible.

Es en este contexto que surge el concepto de esperanza, el cual es una generalizaci´on del concepto de promedio.

En esta secci´on revisaremos algunos resultados b´asicos de la esperanza relacionada con funciones de vectores aleatorios. Adem´as daremos algunos ejemplos que mostrar´an c´omo es que bajo este esquema multivariado, muchos resultados previamente conocidos simplifican sus c´alculos. Comen- zaremos dando el siguiente Teorema, que nos servir´a como definici´on del concepto de esperanza.

Teorema 3.1. Sea X = (X1, . . . , Xn) un vector aleatorio y sea g : Rn → R tal que Z = g(X1, . . . , Xn) es una variable aleatoria cuya esperanza existe.

(19)

1. Si X es un vector aleatorio discreto entonces E [g(X1, . . . , Xn)] = X

x1,...,xn

g(x1, . . . , xn)fX(x1, . . . , xn).

2. Si X es un vector aleatorio absolutamente continuo entonces E [g(X1, . . . , Xn)] =

Z

−∞

· · · Z

−∞

g(x1, . . . , xn)fX(x1, . . . , xn)dx1. . . dxn.

Observaci´on 3.1. Algunos autores presentan el resultado anterior como una definici´on. Bajo el esquema que estamos planteando, la esperanza de la variable aleatoria Z = g(X1, . . . , Xn) se calcula, por ejemplo en el caso continuo, como

E [g(X1, . . . , Xn)] = E [Z] = Z

−∞

zfZ(z)dz.

El resultado anterior es una generalizaci´on del Teorema del estad´ısitico inconciente visto para una variable aleatoria.

La siguiente proposici´on contiene dos de las principales herramientas utilizadas para trabajar con la esperanza en el caso multivariado.

Proposici´on 3.1. 1. Sea X = (X1, . . . , Xn) un vector aleatorio tal que E [Xk] existe para k = 1, . . . , n. Sean ak ∈ R, k = 1, . . . , n constantes. Entonces

E

" n X

k=1

akXk

#

=

n

X

k=1

akE [Xk] .

2. Sean X1, . . . , Xn variables aleatorias independientes y sean gk : R → R, k = 1, . . . , n fun- ciones tales que E [gk(Xk)] existe para k = 1, . . . , n. Entonces

E

" n Y

k=1

gk(Xk)

#

=

n

Y

k=1

E [gk(Xk)] .

Observaci´on 3.2. 1. La idea detr´as de la prueba est´a en la linealidad de la suma o la integral.

Por ejemplo para variables aleatorias continuas

E

" n X

k=1

akXk

#

= Z

−∞

· · · Z

−∞

n

X

k=1

akxkfX(x1, . . . , xn)dx1. . . dxn

=

n

X

k=1

ak Z

−∞

· · · Z

−∞

xkfX(x1, . . . , xn)dx1. . . dxn

=

n

X

k=1

akE [Xk]

(20)

2. La clave de esta prueba est´a en que la densidad conjunta se puede factorizar como el producto de las marginales, por lo tanto

E

" n Y

k=1

gk(Xk)

#

= Z

−∞

· · · Z

−∞

g1(x1) · · · gn(xn)fX1(x1) · · · fXn(xn)dx1. . . dxn

= Z

−∞

g1(x1)fX1(x1)dx1· · · Z

−∞

gn(xn)fXn(xn)dxn

=

n

Y

k=1

E [gk(Xk)] . Veamos algunos ejemplos.

Ejemplo 3.1 (Esperanza de una binomial.). Sea X ∼ Bin(n, p). Queremos calcular E [X]

Soluci´on. Una opci´on para resolver este problema es considerar la siguiente suma

E [X] =

n

X

k=0

kn k



pk(1 − p)n−k.

La variable aleatoria binomial tiene agregada la informaci´on de los ´exitos ocurridos en los primeros n ensayos. Podemos desagregarla de la siguiente forma

X =

n

X

k=1

Xk

donde Xk vale 1 si ocurri´o un ´exito en el ensayo k y cero si no. Por lo tanto

E [X] = E

" n X

k=1

Xk

#

= np.

Ejemplo 3.2. Se tiene un ´album con N estampas. A cada compra se obtiene una estampa de manera uniforme sobre todas, es decir cada una de ellas con probabilidad N1, independientemente de las dem´as compras. Consideremos las siguientes variables aleatorias

• X(m) =n´umero de estampas distintas despu´es de haber realizado la compra n´umero m.

• Y =n´umero de estampas compradas hasta llenar el ´album.

Calcular EX(m) y E [Y ].

(21)

3.1 Varianza, covarianza y coeficiente de correlaci´ on.

Definici´on 3.1 (Covarianza y coeficiente de correlaci´on.). Sean X y Y variables aleatorias con segundo momento finito

1. La covarianza entre X y Y la definimos como

Cov(X, Y ) := E [(X − E [X])(Y − E [Y ])] . 2. El coeficiente de correlaci´on de X y Y est´a definido como

ρ(X, Y ) := Cov(X, Y ) pVar(X)Var(Y ). Observaci´on 3.3. Utilizando la linealidad de la esperanza se tiene que

Cov(X, Y ) = E [XY ] − E [X] E [Y ] .

El siguiente ejemplo nos ilustra el porqu´e de la gran popularidad del coeficiente de correlaci´on dentro de la estad´ıstica.

Ejemplo 3.3. Sean (X, Y ) variables aleatorias normales bivariadas, es decir, f (x, y) = 1

2πσxσyp1 − ρ2 exp



− 1

2(1 − ρ2)

 (x − µx)2

σx2 + (y − µy)2

σ2y − 2ρ(x − µx)(y − µy) σxσy



. Se puede probar que en este caso

ρ(X, Y ) = ρ.

Si recordamos, en el ejemplo 1.11 vimos que las variables aleatorias normales bivariadas eran independientes si y s´olo si ρ = 0. Esto y la dominaci´on del mundo Gaussiano fue lo que populariz´o al coeficiente de correlaci´on como una medida de dependencia.

Se tienen las siguientes propiedades para la covarianza Proposici´on 3.2. 1. Sean X y Y independientes2, entonces

Cov(X, Y ) = 0.

2.

Cov(X, Y ) = Cov(Y, X).

3.

Cov(X, X) = Var(X).

4. Si a, b ∈ R

Cov(aX, bY ) = abCov(X, Y ).

2El rec´ıproco en general no es cierto, es decir, si Cov(X, Y )=0 no necesariamente se tiene que X y Y sean independientes.

(22)

5.

Cov

n

X

j=1

Xj,

m

X

k=1

Yk

!

=

n

X

j=1 m

X

k=1

Cov(Xj, Yk).

6.

Var

n

X

k=1

Xk

!

=

n

X

k=1

Var(Xk) +X

i6=j

Cov(Xi, Xj).

7. Si X1, . . . , Xn son variables aleatorias independientes, entonces

Var

n

X

k=1

Xk

!

=

n

X

k=1

Var(Xk).

Ejemplo 3.4 (Correlaci´on y normales bivariadas.). Sean (X, Y ) variables aleatorias con densidad normal bivariada est´andar

f (x, y) = 1

2πp1 − ρ2exp



− 1

2(1 − ρ2)(x2+ y2− 2ρxy)

 . Calcular el coeficiente de correlaci´on.

Soluci´on. Sabemos que X y Y se distribuyen N(0,1). Entonces tenemos que ρ(X, Y ) = Cov(X, Y )

σXσY = E [XY ] . Veamos el c´alculo

E [XY ] = Z

−∞

Z

−∞

xy

2πp1 − ρ2exp



− 1

2(1 − ρ2)(x2+ y2− 2ρxy)

 dxdy

= Z

−∞

√y

2πexp



− y2

2(1 − ρ2)+ ρ2y2 2(1 − ρ2)

 Z

−∞

x

p2π(1 − ρ2)exp



−(x − ρy)2 2(1 − ρ2)

 dxdy

=ρ Z

−∞

√y

2πey22 dy

=ρ.

Por lo tanto, se tiene que

ρ(X, Y ) = ρ.

Ejemplo 3.5 (Correlaci´on cero no implica independencia.). Sea X ∼ N (0, 1) y definimos Y = X2. Entonces tenemos que

Cov(X, Y ) = 0

sin embargo las variables claramente son dependientes entre s´ı.

(23)

3.2 Funci´ on generadora de momentos.

En esta secci´on trabajaremos con la funci´on generadora de momentos. Esta funci´on tiene dos caracter´ısticas importantes: la primera es que a partir de ella se pueden calcular los momentos de la variables aleatorias (i.e. E [Xn]); la segunda es que caracteriza la distribuci´on de las variables aleatorias, es decir, que si se conoce la generadora de momentos se conoce la distribuci´on y vicev- ersa. Este ´ultimo punto es especialmente ´util para trabajar con la suma de variables aleatorias independientes. Comenzaremos definiendo los momentos de las variables aleatorias.

Definici´on 3.2 (Momentos de variables aleatorias.). Sea X una variable aleatoria y sea n ∈ N.

Si E [|X|n] < ∞ decimos que X tiene momento finito de orden n defindo como E [Xn].

Definici´on 3.3 (Funci´on generadora de momentos.). Sea X variable aleatoria. La funci´on gener- adora de momentos de X, MX(t) se define como

MX(t) := EetX , siempre que ´esta sea finita para |t| < h para alg´un h > 0.

Observaci´on 3.4. ¿Porqu´e se llama funci´on generadora de momentos? La idea intuitiva es la siguiente:

d

dtEetX =E XetX ...

dn

dtnEetX =E XnetX .

(1)

Entonces valuando en cero tenemos en general que dn

dtnMX(t) t=0

= EXnetX

t=0 = E [Xn] . Es debido a esta propiedad que se llama funci´on generadora de momentos.

El siguiente resultado valida la observaci´on anterior

Teorema 3.2. Sea X variable aleatoria tal que su generadora de momentos MX(t) existe para toda |t| < h para alg´un h > 0. Entonces

1. E [|X|n] < ∞ para toda n ∈ N (i.e. X tiene momentos finitos de todos los ´ordenes).

2.

E [Xn] = dn

dtnMX(t) t=0

, para toda n ∈ N.

3.

MX(t) =

X

n=0

tn

n!E [Xn] , para toda |t| < h.

(24)

Veamos un ejemplo

Ejemplo 3.6 (Generadora de momentos de una binomial.). Sea X ∼ Bin(n, p). La funci´on gener- adora de momentos de X est´a dada por

MX(t) = (pet+ 1 − p)n. Para esto veamos que

MX(t) =EetX

=

n

X

k=0

etkn k



pk(1 − p)n−k

=

n

X

k=0

n k



(pet)k(1 − p)n−k

=(pet+ 1 − p)n Ahora

M0(t) = n(pet+ 1 − p)n−1pet, de donde valuando en cero tenemos

E [X] = M0(0) = np.

3.2.1 Suma de variables aleatorias independientes. Tercer enfoque.

Al principio de esta secci´on mencionamos que la funci´on generadora de momentos tiene dos carac- ter´ısticas importantes. La primera es la mencionada en estos ´ultimos resultados. Para la segunda enunciemos el siguiente Teorema.

Teorema 3.3. Sean X y Y variables aleatorias y sean MX y MY sus respectivas funciones gen- eradoras de momentos. Entonces, se tiene que

MX(t) = MY(t), para toda |t| < h, para alg´un h > 0 si y s´olo si

FX(x) = FY(x), para toda x ∈ R.

Lo que este resultado nos dice es que tanto la funci´on generadora de momentos como la funci´on de distribuci´on caracterizan la distribuci´on de las variables aleatorias. Veamos el siguiente ejemplo.

Ejemplo 3.7. Sean X1, . . . , Xm variables aleatorias inependientes tal que Xi ∼ Bin(ni, p), para i = 1, . . . , m. Sea

X = X1+ · · · + Xm.

Usando el m´etodo de la funci´on generadora de momentos se tiene que X ∼ Bin(n1+ · · · + nm, p).

(25)

Soluci´on. La funci´on generadora de momentos de X est´a dada por EetX =E et(X1+···+Xm)

=EetX1· · · etXm

=EetX1 · · · E etXm

=MX1(t) · · · MXm(t),

ya que las variables aleatorias son independientes (utilizamos la Proposici´on 3.1). Sabemos que MXi(t) = (pet+ 1 − p)ni, por lo tanto

MX(t) = (pet+ 1 − p)n1+···+nm, de donde concluimos que X ∼ Bin(n1 + · · · + nm, p).

Ejemplo 3.8 (Generadora de momentos de una gamma.). Sea X ∼ Γ(α, λ). La funci´on generadora de momentos est´a dada por

MX(t) =

 λ λ − t

α

para t < λ.

Veamos la siguiente integral

MX(t) =EetX

= Z

0

etxe−λxλαxα−1 Γ(α) dx

= λα (λ − t)α

Z 0

e−(λ−t)x(λ − t)αxα−1

Γ(α) dx

= λα (λ − t)α si λ − t > 0.

Ejemplo 3.9 (Suma de variables aleatorias gamma.). Sean X1, . . . , Xn variables aleatorias inde- pendientes tales que Xi ∼ Γ(αi, λ) para i = 1, . . . , n. Sea X = X1+ · · · + Xn. Entonces

X ∼ Γ(α1+ · · · + αn, λ).

En particular, si αi = 1 para i = 1, . . . , n, es decir, si tenemos X1, . . . , Xn v.a.i.i.d. esponenciales de par´ametro λ, entonces se tiene que

X ∼ Γ(n, λ).

Soluci´on. Mediante un razonamiento similar tenemos que MX(t) =

n

Y

i=1

MXi(t).

Referencias

Documento similar

Tras establecer un programa de trabajo (en el que se fijaban pre- visiones para las reuniones que se pretendían celebrar los posteriores 10 de julio —actual papel de los

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones

En el capítulo de desventajas o posibles inconvenientes que ofrece la forma del Organismo autónomo figura la rigidez de su régimen jurídico, absorbentemente de Derecho público por

i) Por la condici´ on de simetr´ıa i) del teorema 1, las variables aleatorias X − α y α − X tienen la misma distribuci´ on y, por tanto, sus momentos, si existen, coinciden.. y

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

Este parón o bloqueo de las ventas españolas al resto de la Comunidad contrasta sin em- bargo con la evolución interior de ese mismo mercado en cuan- to a la demanda de hortalizas.

La situación consiste en comparar cual de dos sucesos tiene mayor probabilidad, sin llegar a tener que calcular la probabilidad de cada uno de ellos, en el caso en que sea posible

Fuente de emisión secundaria que afecta a la estación: Combustión en sector residencial y comercial Distancia a la primera vía de tráfico: 3 metros (15 m de ancho)..