• No se han encontrado resultados

09 02 DISTRIB PROB CONT NORMAL

N/A
N/A
Protected

Academic year: 2018

Share "09 02 DISTRIB PROB CONT NORMAL"

Copied!
11
0
0

Texto completo

(1)

DISTRIBUCIONES DE PROBABILIDAD CONTINUA.

DISTRIBUCIÓN NORMAL

VARIABLE ALEATORIA CONTINUA

Una variable aleatoria (cuantitativa) se dice continua si puede tomar, al menos de forma teórica, todos los valores de un intervalo.

Para variables aleatorias discretas podíamos asignar a cada valor del recorrido de la variable un número real, que era la probabilidad de que la variable tomase dicho valor. Definíamos así la función de probabilidad.

Para variables aleatorias continuas no se puede proceder de esta manera al ser infinitos los valores que puede tomar la variable en un intervalo. La probabilidad es siempre positiva y está acotada, por lo que no podríamos distribuirla entre un conjunto infinito de valores.

Se considera por tanto que la probabilidad de que una variable continua tome un valor concreto es, en general, cero.

Sin embargo, sí que podremos trabajar con la probabilidad de que la variable aleatoria tome un valor dentro de un intervalo.

Función de densidad

Las distribuciones de probabilidad de variable aletoria continua son idealizaciones teóricas de las distribuciones estadísticas de variable discreta en cuanto a frecuencia relativa. Consideremos un histograma, como el de la figura, de una variable estadística.

Cuanto mayor sea el número de intervalos, estos se harán más estrechos y la aproximación a la gráfica de la derecha sería mejor. Para una muestra infinitamente grande los intervalos se harían infinitamente estrechos y el histograma de la izquierda se convertiría en la gráfica de la función f de la derecha.

Según la definición experimental de probabilidad, la probabilidad de un suceso es el número al que tienden sus frecuencias relativas cuando se aumenta el número de realizaciones del experimento.

Todo esto nos lleva a definir la función de probabilidad para una variable aleatoria continua mediante una función que llamamos función de densidad f que cumple las siguientes condiciones:

f(x) > 0 para cualquier valor de la variable aleatoria en su campo de definición. Estará siempre por encima del eje de abscisas

El área encerrada por la curva y el eje de abscisas debe ser la unidad. Se dice que la función está normalizada.

Debido a estas propiedades, la probabilidad de que la variable aleatoria tome un valor comprendido en cualquier intervalo [a, b] interior a su campo de existencia, es el área bajo la curva en dicho intervalo.

La probabilidad de un suceso puntual es cero: P(X = a) = 0.

(2)

Para hallar probabilidades a través de la función de densidad hace falta conocer el área encerrada bajo la curva y esto se consigue, en general, a través del cálculo integral, salvo que la curva sea la correspondiente a una función constante o lineal, pues en estos casos determina rectángulos o triángulos respectivamente con el eje de abscisas.

Los parámetros que definen este tipo de distribuciones son su esperanza o media, μ, y su desviación típica, σ, cuyos valores se determinan mediante el cálculo integral.

Función de distribución

Se llama función de distribución de una variable aleatoria continua X a la función F que asigna a cada númro real x la probabilidad de que X tome un valor menor o igual que x

F(x) = P (X ≤ x)

Esta probabilidad será el área bajo la curva y el intervalo de la recta real ( –∞, x).

DISTRIBUCIÓN NORMAL

Entre las muchas distribuciones de probabilidad para variable aleatoria continua cabe destacar la distribución normal.

Esta distribución permite describir probabilísticamente fenómenos estadísticos muy diversos donde los valores más frecuentes se agrupan en torno a uno central y los valores extremos son escasos:

- Caracteres morfológicos de individuos ( personas, animales, plantas) de una misma raza, como tallas, pesos, envergaduras, etc.

- Caracteres fisiológicos, como el efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.

- Caracteres sociológicos, como el consumo de ciertos productos por individuos de un mismo grupo humano.

- Caracteres psicológicos, como el cociente intelectual o el grado de adaptación a un medio. - Caracteres físicos, como la resistencia a la rotura de ciertas piezas. . .

Función de densidad

Una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ, lo cual simbolizamos por X ~ N( μ, σ) , si su función de densidad es:

La esperanza y la desviación típica de la variable aleatoria X coinciden respectivamente con los parámetros μ y σ.

La gráfica de la función de densidad que caracteriza la distribución normal tiene la forma de la figura y se conoce como campana de Gauss.

Las características de esta función de densidad son:

El dominio es todo . Es continua y positiva para todo x.

El área bajo la curva es la unidad

• El recorrido es

0,

1

2

s

p

æ

ù

ç

ú

è

û

• Es simétrica respecto a la recta x = μ

• Es estrictamente creciente en el intervalo (–∞, μ) y estrictamente decreciente en el intervalo (μ, +∞)

• Alcanza su valor máximo en el el punto

,

1

2

m

s

p

æ

ö

ç

÷

è

ø

• Posee dos puntos de inflexión cuyas abscisas son x = μ ± σ

( )

( )

2 2 2

1

·

2

x

f x

e

x

m s

s

p

(3)

• El eje de abscisas es asíntota horizontal por ambos lados.

Función de distribución

La función de distribución F(x) = P (X ≤ x) vendría dada por el área bajo la curva y el intervalo de la recta real ( –∞, x). Como ya dijimos esto implica cálculo integral de la función densidad.

Para facilitar el trabajo existen tablas que dan directamente el valor de estas áreas, es decir, de probabilidades, para el caso de μ = 0 y σ = 1. Esta distribución N(0,1) se conoce como distribución normal tipificada o estándard.

En una variable normal cualquiera N(μ , σ) se verifica que:

- El intervalo (μ – σ , μ + σ) determina el 68,26% del área bajo la curva - El intervalo (μ – 2σ , μ + 2σ) determina el 95,44% del área bajo la curva - El intervalo (μ – 3σ , μ + 3σ) determina el 99,74% del área bajo la curva

Cálculo de probabilidades en una distribución normal tipicada: N(0,1)

Veamos con unos ejemplos como se puede hacer el cálculo de probabilidades en este tipo de distribución con la ayuda de las tablas:

Si Z es una variable aleatoria con distribución N(0,1) hallar:

a) P(Z ≤ z

0

)

.

Ejemplo: P(Z ≤ 1,48)

Aparece directamente en la tabla en la intersección de la fila donde aparece la cifra 1,4 y la columna 0,08.

Es decir:

P(X ≤ 1,48) = 0,9306

b) P(Z ≥ z

0

)

Ejemplo: P(Z ≥ 0,63)

(4)

c) P(Z ≤ – z

0

)

Ejemplo: P( Z ≤ –2,43)

P( Z ≤ –2,43) = P( Z ≥ +2,43) = 1 – P(Z < 2,43) = 1 – 0,9925 = 0,0075

d) P(Z ≥ – z

0

)

Ejemplo: P(Z ≥ –1,74)

P(Z ≥ –1,74) = P(Z ≤ 1,74) = 0,9591

e) P( z

0

≤ Z ≤ z

1

)

Ejemplo: P( 0,45 ≤ Z ≤ 1,97)

P( 0,45 ≤ Z ≤ 1,97) = P(Z ≤ 1,97) – P(Z ≤ 0,45) = 0,9756 – 0,6736 = 0,3020

f) P( – z

0

≤ Z ≤ – z

1

)

Ejemplo: P( – 1,38 ≤ Z ≤ – 0,12 )

(5)

g) P( – z

0

≤ Z ≤ z

1

)

Ejemplo: P( – 1,5 ≤ Z ≤ 0,75)

P( – 1,5 ≤ Z ≤ 0,75) = P(Z ≤ 0,75) – P(Z ≤ –1,5) = = P(Z ≤ 0,75) – P(Z ≥ 1,5) = = P(Z ≤ 0,75) – [ 1 – P(Z < 1,5) ] =

= 0,7734 – 1 + 0,9332 = 0,7066

Tipificación de una variable aleatoria normal

No se pueden construir tablas para todos los tipos posibles de distribuciones N(μ, σ) ya que μ y σ pueden tomas infinitos valores, es más aconsejable transformar la variable X que sigue una distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1), a esta transformación se le denomina tipificación de la variable.

La tipificación de la variable lleva dos conceptos:

Centrar, es decir, hacer la media nula (μ =0)

Reducir, es decir, hacer la desviación típica igual a uno (σ = 1)

Estos dos pasos se consiguen simultáneamente haciendo el siguiente cambio de variable:

Si X es una variable aleatoria que sigue una distribución normal N(μ, σ) entonces la variable aleatoria

X

Z

m

s

-=

sigue una distribución normal tipificada N(0, 1).

Ejemplo:

Sea X una variable aleatoria del tipo N(12, 3). Hallar las siguientes probablidades: a) P(X ≤ 14)

X

Z

m

s

-=

(

)

(

)

14 12

0,67

;

11

0,67

0,7486

3

X

Z

m

P X

P Z

s

-

(6)

b) P(9,3 ≤ X ≤ 13,56)

c) P(X ≥ 10,88)

Ejercicio: La talla media de 200 alumnos es 165cm con una desviación típica de 10cm. Si las estaturas se distribuyen normalmente hallar: a) La probabilidad de que un alumno elegido al azar mida más de 180cm ; b) ¿cuantos alumnos puede esperarse que midan más de 180cm?

a) Nos dicen que la variable aleatoria talla de los alumnos sigue una distribución: N(165, 10).

b) Valor esperado = 200 · 0,0668 = 13,36. Por tanto: valor esperado ≤ 13 alumnos

Ejercicio: La edad de un grupo de personas sigue una distribución N(35,10). Calcula la probabilidad de que una persona de ese grupo, elegida al azar, tenga:

a) Más de 20 años ; b) Entre 23 y 41 años; c) Di entre qué edades estará comprendido el 50 % central de la distribución.

a)

b)

c) Planteamos: P(35 – a < X < 35 + a) = 0,5. Ahora tipificamos:

(

)

(

)

(

)

(

)

(

)

(

)

(

)

(

)

1 2

1 2

9,3 12

13,56 12

0,9

0,52

3

3

9,3

13,56

0,9

0,52

0,52

0,9

0,52

0,9

0,52

1

0,9

0,6985 1 0,8159 0,5144

X

X

Z

Z

P

X

P

Z

P Z

P Z

P Z

P Z

P Z

P Z

m

m

s

s

-

-

-

-=

=

= -

=

=

=

£

£

=

-

£ £

=

£

-

£ -

=

£

-

³

=

£

- -

é

ë

<

ù

û

=

- +

=

(

)

(

)

(

)

10,88 12

0,37

3

10,88

0,37

0,37

0,6443

X

Z

P X

P Z

P Z

m

s

-

-=

=

=

=

³ -

=

£

=

(

180

)

180 165

1,5

(

1,5

)

1

(

1,5

)

1 0,9332 0,0668

10

P X

>

=

í

ì

Z

=

-

=

ü

ý

=

P Z

>

= -

P Z

£

= -

=

î

þ

20 35

(

20)

1,5

(

1,5)

(

1,5) 0,9332

10

P X

>

=

í

ì

Z

=

-

= -

ü

ý

=

P Z

> -

=

P Z

<

=

î

þ

[

]

1 2

23 35

1,2

10

(23

41)

( 1,2

0,6)

(

0,6)

(

1,2)

41 35

0,6

10

(

0,6)

(

1,2)

(

0,6)

1

(

1,2)

0,7257 1 0,8849 0,6106

Z

P

X

P

Z

P Z

P Z

Z

P Z

P Z

P Z

P Z

=

= -

ü

ï

ï

ï

ï

<

<

=

í

ý

=

-

< <

=

<

-

< -

=

=

=

ï

ï

ï

î

þ

=

<

-

>

=

<

- -

<

=

- +

=

(

)

1 2

35

35

10

10

35

35

10

10

0,5

35

35

10

10

10

10

1

1

10

10

10

10

10

a

a

Z

X

Z

a

a

Z

a

a

a

a

P

a X

a

P

Z

P Z

P Z

a

a

a

a

a

P Z

P Z

P Z

P Z

P Z

m

s

=

= -

ü

ï

ï

-

ï

ï

=

Þ í

ý

+

=

=

ï

ï

ï

î

þ

æ

ö

æ

ö

æ

ö

=

- <

<

+

=

ç

-

< <

÷

=

ç

<

÷

-

ç

< -

÷

=

è

ø

è

ø

è

ø

é

ù

æ

ö

æ

ö

æ

ö

æ

ö

æ

ö

(7)

Aproximación de la distribución binomial mediante la normal

Se puede demostrar (Teorema de Moivre-Laplace) que una distribución B(n,p) se puede aproximar por una distribución normal

N np

(

{ {

,

npq

)

m s

cuando n tiende a infinito.

Se puede considerar una buena aproximación si:

np ≥ 5

nq ≥ 5

Hay que tener en cuenta que la aproximación de una distribución binomial por una distribución normal implica el paso de una variable aleatoria discreta a una variable aleatoria continua. Esto hace necesario que al calcular probabilidades tengamos que hacer una corrección por continuidad.

Corrección de Yates

Si X es una variable aleatoria B(n,p) y X' es la variable aleatoria

N np

(

,

npq

)

, si nos piden P(X = a) no podemos calcular directamente P(X' = a) puesto que la probabilidad en un punto para variable aleatoria continua dijimos que era cero. Lo que hacemos es aproximar por la probabilidad en un intervalo de amplitud unidad centrado en a:

P(X = k) ≈ P(a – 0'5 ≤ X' ≤ a + 0'5) Esta idea correctora se traduce en:

Ejercicio: Hallar por aproximación a una distribución normal la probabilidad de que al lanzar 36 veces un dado se obtenga:

a) Siete veces un 6

b) A lo sumo tres veces un 6.

Primero comprobaremos si la aproximación será buena. Tenemos una binomial B(n,p) = B(36, 1/6): np = 36·1/6 = 6 > 5 ; nq = 36 ·(5/6) = 30 > 5.

Podemos pues aproximar la variable aleatoria

X

B

æ

ç

36,

1

6

ö

÷

è

ø

:

por la variable aleatoria

(

)

1

1 5

(

)

'

,

36· , 36· ·

6 , 5

6

6 6

X

N np npq

=

N

æ

ç

ç

ö

÷

÷

=

N

è

ø

:

Tenemos: 0,5 2·

1

0,75

10

10

Mirando en las tablas el valor más próximo:

0,67

6,7 7

10

Por tanto el 50% central estará comprendido entre 28 (35 7) y 42 (35+7) año

a

a

P Z

P Z

a

a

æ

ö

æ

ö

=

ç

<

÷

- Þ

ç

<

÷

=

è

ø

è

ø

=

Þ =

-;

(8)

a) Introducimos la corrección de Yates:

P(X = 7) = P(7 – 0'5 ≤ X' ≤ 7 +0'5) = P(6'5 ≤ X' ≤ 7'5) = P(X' ≤ 7'5) – P(X' ≤ 6'5) Ahora tenemos que tipificar la varible X':

P(X' ≤ 7'5) – P(X' ≤ 6'5) = P(Z ≤ 0,67) – P(Z ≤ 0,22) = 0,7486 – 0,5871 = 0,1615

Si hallamos directamente la probabilidad de 7 éxitos en una binomial B(36, 1/6) se obtiene: P(X = 7) =0,1507. La desviación de la aproximación es del 1,08%.

b) P(X ≤ 3) = P (X' ≤ 3+ 0'5) = P(X' ≤ 3,5) Tipificamos la variable:

P(X' ≤ 3,5) = P(Z ≤ –1,12) = P(Z ≥ 1,12) = 1 – P(Z ≤ 1,12) = 1 – 0,8686 = 0,1314 El cálculo directo a través de la binomial da un valor de: P(X ≤ 3) = 0,1277. La desviación de la aproximación es del 0,37%.

Ejercicio: Se sabe que el 12 % de las personas que reservan plaza en un hotel no aparecen. Se han aceptado 150 reservas en un hotel que dispone de 140 habitaciones. Halla la probabilidad de que algunos clilentes que han hecho la reserva se queden sin habitación, usando la tabla de distribución normal.

Consideramos la variable X, que indica el número de personas que aparecen. X seguirá una distribución binomial de parámetros n = 150 y p = 0,88:

X ~ B(150, 0'88)

Como np = 150·0,88 = 132 >5 y nq = 150 ·0,12 = 18 > 5 , podemos aproximar la binomial X ~ B(150, 0'88) por la varible aleatoria de distribución normal:

Nos preguntan por P(X > 140). Introducimos la corrección de Yates: P(X > 140) = P(X' ≥ 140 + 0,5) = P(X' ≥ 140,5)

tipificamos la variable:

P(X' ≥ 140,5) = P(Z ≥ 2,14) = 1 – P(Z < 2,14) = 1 – 0,9838 = 0,0162 1

2

6,5 6

0,22

'

5

7,5 6

0,67

5

Z

X

Z

Z

m

s

=

=

ï

-

ï

=

Þ í

=

=

ïî

'

3,5 6

1,12

5

X

Z

m

Z

s

-

-=

Þ =

=

-(

)

(

)

'

,

132,3'98

X

:

N np npq

=

N

'

140,5 132

2,14

3,98

X

Z

m

Z

s

-

(9)
(10)

RESUMEN

BINOMIAL B(n,p) NORMAL N(μ, σ)

Variable

Parámetros

n = número de pruebas

p = probabilidad del suceso éxito

μ = media aritmética

σ = desviación típica

Función de probabilidad

r 0 1 ... n

p ... Probabilidad puntual Ejemplos de distribuciones según parámetros Función de distribución

Gráfica de la función de distribución

Media μ = np μ

Varianza σ2 = npq σ2

Desviación típica σ

Aproximación de una binomial por

una normal

np ≥ 5 y nq ≥ 5

{

}

aleatoria discreta

0,1,2,

,

X

Î

K K

r

n

(

)

aleatoria continua

,

Z

Î -¥ +¥

0

n

n

p

æ ö

ç ÷

è ø

( )

( )2 2 2

1

·

2

x

f x

e

x

m s

s

p

-=

" Î

¡

(

)

n

·

r

·

n r

P X

r

p q

r

-æ ö

=

= ç ÷

è ø

(

)

0

P X

=

r

=

1

·

1

n

n

p q

-æ ö

ç ÷

è ø

0

( )

(

)

· ·

x

r n r r

n

F x

P X

x

p q

r

-=

æ ö

=

£

=

ç ÷

è ø

å

F r

( )

P X

(

r

)

r

f x dx

( )

=

£

=

ò

npq

s =

0

n

n

q

æ ö

ç ÷

è ø

(

)

por aprox. de Moivre

(

)

corrección de Yates Tipificación

,

'

,

(0,1)

X

B n p

X

N np npq

X

np

Z

Z

N

(11)

Referencias

Documento similar

Definici´ on 1.1.1 Un espacio topol´ ogico es un par (X, τ ), donde X es un conjunto y τ es una familia de subconjuntos de X con las siguientes propiedades:.. Se denota por F

El primer bucle controla desde el origen del eje x (x=0) hasta la anchura máxima de la pantalla (x=100), incrementando cada vez el valor de x en 10 pixeles, a su vez se ejecute

El teorema de Bolzano asegura que si una función f(x) es continua a lo largo del intervalo cerrado [a,b] y tiene valores de signo contrario en ambos extremos, entonces

Distribución Hipergeométrica multivariada: Distribución de probabilidad de las variables aleatorias x 1 , x 2 ,…, x m ; que representan el número de elementos obtenidos

La Normativa de evaluación del rendimiento académico de los estudiantes y de revisión de calificaciones de la Universidad de Santiago de Compostela, aprobada por el Pleno or-

un culto auditorio; ó al astuto criado, siempre con las ludes sabidas de fidelidad y ciega adhesión :i sus amos, validos de la costumbre no verosímil, pero puesta

B ajo un ambiente cálido y festi- vo se desarrolló durante la se- gunda semana de agosto una nueva edición de SAGSE Miami 2022 que reunió a los principales actores del sector

As an application of the main tool for the above result, we also prove that associativeness can be removed in (1) whenever A is either a nondegenerate non-commutative Jordan