• No se han encontrado resultados

TEMA 66. Distribuciones de probabilidad de variable

N/A
N/A
Protected

Academic year: 2022

Share "TEMA 66. Distribuciones de probabilidad de variable"

Copied!
12
0
0

Texto completo

(1)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 1 TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal

TEMA 66 . Distribuciones de probabilidad de variable continúa. Distribución Normal.

1. Introducción.

1.1 Histórica.

Los conceptos de azar e incertidumbre son tan viejos como la propia civilización. La humanidad siempre ha debido soportar la incertidumbre del clima, de las cosechas y otros aspectos de medio que lo rodea, así como buscar los efectos que los regulan para tratar de reducir las probabilidades que generan efectos negativos.

El origen de la probabilidad desde un punto de vista matemático se cree que surge con los juegos de azar. Así en el Egipto antiguo ( 3500 aC) se tiene constancia de la existencia de juegos de azar practicado con objetos de hueso, siendo estos los predecesores de los dados actuales. También los egipcios construyeron dados con marcas como los actuales.

Se suele aceptar como el comienzo de la teoría matemática de la probabilidad con Fermat y Pascal, matemáticos franceses del siglo XVIII. Estos lograron calcular la probabilidad exacta para ciertos juegos de azar relacionados con los dados. Desde este momento la teoría de la probabilidad ha sido constantemente desarrollada y aplicada a más diversos campos de estudio.

1.2. Espacio de probabilidad.

En este tema se usará la concepción matemática de la Teoría de Probabilidad sin tener en cuenta las concepciones filosóficas que la soportan. Para usarla tenemos en cuenta los tres elementos fundamentales que forman un espacio de probabilidad:

• Ω el espacio muestral, que es conjunto de todos los resultado posibles distintos de un experimento aleatorio.

• S es el conjunto de todos los sucesos que se dan sobre Ω (técnicamente es un σ- álgebra de sucesos sobre Ω):

1) Ω∈S

2) Si A∈S  Ac∈S 3) Si A y B∈S  A∪B∈S

• ℘ es la función de probabilidad que refleja la regularidad estadística del experimento; es una función real definida sobre S, ℘: S → ℝ, que satisface los siguientes axiomas:

1) ℘(A)≥0, ∀A∈C 2) ℘(Ω)=1

3)

( ) { }

1

1 1

n n , n n

n n

A A A

=

=

 

℘ = ℘ ∀

U

,An sucesos incompatibles dos a dos (Ai∩Aj=∅, ∀ i≠j) Notar que independientemente del concepto probabilístico a partir del cual se calcule la probabilidad (Laplace, experimental o subjetiva) han de cumplir estos requisitos.

Con estos elementos se trata el problema de formalizar la idea intuitiva de que la

“información” aportada por el hecho de que haya ocurrido un suceso B, ha de ser recogida cambiando el espacio de probabilidad de partida.

(2)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 2

2. Variable aleatoria continúa.

Definición: Sea el espacio probabilístico (Ω, S, ℘) un espacio de probabilidad que modeliza los posibles resultados de un experimento aleatorio, una variable aleatoria es una aplicación que asigna a cada uno de los posibles resultados del experimento aleatorio un valor real. Es decir X es una variable aleatoria si se cumple.

X: Ω  ℝ A  X(A)

Definición: sea el espacio probabilístico (Ω, S, ℘) un espacio de probabilidad, una variable aleatoria es continua cuando la imagen de X, X(Ω), puede tomar todos los valores dentro de un intervalo, no siendo por tanto valores discretos.

Ejemplo: Lanzar un objeto, si suponemos que la distancia es inferior, pongamos que a 100 m, entonces la variable X asigna a cada suceso que puede ocurrir la distancia desde el lanzamiento, siendo X(Ω)=[0,100].

3. Función distribución.

El objetivo es asociar a cada variable aleatoria una función real que contiene toda la información sobre la probabilidad del experimento aleatorio. No podemos en la probabilidad continua asignar un valor de probabilidad a cada valor de X (como hicimos en la discreta), pues al haber infinitos valores de X la probabilidad puntual es nula.

Definición: sea X una variable aleatoria sobre el espacio probabilístico (Ω, S, ℘), se llama función distribución de la variable aleatoria X a la aplicación F definida de la siguiente forma:

F: ℝ  ℝ

t  F(t)=p(X≤t) Propiedades:

1. F es una función definida creciente: si a<b  F(a)≤F(b).

2. F es una función continua por la derecha, es decir limF(x) F(a)

a x

+ =

3. Asíntota horizontal en x=1: lim ( )=1

F x

x

4. lim ( )=0

−∞

F x

x

5. 0≤F(x)≤1

6. p(a<x<b)=F(b)-F(a).

Nota: Por lo general F no siempre es continua por la izquierda ni estrictamente creciente.

Teorema: si F es una función real que cumple las 4 propiedades entonces puede encontrarse un espacio de probabilidad (Ω, S, ℘) y una variable aleatoria X sobre este espacio donde F es la función distribución de X.

(3)

Jose Luis Lorente (preparador oposiciones secundaria

TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal Veamos un ejemplo gráfico:

4. Variable aleatoria estrictamente continua. Función densidad.

Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria estrictamente continua a partir de la función distribución.

Definición: una variable aleatoria es est

es continua y derivable en el intervalo de definición. De tal manera que exista la función

x x F

f

= ∂ )

( , tal que F

(

x

) =

Las variables estrictamente continuas son continuas, no así al revés. En este tema nos centraremos en las absolutamente continuas y por exceso de notación las denominaremos variables continuas.

Ejemplos: cuando tomamos medidas experimentales, como alturas, durac

teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.

En este último ejemplo, si concretamos que todos los valores son densidad vendrá definida como:



= ∈

) 1 , 0 ( 0

) 1 , 0 ( ) 1

( si x

x x si

f

1

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es)

66. Distribuciones de probabilidad de variable continua. Distribución normal gráfico:

Variable aleatoria estrictamente continua. Función densidad.

Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria estrictamente continua a partir de la función distribución.

: una variable aleatoria es estrictamente continua si la función distribución, F(t) es continua y derivable en el intervalo de definición. De tal manera que exista la función

x f )

(

t dt que se denomina función densidad de probabilidad

iables estrictamente continuas son continuas, no así al revés. En este tema nos centraremos en las absolutamente continuas y por exceso de notación las denominaremos

cuando tomamos medidas experimentales, como alturas, durac

teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.

En este último ejemplo, si concretamos que todos los valores son equiprobables la función densidad vendrá definida como:

) 1

)  F(x)=

 

 

>

<

1 1

1 0

0 0

x si

x si x

x si

1

1 f(x)

3 66. Distribuciones de probabilidad de variable continua. Distribución normal

Variable aleatoria estrictamente continua. Función densidad.

Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria

rictamente continua si la función distribución, F(t) es continua y derivable en el intervalo de definición. De tal manera que exista la función función densidad de probabilidad.

iables estrictamente continuas son continuas, no así al revés. En este tema nos centraremos en las absolutamente continuas y por exceso de notación las denominaremos

cuando tomamos medidas experimentales, como alturas, duración llamada de teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.

equiprobables la función

1 F(x)

(4)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 4 Propiedades:

1. f(x)≥0

2.

R f

(

x

)

dx

= 1

3.

(

a

<

x

<

b

) =

ab f

(

x

)

dx 4. Se cumple que F’(x)=f(x)

Las dos primeras propiedades caracterizan a la función densidad, ya que si se cumple que una función cualesquiera las cumple, puede construirse una variable aleatoria en la que f sea su función densidad. La cuarta propiedad proporciona una forma de calcular la función densidad a partir de la función distribución cuando esta es derivable.

Aunque no es lo habitual puede haber variables aleatorias que no son continuas ni discretas. Por ejemplo, supongamos que la vida de una pieza viene definida por la función distribución siguiente:





>

<

<

+

=

<

=

1 1

1 0

2 / ) 1 (

0 5

. 0

0 0

) (

t si

t si x

t si

t si t

F

No es continua por cumplir que F(0)=0.5 y por tanto no ser continua en 0 por la izquierda, y tampoco es discreta al estar definida en un intervalo (0,1).

5. Esperanza matemática o valor esperado.

Se llama esperanza matemática, o valor esperado al valor medio que toma la variable. Se denota como E(X) o x o µ y su valor viene dado en variables continuas como:

= x f x dx X

E( ) · ( )

En el ejemplo propuesto del número aleatorio entre 0 y 1:

= = =

=

1 0

1

0 2

2 / 2 1

· )

(

· )

( x

dx x dx x f x X

E

Si tenemos dos variables aleatorias, X e Y relacionadas entre sí (Y=g(X)) la esperanza de Y se calcular como:

=

=E g X g x f x dx

Y

E( ) ( ( )) ( )· ( )·

Veamos un ejemplo para asentar conceptos: sea el juego que resulta de obtener un valor numérico en (0,1) de forma aleatoria, y tal que se cumple que el dinero que se obtiene depende de x de la forma y=10·(x-0.6). Calcular el valor esperado del dinero obtenido:

= <

=

=

1

0

2

2

0 . 6 ) 0 ( )

4 . 0

·(

5 ) 6 . 0

·(

10 )) ( ( )

(

Y E g x x dx se pierdedinero

E

(5)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 5 TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal

Propiedades de la esperanza matemática:

1) Min(X)≤E(X)≤max(X)

2) Desplazamiento: E(X+b)=E(X)+b 3) Proporcionalidad E(k·X)=k·E(X) 4) Linealidad: E(X±Y)=E(X) ±E(Y) Demostraciones:

1) E(X) =

x·f(x)

min( X)f(x)dx = min( X

f (x) = min( X)

(iden Max)

2) E(X +b) =

∫ (

x+b

)

f(x)dx =

xf (x)dx +

bf (x)dx = E(x)+b·1

3) E(k·X) =

k·xf (x) = k

xf (x) = k·E(X)

4) E(X ±Y)=

f(x)(x+y)dx=

f(x)xdx±

f(x)ydx=E(XE(Y)

6. Momentos.

Definición: llamamos momento de orden k respecto al origen de la variable aleatoria X a la expresión

α

k

=

E

(

Xk

) = ∫

xk

·

f

(

x

)

. El momento de orden 1 es la esperanza (α1=E(X)).

Definición llamaremos momentos centrales (respecto la media) de orden k de la variable aleatoria X

µ

k =E((X

µ

)k)=

(x

µ

)2 f(x)dx

El momento central de orden 2 es el más importante y se denomina varianza de X, denotándose generalmente como Var(X) o σ2. Su raíz cuadrada positiva es denominada como desviación típica de X y se denota como σ o DT(X).

Propiedades de la varianza:

1. Independencia del cambio de origen: Var(X+c)=Var(X) 2. Cambio de escala: Var(k·X)=k2·Var(X)

3. Var(x)=α21

2=E(x2)-E(x)2

4. Si Z es la variable tipificada definida como Z=(X-µ)/σ entonces E(X)=0 y Var(X)=1.

Demostraciones:

1. Var

(

X

+

c

) = ∫ (

x

+

c

− ( +

c

))

2

·

f

(

x

) = ∫

(

x

− )

2 f

(

x

)

dx

=

Var

(

X

)

µ µ

(donde

hemos aplicado que µ(X+c)=µ(x)+c.

2. Var

(

k

·

X

) = ∫ (

k

·

x

− ( ·

k

))

2 f

(

x

)

dx

= ·

k2

(

x

− )

2dx

= =

k2

·

Var

(

X

)

µ µ

(donde

hemos aplicado que µ(k·X)=k·µ(x)

3. Var

(

X

) = ∫ (

x

− )

2 f

(

x

)

dx

= ∫

(

x2

+

2

− 2

x

)

f

(

x

)

dx

=

E

(

X2

) +

2

− 2 · =

E

(

X2

) −

E

(

X

)

µ µ µ µ µ µ

4. La propiedad es un corolario de las propiedades 2 y 3.

(6)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 6 Teorema de la desigualdad de Tchevychev: para cualquier variable X y cualquier número real a se cumple la siguiente desigualdad: 2( )

1 )

|

(| a

x a Var

x

p

µ

< ≥ − .

Este teorema permite estimar probabilidades en torno a la media conociendo únicamente el valor de la varianza, independientemente como sea la distribución.

7. Medidas de centralización

Además de la esperanza existen más mediadas de centralización que se calculan a partir de la probabilidad de la variable de estudio. Las mediadas de centralización sirven para describir la distribución a partir de un único valor (valor central):

- Moda Mo: es el valor más probable, es decir f(M0)≥f(x) ∀x∈X. Si hay dos puntos con máximo valor se dice que la distribución es bimodal, igualmente con tres, cuatro…

- Mediana Me: es el menor valor de X que verifica que p(x≤Me)≥0.5

8. Medidas de dispersión.

Además de la varianza y de la desviación típica hay otras medidas de dispersión que nos indican cómo se alejan los valores de la media:

- Coeficiente de variación de Perarson: CV=

µ

σ

que es adimensional y es válido para

comparar la dispersión de magnitudes diferentes.

- El rango o Recorrido, mide la diferencia entre el valor máximo y el mínimo: R=sup(X)- inf(X).

- Recorrido relativo, mide el recorrido relativo al valor de la media:

ν

Rr = R

9. Medidas de Asimetría y Curtosis.

Se suele utilizar la medida de asimetría γ1= 33

σ

µ

tal que se cumple:

o Si γ1=0 la distribución totalmente simétrica

o γ1>0 antisimétrica a la derecha (mayor cuanto mayor sea) o γ1<0 antisimétrica a la izquierda (mayor cuanto menor sea) Para el aplastamiento de la distribución o curtosis se utiliza el parámetro γ2=

4 4

σ

µ

tal que:

o Si γ2=0 distribución normal.

o Si γ2>0 distribución menos aplastada de lo normal.

o Si γ2<0 distribución más aplastada de lo normal.

(7)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 7 TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal

10. Distribución Normal.

10.1 Reseñas históricas y aplicaciones.

La distribución normal fue introducida en el siglo XVIII como herramienta para calcular de forma aproximada las probabilidades relacionadas con la distribución discreta binomial. La utilización de la distribución normal es amplia, desde estudios astronómicos, estudio de errores realizados en mediciones (Gauss), siendo su campo principal el estudio de variables relacionadas con los seres vivos (alturas, pesos, etc.) o variables que puedan representarse como resultados de sumas de pequeños incrementos.

En la actualidad la distribución normal es una herramienta básica para ciencias tan dispares como economía, sociología , medicina o ingeniería.

No olvidemos también su importancia en su utilización en la aproximación de muchas distribuciones discretas, que como comentamos es el origen de esta distribución.

10.2 Definición y propiedades.

La función distribución normal es toda aquella en la que la función densidad de probabilidad viene definida por la función Gaussiana, cuya expresión algebraica viene dada por

2 2

2 ) (

2 2

) 1

( σ

µ

πσ

=

x

e x

f Donde los parámetro µ y σ son cualquier valor real.

La gráfica de la función es simétrica a x=µ y tiene forma de campana, siendo más ancha cuanto mayor sea el valor deσ. Tiene dos puntos de inflexión en x=µ+σ y x=µ-σ. Para ver que esta función es de densidad tendremos que ver las propiedades descritas en el apartado 4:

1. f(x)≥0 (trivial pues la función exponencial es siempre positiva) 2.

R f

(

x

)

dx

= 1

.

Demostración:

dx

=

e dt

=

I

e

t x

2 2

2 2

2 2

) (

2

2

1 2

1

σµ σ

πσ π

π π

ρ ρ π π

π π

ρ ρ

σ σ

σ 2 2 2

2 1 2

1 2

1 2

0 2 2

2 2 2

2 2

2 2 2 2

2 2

2

 =



−

=

=

=

=

+

∫ ∫ ∫

e dx

e dy dx dy e e d e

I

y x y

x

Propiedades de la función densidad y por ende de la distribución normal:

(8)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 8 1. La función f(x) tiene un máximo en x=µ, siendo por tanto la probabilidad mayor cuanto

más cerca esté el intervalo a este valor.

2. La función simétrica respecto a este valor x=µ.

3. Los valores de las constantes µ y σ son respectivamente de la media y la varianza de la distribución.

Demostraciones:

1.

µ

σ µ πσ

σ µ

=

− =

= −

x x e

x f

x

) 0 ( 2

) 1 (

' 2

2

2 ) (

2 2

 <

 

 − −

=

) ( '' 1 ; 2

) ( 2

) 1 (

'' 4 2

2 2

) (

2

2 2

σ µ σ

µ πσ

σ µ

x f e

x f

x

0 (máximo)

2. 2

2

2 2

2 ) (

2 2

) (

2 2

) 1 ( 2

) 1

( σ σ

µ πσ µ πσ

a a

e a

f e

a f

= − =

= +

3. Veamos primero la media:

π µ µ π

σ π

µ σ

πσ

σµ

σ µ

∫ ∫

=

=

= +

+ =

=

= t e dt e dt

dt t e

dx x e

x E

t

IMPAR SER AL

t t

x t x

2

0

2 2

2 ) (

2

2 2

2 2

2

2 2

2 ) (

2 )

(

43 42 1

Var(x)=E(x2)-E(x)2. Calculemos E(x2):

2 2 (*) 2 2

2 2 2

) ( 0

2 2

2 2

2 2

2 2

2 2 2

2 2

) (

2 2 2

2 2

2 2

2

2 2

2 2

2 1 2

2 2 2

2

2 2 2

) ( 2

) (

µ π σ

π µ σ π

σ π

µ π

σ

π σ µ σ

π µ σ

πσ

σµ

σ µ

+

= +

= +

+

=

+ =

= +

= +

=

∫ ∫ ∫ ∫

=

=

dt e dt

e t dt

t e dt

e dt

t e

dt te dt t

t e dx

x e x

E

t t

impar t t

t

t t

x t x

4 4 3 4

4 2 1

dt dv t

v e

u e

t du

dt e te

dt e t partes por

Integrando

t t

t t

t

=

=

=

=

+

=

 +



−

=

2 / 2

/

2 2

2 2

2 2

2 2

2

·

2 0

(*)

π

Por tanto Var(x)=E(x2)-E(x)2=

σ

2+

µ

2 +

µ

2=

σ

2

10.3. Función distribución. Distribución normal estándar o tipificada.

La función distribución estándar, F(x)=

x f )

(

t dt no tiene expresión analítica, pues la integral no tiene primitiva como tal, sino que se debe calcular integrando al desarrollo de la

función

=

=

=

0 2

! ) ) (

(

2

n

n x

n e x

x

f . Al no tener expresión analítica para el cálculo de las probabilidades se utilizan tablas con distintos valores de F(x) según los distintos valores de x.

Habría tantas tablas como distintos valores de σ y µ, por lo que se trabaja siempre para el

(9)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 9 TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal cálculo de probabilidades con la distribución estándar o tipificada con σ=1 y µ=0, y se representa como N(0,1).

Para el cálculo de probabilidades de otra distribución x N(µ,σ) se pude utilizar la tabla de la distribución estándar con el siguiente cambio de variable (tipificación)

σ µ

= x

z , tal que zN(0,1).

Veamos un ejemplo, supongamos que xN(2,10) y queremos calcular p(x<11)=Fµ,σ(x=11).

Esto es equivalente a 0.5

2 10 11− =

− =

=

σ

µ

z x : p(x<11)=p(z<0.5)=F0,1(x=0.5).

10.4. Aproximación de la binomial.

1. Problemas de la distribución binomial

Supongamos una distribución binomial B(n,p) con un número muy grande de n; por ejemplo lanzamos un tiro libre 200 veces siendo la probabilidad de encestar del 40%, es decir B(n=200,p=0,4). Si nos planteamos cual es la probabilidad de encestar más de 100 lanzamientos tendremos que calcular 100 términos, siendo aburrido y muy laborioso:

P(x>100)=p(x=100)+p(x=101)+…+ …+p(x=199)+p(x=200)=

=ቀ200100ቁ · 0,4ଵ଴଴· 0,6ଵ଴଴+ ቀ200101ቁ · 0,4ଵ଴ଵ· 0,6ଽଽ+ ⋯ + ቀ200199ቁ · 0,4ଵଽଽ· 0,6+ ቀ200200ቁ · 0,4ଶ଴଴· 0,6.

Surge así la pregunta natural: ¿no se podría calcular esta probabilidad sin tener que recurrir a la formula de distribución binomial 100 veces?. Resulta que si se puede, el Teorema de Movire-Laplace nos muestra que de forma aproximada podemos aproximar esta probabilidad utilizando la distribución normal.

(10)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 10 2. Aproximación de la binomial a la normal

Teorema de Movire-Laplace: si X es una variable discreta que sigue una distribución binomial de parámetros n y p, B(n,p) y se cumple que n>10, n·p>5 y n·q>5 resulta una aproximación bastante buena suponer que la variable X’ (recordemos que en la binomial µ=n·p y σ=ඥ݊ · ݌ · ݍ) se aproxima a la variable normal N(n·p, ඥ݊ · ݌ · ݍ).

Resulta mucho más sencillo trabajar con la variable normal X’ que con la binomial X, pues recordemos que los valores de la normal están tabulados.

Corrección de continuidad o de Yates: cuando aproximamos una distribución binomial mediante una normal, estamos convirtiendo una variable X discreta (toma un número determinado de valores) en una continua X’ (toma valores en un intervalo).

Los valores de la probabilidad para valores fijos de la variable continua son cero (ya que sería el área de un punto), y necesitamos definir un intervalo. Para evitar este problema en la aproximación de los valores fijos estos se corrigen (corrección de continuidad o de Yates) sustituyéndolos por un intervalo centrado en el punto y de valor unidad. En el siguiente esquema se muestran todas las situaciones posibles:

X⇒B(n,p) y X’⇒N(n·p, ඥ݊ · ݌ · ݍ)

• P(X=a)=P(a-0,5≤X’≤a+0,5)

• P(X≤a)=P(X’≤a+0,5) (para que contenga al punto a)

• P(X<a)= P(X’≤a-0,5) (para que no contenga al punto a)

• P(X>a)=P(X’≥a+0,5) (para que no contenga al punto a)

• P(X≥a)=P(X’≥a-0,5) (para que contenga al punto a)

P(a≤X<b)=P(a-0,5≤X’≤b+0,5) (para que contenga al punto a y no a b)

(11)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 11 TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal

Ejemplo: Se efectúan 15 lanzamientos de una moneda. Calcular la probabilidad de que ocurran

los siguientes sucesos a) salgan entre 8 y 12 caras b) Salgan menos de 6 caras Solución

a) X=nº carasB(15,0,5)

Si calculamos el problema de forma exacta el problema tenemos que sumar 5 términos P(8≤X≤12)=P(x=8)+p(x=9)+p(x=10)+p(x=11)+p(x=12)=0,4963

Aproximando con la distribución normal (µ=n·p=7.5;σ=ඥ݊ · ݌ · ݍ=1,94):

X’N(7.5,194): P(8≤X≤12)=P(7,5≤X’≤12,5)=P(଻.ହି଻.ହଵ,ଽସ ≤ ܼ ≤ଵଶ.ହି଻.ହଵ,ଽସ ) = ܲሺ0 ≤ ܼ ≤ 2.6) = 0,497

b) Exacto: P(X<6)=P(x=5)+P(x=4)+P(x=3)+P(x=2)+P(x=1)+P(x=0)=0,1508 Aproximación: P(X’≤5.5)=P(Z ≤ହ.ହି଻.ହଵ,ଽସ )=P(Z≤-1,03)=1-P(Z≤1,03)=0,1515

Binomial n=100 p=0,5 y N(n·p, ඥ࢔ · ࢖ · ࢗ)

(12)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 12

11. Conclusiones

La probabilidad se introduce en los cursos de 2º y 3º de la Eso teniendo un peso más fuerte en las dos ramas de las matemáticas del 4º curso, donde ya se habla de la probabilidad condicional y de la probabilidad total (no así del teorema de Bayes) .

La probabilidad cobra más importancia en el currículo de bachillerato, en especial en el bachillerato de ciencias sociales. Es en estos dos cursos donde se ven las distribuciones de probabilidad, en concreto la binomial y la normal.

En casi todos los exámenes de selectividad (ya sea la PAU o la EBAU) de matemáticas aplicadas a las ciencias sociales suele haber un ejercicio de distribución normal.

Referencias

Documento similar

Dado un experimento aleatorio con un espacio de n sucesos elementales Ω, la probabilidad del suceso A, que designamos mediante P(A), es la raz´ on entre la cantidad de casos

Dado un experimento aleatorio con un espacio de n sucesos elementales Ω, la probabilidad del suceso A, que designamos mediante P(A), es la raz´ on entre la cantidad de casos

El conjunto de sucesos elementales asociados al experimento aleatorio tirar una moneda es el espacio muestral, en nuestro caso Ω = {cara, cruz}.. Experimento aleatorio: tirar un dado

Definici´ on: Dado un experimento aleatorio cuyo espacio muestral es Ω, se llama suceso asociado a dicho experimento, a cualquier subconjunto de Ω.. Los subconjuntos unitarios de Ω

Se dice que X es aleatoria porque involucra la probabilidad de los resultados del espacio muestral, y se define X como una función porque transforma todos los posibles

Interpretaciones de probabilidad: cl ´asica, frecuentista, axiom ´atica Definici ´on axiom ´atica de

Espacio de probabilidad Un espacio de probabilidad es una terna Ω,F,P, donde Ω es un conjunto no vac´ıo, F es unaσ-´algebra de subconjuntos de Ω y P es una medida de probabilidad sobre

Debe de notarse que dado un espacio muestral, es decir el conjunto de sucesos elementales asociados a los resultados de un experimento aleatorio, pueden