U2 Estadistica Angel Borgna Fernandez

32 

Loading.... (view fulltext now)

Loading....

Loading....

Loading....

Loading....

Texto completo

(1)

Probabilidad

Probabilidad

Ob

Ob

 je

 je

ti

ti

vos

vos

• Desarrollar algunas herramientas básicas para poder abordar con funda-Desarrollar algunas herramientas básicas para poder abordar con

funda-mento los problemas de la inferencia estadística.

mento los problemas de la inferencia estadística.

• SistematizarSistematizar, organizar y cimentar los , organizar y cimentar los conceptos probabilísticos presentesconceptos probabilísticos presentes

en la cultura cotidiana.

en la cultura cotidiana.

2.1. Elementos de la teoría de probabilidad

2.1. Elementos de la teoría de probabilidad

En la presente Unidad trataremos conceptos de la teoría de probabilidad por

En la presente Unidad trataremos conceptos de la teoría de probabilidad por

ser ésta la herramienta conceptual necesaria para abordar con fundam

ser ésta la herramienta conceptual necesaria para abordar con fundamento losento los

problemas de la estadística inferencial.

problemas de la estadística inferencial.

2.1.1. Experimento aleatorio

2.1.1. Experimento aleatorio

Comenzaremos leyendo el siguiente texto que fue extraído de

Comenzaremos leyendo el siguiente texto que fue extraído de la novelala novelaEl jugador El jugador 

de Fedor Dostoievsky.

de Fedor Dostoievsky.

“[...] Las salas de juego estaban repletas de público. ¡Cuánta insolencia y cuánta avidez! Me

“[...] Las salas de juego estaban repletas de público. ¡Cuánta insolencia y cuánta avidez! Me

abrí paso entre la muchedumbre y me coloqué frente al propio croupier. Empecé a jugar

abrí paso entre la muchedumbre y me coloqué frente al propio croupier. Empecé a jugar

tími-damente, arriesgando cada vez dos, tres monedas. Entretanto, observaba. Tengo la impresión

damente, arriesgando cada vez dos, tres monedas. Entretanto, observaba. Tengo la impresión

de que el cálculo previo vale para poco y, desde luego no tiene la importancia que le atribuyen

de que el cálculo previo vale para poco y, desde luego no tiene la importancia que le atribuyen

muchos jugadores: llevan papel rayado, anotan las jugadas, hacen cuentas, deducen las

muchos jugadores: llevan papel rayado, anotan las jugadas, hacen cuentas, deducen las

proba-bilidades, calculan; por fin, apuestan y pierden. Igual que nosotros simples mortales, que

bilidades, calculan; por fin, apuestan y pierden. Igual que nosotros simples mortales, que

juga-mos sin cálculo alguno. He llegado, sin embargo, a una conclusión, al parecer, justa: existe, en

mos sin cálculo alguno. He llegado, sin embargo, a una conclusión, al parecer, justa: existe, en

efecto, si no un sistema, por lo menos cierto orden en la sucesión de probabilidades casuales, lo

efecto, si no un sistema, por lo menos cierto orden en la sucesión de probabilidades casuales, lo

cual es muy extraño. Suele ocurrir, por ejemplo, que tras

cual es muy extraño. Suele ocurrir, por ejemplo, que tras las doce cifras centrlas doce cifras centrales salgan las doceales salgan las doce

últimas. Cae, por ejemplo, dos veces en las doce últimas y pasa a las doce primeras. De las doce

últimas. Cae, por ejemplo, dos veces en las doce últimas y pasa a las doce primeras. De las doce

primeras, vuelve a las centrales: sale tres o cuatro veces seguidas y de nuevo pasa a las doce

primeras, vuelve a las centrales: sale tres o cuatro veces seguidas y de nuevo pasa a las doce

últi-mas. Tras dos vueltas, cae sobre las primeras, que no salen más de una vez, y las cifras centrales

mas. Tras dos vueltas, cae sobre las primeras, que no salen más de una vez, y las cifras centrales

salen sucesivamente tres veces

salen sucesivamente tres veces. Esto se repite durante hor. Esto se repite durante hora y media o dos horas. Uno, tres y dos;a y media o dos horas. Uno, tres y dos;

uno, tres y dos. Resulta muy divertido. Hay días, mañanas, en que el negro alterna con el rojo,

uno, tres y dos. Resulta muy divertido. Hay días, mañanas, en que el negro alterna con el rojo,

casi en constante desorden, de modo que ni el rojo ni el negro salen más de dos o tres veces

casi en constante desorden, de modo que ni el rojo ni el negro salen más de dos o tres veces

seguidas. Al día siguiente, o a la misma tarde, sale el rojo hasta veinticinco veces sucesivas, y

seguidas. Al día siguiente, o a la misma tarde, sale el rojo hasta veinticinco veces sucesivas, y

con-tinúa así durante algún tiempo, a veces, durante todo el día [...]”.

tinúa así durante algún tiempo, a veces, durante todo el día [...]”.

2

2

Párrafo del capítulo IV de

Párrafo del capítulo IV de

El jugador 

El jugador (1866), una de(1866), una de

las más célebres y populares

las más célebres y populares

nove-las de Fedor Dostoievsky, en gran

las de Fedor Dostoievsky, en gran

parte un relato

(2)
(3)

La búsqueda de las leyes que, supuestamente, gobiernan el azar no solo atrae

La búsqueda de las leyes que, supuestamente, gobiernan el azar no solo atrae

la concentración de algún jugador empedernido, sino que domina

la concentración de algún jugador empedernido, sino que domina

permanen-temente los cálculos de casi todo el espectro científico desde –en un rango

temente los cálculos de casi todo el espectro científico desde –en un rango

cronológico– la astronomía hasta la economía.

cronológico– la astronomía hasta la economía.

Lo que aparece claramente en el párrafo seleccionado es la observación

Lo que aparece claramente en el párrafo seleccionado es la observación

del fenómeno que interesa estudiar –la ruleta– mediante series

del fenómeno que interesa estudiar –la ruleta– mediante series de frecuencias.de frecuencias.

Cada vez que se realiza una jugada se está lleva

Cada vez que se realiza una jugada se está llevando a cabo un experimentondo a cabo un experimento

aleatorio

aleatorioo azaroso, ¿por o azaroso, ¿por qué aleatorio? Porque no se puede prqué aleatorio? Porque no se puede predecir de ante-edecir de

ante-mano el resultado que se va a obtener en esa jugada.

mano el resultado que se va a obtener en esa jugada.

Existen muchos experimentos aleatorios fuera del j

Existen muchos experimentos aleatorios fuera del juego, por uego, por ejemplo,ejemplo,podrí-

podrí-amos anotar la edad de cada una de las per

amos anotar la edad de cada una de las personas que lee esta carpeta, cadasonas que lee esta carpeta, cada

edad del conjunto de todas las edades

edad del conjunto de todas las edades anotadas puede ser un resultado delanotadas puede ser un resultado del

experimento.

experimento.

Podemos citar también como experimento aleatorio la observación de la

Podemos citar también como experimento aleatorio la observación de la

ocurrencia del robo de un auto realizada por un actuario de seguros. Este

ocurrencia del robo de un auto realizada por un actuario de seguros. Este

actuario podría anotar en función de resultados previos cuántos autos

actuario podría anotar en función de resultados previos cuántos autos de unade una

determinada marca y modelo fueron robados entre todos los que existen en

determinada marca y modelo fueron robados entre todos los que existen en

el mercado y a partir de ello inducir si un nuevo auto cualquiera, elegido al

el mercado y a partir de ello inducir si un nuevo auto cualquiera, elegido al

azar de ese modelo y

azar de ese modelo y marca, tiene alguna posibilidad de ser robado.marca, tiene alguna posibilidad de ser robado.

T

Tanto la jugada única del jugadoranto la jugada única del jugador,,como el aseguramiento de un auto cual-como el aseguramiento de un auto

cual-quiera tomado al azar, constituyen experimentos aleatorios simples porque

quiera tomado al azar, constituyen experimentos aleatorios simples porque

involucran tomar un solo elemento al azar de una población.

involucran tomar un solo elemento al azar de una población.

T

Tanto la avidez del jugador como la de la compañía anto la avidez del jugador como la de la compañía de seguros nos llevande seguros nos llevan

a los experimentos aleatorios compuestos –tomar más de un elemento al

a los experimentos aleatorios compuestos –tomar más de un elemento al

azar– donde el jugador haría varias jugadas o la compañía aseguraría varios

azar– donde el jugador haría varias jugadas o la compañía aseguraría varios

autos.

autos.

El proceso de tomar al azar uno o más elementos de una determinada 

El proceso de tomar al azar uno o más elementos de una determinada 

población es un experimento aleatorio.

población es un experimento aleatorio.

Si se selecciona un solo elemento, referido a una variable, el

Si se selecciona un solo elemento, referido a una variable, el

experi-mento es simple y si se

mento es simple y si se

seleccionan dos o más elementos, referidos a esa 

seleccionan dos o más elementos, referidos a esa 

variable, el experimento aleatorio es compuesto porque es el resultado

variable, el experimento aleatorio es compuesto porque es el resultado

de la repetición de uno simple.

de la repetición de uno simple.

Po

Po

r otro lado,

r otro lado,

si se selecciona un elemento al azar pero ref

si se selecciona un elemento al azar pero ref

erido a dos

erido a dos

o más

o más

variables conjuntamente resulta también un experimento aleato-

variables conjuntamente resulta también un experimento

aleato-rio compuesto.

rio compuesto.

Cuando se seleccionan muestras aleatorias de tamaño

Cuando se seleccionan muestras aleatorias de tamaño n n de una población sede una población se

están realizando

están realizando n n experimentos aleatorios simples.experimentos aleatorios simples.

Espacio muestral 

Espacio muestral 

Denominamos espacio muestral (E) al conjunto de todos los resultados

Denominamos espacio muestral (E) al conjunto de todos los resultados

posi-bles de un experimento aleatorio.

bles de un experimento aleatorio.

En el ejemplo del actuario nos interesa si al seleccionar un auto de esa

En el ejemplo del actuario nos interesa si al seleccionar un auto de esa

marca y modelo éste puede ser robado o no, entonces los resultados

marca y modelo éste puede ser robado o no, entonces los resultados

posi-bles son: será robado o no será robado:

bles son: será robado o no será robado:

Experimen

Experimento to aleatorio,aleatorio,

probabilístico o

probabilístico o

estocás-tico: es aquel donde no se puede

tico: es aquel donde no se puede

determinar a priori cuál va a ser su

determinar a priori cuál va a ser su

resultado.

(4)

E = {robado, no robado}

E = {robado, no robado}

En una jugada de la ruleta los resultados posibles son:

En una jugada de la ruleta los resultados posibles son:

E = {todos los números de la ruleta} = {0, 1, 2, 3, ... , 34, 35, 36}

E = {todos los números de la ruleta} = {0, 1, 2, 3, ... , 34, 35, 36}

En la siguiente tabla figuran distintos tipos

En la siguiente tabla figuran distintos tipos de experimentos aleatorios y espa-de experimentos aleatorios y

espa-cios muestrales asociados a ellos.

cios muestrales asociados a ellos.

Como puede aprecia

Como puede apreciarse, los experimentos 1 y 3 son simplrse, los experimentos 1 y 3 son simples y el 2 es un expe-es y el 2 es un

expe-rimento compuesto por repetición de uno simple.

rimento compuesto por repetición de uno simple.

Para describir los elementos de un espacio muestral de un experimento

Para describir los elementos de un espacio muestral de un experimento

compuesto se puede recurrir a un diagrama denominado

compuesto se puede recurrir a un diagrama denominado diagrama de árbol diagrama de árbol 

donde cada una de las ramas representa a cada uno de los elementos

donde cada una de las ramas representa a cada uno de los elementos

com-puestos del espacio muestral.

puestos del espacio muestral.

El diagrama de árbol (G.2.1.) correspondiente al segundo experimento es

El diagrama de árbol (G.2.1.) correspondiente al segundo experimento es

Gráfico 2.1. Diagrama de árbol

Gráfico 2.1. Diagrama de árbol

 Suceso o evento aleatorio

 Suceso o evento aleatorio

Un suceso o evento aleatorio es cualquier subconjunto de un espacio

Un suceso o evento aleatorio es cualquier subconjunto de un espacio

muestral.

muestral.

E Exxppeerriimmeenntto o aalleeaattoorriioo EEssppaacciio o mmuueessttrraall S Si i sse e ttoommaarraa//n n aal l aazzaarr:: SSe e oobbtteennddrrííaan n lloos s ssiigguuiieennttees s rreessuullttaaddooss

1-1-Una pyme dUna pyme del grupo que figura el grupo que figura en la matrizen la matriz

ME 3 de la Unidad anterior

ME 3 de la Unidad anterior y se examinara ely se examinara el

rubro al que pertenece.

rubro al que pertenece. E ={ A, C, I, S}E ={ A, C, I, S}

2- Dos empleados de la empresa cooperativa

2- Dos empleados de la empresa cooperativa

de la matriz ME 1 y se observara el sexo al

de la matriz ME 1 y se observara el sexo al

que pertenece cada uno.

que pertenece cada uno.

E={FF, FM, MF, MM}

E={FF, FM, MF, MM}

3- Una vivienda entre las de la ME 2 y

3- Una vivienda entre las de la ME 2 y

se reflexionara acerca de la cantidad de

se reflexionara acerca de la cantidad de

ambientes que tiene.

ambientes que tiene.

E ={ 1, 2, 3, 4,

(5)

Son ejemplos de sucesos aleatorios del Espacio muestral del experimento 3, que la vivienda seleccionada tenga:

S1 = {hasta 3 ambientes} S1 = {1, 2, 3} S2 = {1 ambiente} S2 = {1} S3 = {8 ambientes} S3 = { } = Φ S4 = {hasta 5 ambientes} S4 = {1, 2, 3, 4, 5} = E S5 = {3 o 4 ambientes} S5 = {3, 4} S6 = {menos de 4 ambientes} S6 = {1, 2, 3} S7 = {más de 3 ambientes} S7 = {4, 5}

Un suceso ocurrirá si el resultado del experimento aleatorio es un

ele-mento de dicho suceso.

Si un suceso tiene un solo elemento (por ejemplo S2) se dice que es un suce- 

so elemental.

Si los elementos de un suceso son todos los del espacio muestral (el suce-so coincide con E como el S4) al suceso se lo denomina suceso cierto y

ocu-rre siempre al realizar el experimento.

Si un suceso no tiene elementos, es un conjunto vacío como el S3y se llama

suceso imposible . Este suceso no podría ocurrir al realizar el experimento.

Relaciones entre sucesos

Las relaciones más destacables que se pueden establecer entre dos o más sucesos son: identidad, exclusión e independencia. Para ejemplificarlas usa-remos los sucesos S1 a S7.

Identidad 

Dos o más sucesos son idénticos cuando tienen los mismos elementos.

Considerando el suceso S6podemos notar claramente que es idéntico al

(6)

Exclusión

Dos sucesos son mutuamente excluyentes cuando la ocurrencia de uno

excluye la ocurrencia del otro. Es decir, que no tienen elementos en

común.

Por ejemplo, los sucesos S2 y S5 porque si ocurre S2 no puede ocurrir S5 y 

viceversa, por lo tanto son mutuamente excluyentes.

Dos sucesos aleatorios son no excluyentes, caso S5 y S7, cuando tienen

elementos en común.

Un suceso está incluido en otro cuando todos sus elementos son parte de los elementos del otro como en el caso del suceso S2que está contenido en S1.

El espacio muestral y los sucesos aleatorios pueden representarse median-te un diagrama de Venn.

En los siguientes diagramas se visualizan las tres formas que puede adop-tar la relación de exclusión entre dos sucesos aleatorios.

Gráfico 2.2.

Independencia

Dos sucesos son independientes cuando la ocurrencia de uno no condiciona la ocurrencia del otro.

Observando el primer caso del gráfico 2.2. –donde los sucesos son mutua-mente excluyentes– si uno ocurriera, el otro nunca podría ocurrir. Eso implica la total dependencia del segundo suceso respecto del primero, y viceversa.

Si dos sucesos son mutuamente excluyentes entonces son fuertemente

dependientes.

En el tercer diagrama, del mismo gráfico, si ocurriese el suceso incluido nece-sariamente el suceso incluyente ocurrirá, por lo que éste también es fuerte-mente dependiente de aquél.

Juan Venn (1834-1923). Filósofo e historiador inglés. Su obra de lógica más original es la Lógica del azar .

(7)

Si un suceso incluye a otro entonces es fuertemente dependiente del

suceso incluido.

En el caso de los sucesos no excluyentes, segunda forma del gráfico, el aná-lisis de la independencia requiere de otras cons ideraciones que se irán incor-porando paulatinamente. Pero sí se puede afirmar que:

Si dos sucesos son independientes no son mutuamente excluyentes.

Operaciones entre sucesos

Las operaciones entre sucesos son las tres operaciones de Boole (unión, inter-sección y complemento) del álgebra de conjuntos más la operación diferencia.

Estas operaciones aplicadas a dos o más sucesos aleatorios devuelven

siempre un nuevo suceso aleatorio.

Unión

La unión de dos sucesos S

i

y S

 j

es un nuevo suceso (S

i

U S

 j

) cuyos

ele-mentos pertenecen a alguno de los dos sucesos (a S

i

o a S

 j

o a ambos).

Gráfico 2.3.

Consideremos las siguientes uniones de sucesos aleatorios: S2 U S5 = {1} U {3, 4} = {1, 3, 4}

S7 U S5 = {4, 5} U {3, 4} = {3, 4, 5}

S1 U S2 = {1, 2, 3} U {1} = {1, 2, 3}

Estudiadas sistemática-mente por el lógico

irlan-dés J. Boole (1815-1864) y aplica-das al diseño de circuitos electrónicos a partir de 1939 y a la telefonía, control automático y computado-ras en general hasta hoy.

(8)

Intersección

La intersección de dos sucesos S

i

y S

 j

es un nuevo suceso (S

i

 S

 j

) cuyos

elementos pertenecen conjuntamente a ambos sucesos.

Gráfico 2.4.

La intersección de los sucesos S7 y S5, con los que ya operamos, es:

S7 I S5 = {4, 5}I {3, 4} = {4}

El suceso S7 I S5 ocurrirá sí y solo sí ocurrieran simultáneamente los

suce-sos S7 y S5.

1.

a.

Realizar la intersección entre los sucesos S

2

y S

5

.

b.

Indicar qué tipo particular de suceso es la intersección entre dos

suce-sos mutuamente excluyentes.

Complemento

El complemento de un suceso S es otro suceso cuyos elementos son todos

los elementos del espacio muestral que no pertenecen al suceso S.

Gráfico 2.5.

El complemento del suceso S1 es:

(9)

Diferencia

La diferencia entre dos sucesos S

i

y S

 j

es un nuevo suceso (S

i

–S

 j

) cuyos

elementos pertenecen sólo a S

i

.

Gráfico 2.6.

Las siguientes diferencias entre sucesos son: S7 – S5 = {4, 5} – {3, 4} = {5}

S1 – S2 = {1, 2, 3} – {1} = {2, 3}

2.

a.

Determinar la diferencia entre los sucesos S

2

y S

5

.

b.

Determinar el suceso resultante de la diferencia entre dos sucesos

mutuamente excluyentes.

2.1.2. Definiciones de probabilidad

Enunciaremos las definiciones de probabilidad teniendo en cuenta su formu-lación histórica.

Definición clásica

La definición clásica de probabilidad se debe a Pierre Simón de Laplace para quien la teoría del azar consiste en determinar el número de casos favorables  al acontecimiento cuya probabilidad se indaga. La razón de este número con  la de todos los casos posibles es la medida de la probabilidad, que no es más  que una fracción cuyo numerador es el número de casos favorables y cuyo  denominador es el número total de casos posibles.

Es decir:

cantidad de casos favorables p =

cantidad de casos posibles

Apliquemos esta definición a algún suceso en la jugada de la ruleta, por ejem-plo, si nos interesa que en la próxima tirada de la ruleta salga par.

Essai philosophique sur  les probabilités (1814).

Pierre Simón de Laplace (1749-1827), astrónomo y matemático francés. Otras obras: Mecánica  Celeste y El sistema del mundo.

(10)

El espacio muestral es:

E = {todos los números de la ruleta}

E = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31. 32, 33, 34, 35, 36}

y el suceso o evento de interés es: S = {que salga par}

S = {2, 4, 6, 8, 10, 12, 14, 16, 18 , 20, 22, 24, 26, 28, 30, 32, 34, 36} P(S) = P(par) = 18 / 37 = 0,4865

Definición frecuencial 

Richard E. von Mises propuso la siguiente definición de probabilidad frecuen-cial en 1919.

 La probabilidad de un suceso cualquiera es “[...] el Valor Límite de la Frecuencia Relativa... Esta es la razón del número de casos en que el atributo a sido hallado al número total de observaciones [...]”

Es decir:

p = f r

Supongamos que el actuario ha recabado información sobre una cantidad grande de autos asegurados y que de ellos el 15% sufrió algún robo. El actua-rio con ese dato puede calcular la probabilidad del suceso S: “el auto asegu-rado no sería robado”.

P(S) = P( no robado) = 85/100 = 0,85

2.1.3. Axiomatización de la probabilidad

La Teoría de la Probabilidad fue estructurada algebraicamente a partir de 1930 por matemáticos de la escuela ruso-francesa, dentro de una teoría especial de la medida de conjuntos. Esa teoría de la medida nos permitiría hablar de la probabilidad de un suceso aleatorio, como la medida de su ocurrencia.

Su utilidad reside en entregar al cálculo de probabilidades una herramien-ta algebraica, es decir, un conjunto de operaciones y maneras de operar con probabilidades.

Su cuerpo principal consiste en tres axiomas y un grupo de propiedades (teoremas).

Matemático y filósofo aus-tríaco (1883-1953). Tomado de su libro Probabilidad , Estadística  y Verdad (1928). Los referentes más importantes de esta escuela son: A. N. Kolmogoroff, F. Cantelli, E. Borel y otros.

Recordar que los axiomas son proposiciones intui-tivas aceptadas sin demostración y que a partir de ellos pueden dedu-cirse las propiedades (teoremas).  Axiomas

 A.1. P (S) 0 la probabilidad de un suceso aleatorio S es un

número no negativo.

 A.2. P(E) = 1 la probabilidad del espacio muestral E es 1.  A.3. Si S

 j = entonces

P(Si S

 j) = P (Si) + P(S j)

la probabilidad de la unión de dos sucesos aleatorios Si y S j mutuamente excluyentes es la suma de sus respectivas probabilidades.

(11)

3.

Demostrar la P.4. utilizando la sugerencia dada.

2.1.4. Tipos de probabilidad

Hay tres tipos de probabilidad de que ocurra un suceso aleatorio, a saber: pro-babilidad total , propro-babilidad conjunta o compuesta y propro-babilidad condicional 

Probabilidad total 

Se denomina probabilidad total a la probabilidad del suceso resultante de la unión de dos o más sucesos cualesquiera.

Las probabilidades de los sucesos vistos en el subapartado 2.1.2. “que el auto asegurado no sea robado” y “que salga un número par en la jugada de la ruleta” son ejemplos de probabilidad total .

El suceso “que el auto asegurado no sea robado” es un suceso elemen-tal, en cambio el suceso “que salga un número par en la jugada de la ruleta” resulta de la unión de los sucesos elementales {2}, {4}, {6}, {8},..., {30}, {32},{34},{36} o sea,

P(sea par) = P({2}U{4}U {6}U{8}U...U{30}U{32}U{34}U{36})

P(sea par) = P(2) + P(4) + P(6) + P(8) +...+ P(30) + P(32) + P(34) + P(36) = 1/37 + 1/37 + 1/37 +…….+ 1/37 + 1/37 = 18 .1/ 37 = 18/37

El cálculo realizado se basa en el tercer axioma y supone la equiprobabilidad de cada uno de los resultados de la jugada de la ruleta.

Probabilidad condicional 

Supongamos que un estudio contable que recién se inicia debe presentar ante un organismo oficial dos declaraciones juradas (DDJJ) tomadas al azar entre sus 10 clientes. Entre ellos, tres son grandes contribuyentes (G) y el resto monotributistas (M).

El espacio muestral E = {GG, GM, MG, MM} puede obtenerse a partir del diagrama de árbol del gráfico 2.7. en el que se incluyen las probabilidades totales correspondientes a la primera selección

Propiedades

P.1. 0 P(S) 1

Se deduce combinando A.1. y A.2. P.2. P(S) = 1 – P(S)

Se deduce combinando A.2. y A.3. P.3. P() = 0

Se deduce de A.3. y considerando quees el complemento de E

P.4. P(Si S j) = P (Si) + P(S j) – P(Si S j)

Se deduce de A.3. y de considerar a cada uno de los sucesos como unión de partes mutuamente excluyentes.

Se entiende por equipro-babilidad, en el sentido

expresado por Laplace, a la igual-dad de oportuniigual-dad que tiene cada uno de los resultados elementales de una población para ser selec-cionado durante la realización de un experimento aleatorio.

(12)

Gráfico 2.7. Diagrama de árbol

Es decir, por ejemplo, que hay una probabilidad de 0,3 –probabilidad total– de que la primera declaración jurada seleccionada corresponda a un gran contribuyente.

A continuación, completaremos el diagrama agregando las probabilidades de los resultados de la segunda selección de una declaración teniendo en cuenta que en la segunda instancia el conjunto deDDJJ va a contar con un ele-mento menos cambiando también su composición.

Gráfico 2.8. Diagrama de árbol

Si nos interesara, por ejemplo, la probabilidad de que la segunda declaración  jurada extraída sea de un monotributista tendríamos dos respuestas posibles (7/9 y 6/9) dependiendo de cuál haya sido el resultado de la primera selec-ción. Es decir, que la segunda selección está sujeta o condicionada a lo que ocurrió en la primera. Las probabilidades consignadas al lado de cada resul-tado de la segunda extracción son probabilidades condicionales .

La probabilidad condicional mide la ocurrencia de un suceso B si

hubie-ra ocurrido el suceso A y se expresa P(B/A), donde A es el suceso

con-dición y el símbolo “/” es una notación (no una operación).

Las probabilidades condicionales consignadas en el árbol son:

P(G/G) = 2/9 = 0,2222 P(G/M) = 7/9 = 0,7778

P(M/G) = 3/9 = 0,3333 P(M/M) = 6/9 = 0,6667

La notación P(B/A) se debe al economista inglés J. M. Keynes (1883 – 1946) en su Tratado sobre las probabilidades  (1933).

(13)

La primera se lee: 0,2222 es la probabilidad de que en la segunda selección la Declaración Jurada sea de un gran contribuyente si  (dado que, tal que, sabiendo que ) la primera hubiera sido también de un gran contribuyente.

Probabilidad conjunta o compuesta

Las probabilidades de cada uno de los sucesos del espacio muestral se deno-minan probabilidades compuestas y miden la probabilidad de ocurrencia con- junta o simultánea de dos resultados particulares en ambas selecciones.

Convenimos en:

P(GG) = P(primero G y segundo G) = P(G1 I G2) = P(G I G)

La probabilidad compuesta o conjunta es la probabilidad de que

ocu-rran simultáneamente dos o más sucesos.

Utilizando la definición de Laplace (casos favorables/casos posibles ) la pro-babilidad del suceso GG resulta :

donde la cantidad de casos posibles resulta de contar todas las combinacio-nes de diez DDJJ (al momento de la primera selección) por nueve DDJJ (en la segunda instancia), y la cantidad de casos favorables también resulta de la combinación de 3 G (primera vez) por 2 G (segunda vez).

Relacionando con las probabilidades del árbol resulta finalmente:

Generalizando para dos sucesos cualesquiera A y B: P(A I B) = P(A). P(B/A)

La probabilidad compuesta entre dos sucesos A y B resulta de la

multi-plicación de la probabilidad total del suceso condición A por la

proba-bilidad condicional de B tal que A.

Conclusiones

Dados dos sucesos A y B de un espacio muestral de un experimento aleato-rio con probabilidades no nulas, a partir de lo visto, se pueden deducir las siguientes proposiciones:

(14)

Los experimentos aleatorios compuestos por repetición de uno simple son el mecanismo básico para la confección de muestras en una población.

Otro tipo de experimentos compuestos sirven al estudio de la asociación y/o relación causa efecto entre variables y son los experimentos compuestos bivariados.

Experimento bivariado

Como ejemplo para el tratamiento de la probabilidad en experimentos biva-riados analizaremos un caso particular como medio para la generalización.

Con la finalidad de pronosticar el estado del tránsito en función de la ocu-rrencia de embotellamiento a partir de la existencia de un accidente en una autopista en determinada franja horaria, se relevaron datos históricos obte-niéndose la siguiente información: el 20% de los automóviles que circulan por esa autopista en el horario estudiado tuvieron algún tipo de accidente; el 95% de las veces en que ocurrió un accidente se produjo un embotellamiento y  cuando no hubo accidente ocurrió un embotellamiento el 15% de las veces.

Notamos que podríamos identificar la ocurrencia de un accidente como causa y el embotellamiento como un efecto .

En el diagrama de árbol del gráfico 2.9. se ilustra la información:

(15)

Donde las probabilidades que se tienen son:

A partir de estas probabilidades pueden calcularse las probabilidades conjuntas:

Con las probabilidades totales de las causas y las conjuntas armamos una tabla conjunta de probabilidades o tabla de contingencias .

En la que además aparecen calculadas las probabilidades totales de los efec-tos Embotellamiento y No embotellamiento.

Por su ubicación en la tabla de contingencia, a las probabilidades totales se las suele denominar también probabilidades marginales .

A partir de la tabla de contingencias pueden calcularse las siguientes pro-babilidades condicionales de las causas a partir de los efectos:

 total de Accidente P(A) = 0,20  total de No accidente P(A) = 0,80

condicional de Embotellamiento tal que Accidente P(E/A) = 0,95 condicional de No embotellamiento tal que Accidente P(E /A) = 0,05 condicional de Embotellamiento tal que No accidente P(E/A) = 0,15 condicional de No embotellamiento tal que No accidente P(E /A) = 0,85

de Accidente y Embotellamiento

P(A 

E) = 0,19

de Accidente y No embotellamiento

P(A 

 E

) = 0,01

de No accidente y Embotellamiento

P(

A 

E) = 0,12

de No accidente y No embotellamiento

P(

A  E

) = 0,68

E E Total A 0,19 0,01 0,20 A 0,12 0,68 0,80 Total 0,31 0,69 1

Accidente tal que Embotellamiento

P(A/E) = 0,19/0,31 = 0,6129

Accidente tal que No embotellamiento

P(A/

E

) = 0,01/0,69 = 0,0145

No accidente tal que Embotellamiento

P(

A

 /E) = 0,12/0,31 = 0,0039

No accidente tal que No embotellamiento P(

A

 /

E

) = 0,68/0,69 = 0,9855

(16)

Las probabilidades calculadas se denominan probabilidades bayesianas o pro-babilidades condicionales de la causas y se formalizan mediante el teorema de Bayes.

Dado el suceso B (efecto) de un espacio muestral E y una partición de n sucesos Ai (causas) de dicho espacio, la probabilidad de que ocurra el

suce-so Ai si ocurriera el suceso B es:

donde P(B) es la probabilidad total del suceso condición y P(B) ≠ 0.

Para A j cualquier suceso del conjunto de los Ai con i = 1, 2…n

4.

Considerando la tabla conjunta 1.11. del subapartado 1.1.2. de la

Uni-dad anterior referida al rubro y evolución de los puestos de trabajo de

las pymes, calcular una probabilidad de cada uno de los tipos vistos e

interpretarla.

2.2. Variable aleatoria

Una variable aleatoria asigna valores numéricos, del conjunto de los números reales, a los sucesos definidos en el espacio m uestral asociado a un experi-mento aleatorio.

En caso de que el espacio muestral de un experimento aleatorio tenga una cantidad finita o infinita numerable de elementos, es decir, que permite algún mecanismo de conteo, la variable aleatoria diseñada será una variable alea-  toria discreta.

En caso de que el experimento aleatorio involucre algún tipo de medición, –cuyos resultados pertenecen a regiones del conjunto de los números reales– donde es clara la imposibilidad de conteo, la variable aleatoria es de natura-leza continua y por ello se la denomina variable aleatoria continua.

Se denomina variable aleatoria a una función del espacio muestral sobre

el espacio de los números reales.

2.2.1. Variable aleatoria discreta

Las variables aleatorias discretas son funciones del espacio muestral sobre el subconjunto de los enteros.

Diseñaremos una variable aleatoria discreta para el ejemplo del estudio contable utilizado en el subapartado 2.1.4. (probabilidad condicional).

En 1764, después de la muerte de Thomas Bayes (1702-1761), se publicó An essay  formars solving a problem in the  doctrine of chances, una memo-ria en la que aparece, por vez pri-mera, la determinación de la pro-babilidad de las causas a partir de los efectos que han podido ser observados.

(17)

Recordemos que el espacio muestral es: E = {GG, GM, MG, MM} La variable aleatoria de diseño que elegimos es:

X: “cantidad de DDJJde clientes monotributistas entre las dos seleccionadas” La variable aleatoria X recorrerá los valores enteros entre 0 y 2, donde 0 sig-nifica que ninguna de las dos DDJJ corresponderían a monotributistas y 2 que ambas declaraciones sean de monotributistas.

El recorrido de X es R(X) = {0, 1, 2}

Calculamos la probabilidad para cada valor r del recorrido de X obteniendo así  los valores de la denominada función de probabilidad h(r) . Siendo h(r) = P(X = r)  h (0) = P( X= 0 M) = P(GG) = 6/90

h (1) = P( X= 1 M) = P(G, M) + P(MG) = 21/90 + 21/90 = 42/ 90 h (2) = P( X= 2 M) = P(MM) = 42/90

Confeccionamos a continuación la tabla (T.2.1.) de distribución de probabilidades.

T.2.1.

Donde F(r) es la función de distribución acumulativa o simplemente función de  distribución . Siendo F(r) = P(x £ r).

h(r) es una función de probabilidad de una variable aleatoria

discre-ta X sí y sólo si para todo elemento r del R(X) se cumplen las

siguien-tes propiedades que se desprenden de los dos primeros axiomas de

probabilidad.

h(r)

0

h(r) = 1

Un gráfico adecuado para la función de probabilidad h(r) es el de bastones y  para la función de distribución es el de escalones, ambos vistos en el suba-partado 1.1.3. de la Unidad 1.

 Al momento de diseñar una variable aleatoria

dis-creta debe optarse por alguna de las categorías involucradas en el problema para la cual la variable hará el conteo. En nuestro caso, podría haberse optado por otra varia-ble que contara la cantidad de ddjj de grandes clientes entre las dos seleccionadas.  X  E  GG 0 GM MG 1 MM 2 r h(r) F(r) 0 6/90 6/90 1 42/90 48/90 2 42/90 1

(18)

El carácter numérico de la variable aleatoria permite calcular algunas de las medidas –media, varianza y desvío estándar– de las aplicadas anteriormente a las variables estadísticas, con la siguiente salvedad: en una variable esta-dística la media corresponde a un promedio observado mientras que en una variable aleatoria la media indica un promedio esperado, o valor esperado, y  se denomina esperanza .

La esperanza E(X), la varianza V(X) y el desvío estándar DS(X) se expresan

La esperanza de la variable del problema es:

E (X) = 0.6/90 +1.42/90 + 2. 42/90 = 1,4 DDJJde monotributistas

Es decir, que si se seleccionan al azar dosDDJJse espera que entre ellas haya 1,4 de clientes monotributistas.

La varianza y el desvío estándar son: V(X) = 0,3733 y DS(X) = 0,611

Propiedades de la esperanza y de la varianza

P.1. E(C) = C

La esperanza de una constante es ella misma. P.2. E(C + n . X) = C + n . E(X)

C + n.X es una nueva variable aleatoria resultante de una transformación lineal de X.

P.3. E(n . X) = n . E(X)

Caso particular que se desprende de la propiedad anterior P.4. E(X + Y) = E(X) + E(Y)

X + Y es una nueva variable aleatoria, resultante de sumar las variables X e Y.

P.5. V(X + Y) = V(X) + V(Y)

Sólo si X e Y son independientes. P.6. V(n . X) = n2 . V(x)

Se deduce de la definición de varianza

2.2.2. Modelos especiales de variables aleatorias discretas

Existen problemas de distinta índole originados en ramas diversas de la cien-cia, que al ser vinculados con experimentos aleatorios presentan

caracterís-Las propiedades que se enuncian son válidas en cualquier experimento aleatorio, sea este simple o compuesto.

(19)

nCr= n r      = n! r!(n  r)!

ticas similares; esas características comunes son las que permiten modelar-los unívocamente.

Para la construcción de un modelo probabilístico, primero deben identifi-carse exhaustivamente cada una de las características específicas del expe-rimento y seguidamente asociarle una variable aleatoria apropiada.

Experimento binomial 

El experimento binomial es un experimento compuesto que consiste en n repe-ticiones independientes de un experimento simple dicotómico.

Por lo tanto las características que lo identifican son:

• El experimento simple tiene sólo dos resultados posibles, denominados éxito –suceso que interesa seguir– y fracaso – suceso complementario.

• Se repite n veces el experimento simple.

• Las repeticiones del experimento simple son independientes entre sí. Vinculadas al experimento binomial pueden definirse más de una variable ale-atoria, con sus correspondientes distribuciones de probabilidad, cumpliendo distintos roles dentro del mismo experimento. Ellas son las variables aleato-rias binomial, geométrica y de Pascal (o binomial negativa).

Variable aleatoria binomial 

Es una variable discreta que cuenta la cantidad r de éxitos en un

expe-rimento binomial.

Llamaremos P a la probabilidad de éxito y en consecuencia 1-P a la probabi-lidad de fracaso.

El modelo binomial queda caracterizado por

n

(número de repeticiones

del experimento simple o de Bernoulli) y

(probabilidad de éxito en cada 

repetición) que son sus

 parámetros 

. Entonces decimos que la variable

ale-atoria X asociada tiene distribución binomial con parámetros

n

y

.

El modelo matemático para la distribución binomial permite calcular los valo-res de la función de probabilidad h(r).

h (r) = P(X = r) = nCr . Pr . (1-P) n-r

Donde nCr es un número combinatorio que cuenta la cantidad de combina-ciones de n elementos tomados de a r , es decir la cantidad de grupos de r ele-mentos que pueden formarse a partir de los n .

Ejemplo 

De la revisión de los archivos de una empresa de larga trayectoria en un deter-minado rubro surge que en el 70% de sus balances semanales se registraron superávit. En una auditoría se propuso realizar una muestra con los balances de 10 semanas tomadas al azar en forma independiente.

Si el experimento tiene más de dos resultados posibles hay que dicotomizarlo.

Si las repeticiones del experimento simple no

fueran independientes, el mode-lo que se generaría se denomina modelo hipergeométrico.

En símbolos X ~ B(n,P)

En este experimento, la variable aleatoria x asociada toma valo-res 0 y 1. La esperanza de esta variable resulta ser la probabili-dad de éxito. P. Santiago Jacobo Bernouilli o Bernoulli (1654-1705) fue un matemático suizo de ori-gen belga. Entre otras cosas fue quien usó por primera vez la pala-bra “integral” y escribió el “Ars conjectandi” sobre el

(20)

Conceptualizando que esa muestra es un experimento aleatorio y pasan-do revista a sus características comprobamos que responden a un modelo binomial a saber: hay dos resultados posibles (superávit o no superávit) cada vez que se seleccione un balance semanal y se toman n (10) balances en forma independiente.

Ante la futura auditoría nos podemos preguntar acerca de la probabilidad de que se encuentren en la muestra a lo sumo 5 balances con superávit o entre 3 y 6 balances con superávit o al menos 6 balances con superávit.

La variable aleatoria asociada al experimento, para responder los interro-gantes del auditor, podría ser:

X: “cantidad de balances con superávit entre los 10 seleccionados al azar en forma independiente”.

Los parámetros de la distribución resultan entonces,

n = 10 P = 0,70

y los valores de la función de probabilidad h(r) y los de la función de distribu-ción F(r) = P(X £ r) se encuentran en la tabla T.2.2.

T.2.2.

La probabilidad de que en la muestra se encuentren a lo sumo 5 balances con superávit será:

o también

La probabilidad de que en la muestra haya entre 3 y 6 balances con superávit

o también

Al menos 6 balances con superávit

Estadistica

ri 0 1 2 3 4 5 6 7 8 9 10

h(r) 0,000006 0,000138 0,001447 0,009002 0,036757 0,102919 0,200121 0,266828 0,233474 0,121061 0,028248

(21)

o también

Esperanza y varianza de una distribución binomial

Como el experimento binomial consiste en n repeticiones independientes de un ensayo Bernoulli, la variable aleatoria binomial X es una transformación lineal de la variable aleatoria Bernoulli x , es decir,

Luego, aplicando las propiedades de la esperanza y varianza P.4. y P.5. enun-ciadas anteriormente en el presente apartado calculamos la esperanza y la varianza de una variable aleatoria binomial X.

La esperanza es:

y la varianza resulta:

Volviendo al ejemplo de los balances, la cantidad de balances que se espera encontrar con superávit entre los 10 seleccionados será

E(X) = n . p = 10 . 0,70 = 7 balances con superávit Con una desviación estándar de

Proceso de Poisson

Un proceso de Poisson es un experimento de naturaleza binomial donde

los éxitos ocurren o no a lo largo de un intervalo continuo (el cual puede

estar dado en tiempo, longitud, superficie, volumen, etcétera).

Es un proceso donde los “éxitos” ocurren en el transcurso del continuo y a dife-rencia de un experimento binomial puro los “fracasos” no pueden ocurrir por-que representan la ausencia de éxito.

Lo que caracteriza unívocamente a un determinado proceso de Poisson es la intensidad media (a) de ocurrencias de éxito en la unidad del continuo.

La intensidad media es la canti-dad de éxitos esperada por uni-dad del continuo, mientras el pro-ceso sea el mismo.

(22)

Por ejemplo, una distribuidora mayorista comprobó que, en las primeras semanas de cada mes, la cantidad media demandada de un determinado pro-ducto es de 3 toneladas diarias. El fenómeno descrito involucra un proceso de Poisson donde a = 3 tn/día para esa época del mes.

También, que en las últimas semanas de cada mes la demanda media dia-ria baja a 2 toneladas. En este caso el proceso de Poisson sería otro porque presenta una intensidad media a = 2 tn/día, diferente a la anterior.

Diferentes a indican procesos poissonianos distintos.

En un proceso aleatorio poissoniano es posible definir variables aleatorias de distinto tipo. Para procesos de este tipo, en esta carpeta, presentaremos una variable aleatoria discreta llamada de Poisson (que cuente la cantidad de éxitos en un intervalo continuo) y una variable aleatoria continua denominada exponencial que veremos en 2.2.4.

Variable aleatoria de Poisson

Es una variable discreta que cuenta la cantidad de “éxitos” que podrían ocu-rrir en un cierto intervalo continuo, durante un proceso de Poisson.

Establecido un intervalo de longitud t en el continuo, la cantidad media espe-rada de ocurrencia de éxitos en ese intervalo es E(X) =  α . t, donde α es la ya vista intensidad media de ocurrencias de éxito en la unidad del continuo.

La esperanza E(x), que simbolizamos con la letra griega λ es el parámetro  de esta distribución.

Si una variable aleatoria discreta X sigue una distribución de Poisson de parámetro λ podemos expresarla en símbolos como X ~ P(l) y la probabilidad P(X= r) de que sucedan r éxitos en un intervalo t dado se calcula mediante la siguiente fórmula:

La probabilidad de una variable aleatoria X que se distribuye en forma de Poisson:

• depende únicamente de la longitud (t) del intervalo considerado,

• es independiente de lo ocurrido en alguno de los intervalos precedentes. Para intervalos de diferente longitud t habrá distintas distribuciones de pro-babilidad, cada una con su propio λ todas dentro de un mismo proceso carac-terizado por α.

Lo particular de esta variable aleatoria es que su varianza también es λ .

Volviendo al ejemplo de la distribuidora mayorista nos planteamos las siguien-tes inquietudes.

• ¿Cuál es la probabilidad de que en dos días de la primera semana de un mes cualquiera se produzca una demanda de 5 toneladas?

(23)

La probabilidad de que en esos dos días la demanda sea de 5 toneladas es de 0,1606.

Con base al λ calculado podemos decir que en esos dos días se espera que haya una demanda de 6 toneladas del producto.

• ¿Cuál es la probabilidad de que en un día y medio de la última semana de un mes cualquiera la demanda sea superior a 2 toneladas.

En este caso, λ = tn/día . 1,5 días = 3 tn Luego:

La probabilidad de que en ese día y medio la demanda supere las 2 tn es 0,8009.

Con base al λ calculado podemos decir que en esos dos días se espera que haya una demanda de 3 toneladas del producto.

5.

Buscar tres ejemplos de la vida real que pudieran constituir un proceso

de Poisson y para cada uno describir la variable involucrada.

2.2.3. Variable aleatoria continua

Existen fenómenos que no permiten ser tratados con modelos de variables aleatorias discretas debido a que los resultados del experimento aleatorio asociado a él sólo son medibles en el conjunto de los números reales. En este caso la variable aleatoria asociada debe ser una variable continua para la cual no se pueden listar puntualmente cada uno de sus valores pero sí con-siderar su recorrido mediante intervalos.

Al ser las variables aleatorias continuas funciones del espacio muestral sobre el espacio de los números reales, el tratamiento de la misma deberá rea-lizarse mediante intervalos, los problemas de probabilidad que las involucran son del tipo P(x ≤ a), P(x ≥ b) o P(a ≤ x ≤ b).

En una variable aleatoria continua, el correlato de la función h(r) de las variables aleatorias discretas es la función f(x) denominada función de densidad  de probabilidad que a diferencia de la h(r) no asigna probabilidades sino que permite calcularlas en intervalos de números reales.

La función de densidad de probabilidad  cumple con las siguientes pro-piedades:

(24)

Los valores de la función f(x) deben ser siempre positivos o 0 para cualquier valor de la variable X.

El área encerrada entre la función –en todo su dominio– y el eje de las absci-sas es 1.

La probabilidad de que la variable aleatoria se encuentre entre dos valores a y b resulta de integrar la función de densidad f(x) entre esos dos límites.

Gráfico 2.10.

En el caso que a coincida con b el área de la región sombreada en el G.2.10. tendría base igual a 0 y el área es 0, lo que también se desprende de la P.3. cuando a y b coinciden en un mismo punto. Es decir, que en una variable ale-atoria continua las probabilidades puntuales son cero.

Una función de densidad de probabilidad es un modelo teórico

proba-bilístico sustentado, en general, por la distribución de una población.

2.2.4. Modelos especiales de variables aleatorias continuas

Como se hiciera mención en el subapartado 2.2.2. las características comunes de algunos fenómenos aleatorios son las que permiten elaborar modelos.

En el caso de las variables aleatorias continuas desarrollaremos dos mode-los especiales de distribución.

Como consecuencia de que las probabilidades puntuales son cero los sucesos “x < a” y “x ≤ a” son idénticos y por lo tanto sus probabilidades son iguales.

(25)

Distribución normal

Un fenómeno que genera típicamente una población con distribución normal es la medición del tiempo requerido para efectuar una misma operación por todos los clientes de una determinada entidad bancaria, bajo el supuesto de que todos deberían tardar el mismo tiempo para realizar dicha operación.

A la hora de medir efectivamente el fenómeno podemos obser var que pre-dominan los clientes que emplearían para hacer la operación un tiempo cer-cano al promedio, sin embargo, algunos son más rápidos y otros más lentos generando una distribución del tiempo como la siguiente.

Gráfico 2.11.

El modelo teórico de la distribución normal de una variable continua x se for-maliza matemáticamente mediante la función f(x) cuya expresión

representada gráficamente es

Gráfico 2.12.

donde µ –la media– y σ  –el desvío estándar– son los parámetros de la distri-bución y para cada par de valores de µ y σ  se tendrá una curva diferente.

Características de la curva normal

La curva que es la representación gráfica de la distribución normal tiene las siguientes características:

(26)

• Es perfectamente simétrica alrededor de µ.

• Es asintótica con el eje de la variable x hacia ±∞, es decir que el 100% de la población queda encerrado entre esos dos límites.

• Como consecuencia de las dos características anteriores la mitad de la población se encuentra entre –∞ y µ y la otra mitad entre µ y +∞ .

Gráfico 2.13.

• Presenta dos puntos de inflexión a una distancia de un desvío estándar a ambos lados de la media.

• Las proporciones de población que quedan comprendidos en secciones de un desvío estándar de amplitud a ambos lados de la media aparecen asen-tadas en el gráfico G.2.14.

Gráfico 2.14.

El siguiente ejemplo, se refiere a un experimento aleatorio sobre una pobla-ción con distribupobla-ción normal, donde la funpobla-ción f(x) que describe esa distribu-ción poblacional es la fundistribu-ción de densidad de probabilidad de la variable ale-atoria involucrada en el experimento.

Ejemplo 

Retomando el caso de los clientes de una entidad bancaria que efectúan una operación determinada, se ha encontrado que el tiempo medio requerido para realizarla es de 130 segundos con un desvío estándar de 43 segundos.

Si se tomara un cliente al azar –experimento aleatorio– se podrían plante-ar las siguientes preguntas: a) ¿cuál es la probabilidad de que esa persona emplee menos de 100 seg. para realizar la operación? o b) ¿cuál es la pro-babilidad de que tarde entre 2 y 3 minutos en realizar la transacción?

Esquematizamos las dos situaciones planteadas en los gráficos 2.15. y  2.16. respectivamente.

(27)

Gráfico 2.15.

Gráfico 2.16.

Y las sendas respuestas son: a. P( x < 100s) = F(100) = 0,2427

b. P(2min< x <3 min) = P(120 s < x < 180 s) = P( x < 180s) – P( x < 120s) = = F(180) – F(120) = 0,8775 – 0,4081 = 0,4694

A los resultados obtenidos puede arribarse por integración analítica de la fun-ción de densidad normal entre los extremos que correspondan o bien utili-zando un programa estadístico (por ejemplo el módulo estadístico de Excel, o los programas SPSS, InfoStat u otro).

Si no se contara con las mencionadas herramientas de cálculo puede uti-lizarse como recurso la tabla de probabilidades acumuladas de la denomina-da distribución normal estándenomina-dar que figura en el Anexo I y cuyas característi-cas, además de las generales descritas anteriormente para cualquier distribución normal, son:

• nombre de la variable normal estándar : Z 

parámetros: mz = 0 y sz = 1

• función de densidad normal estándar:

Para convertir un valor cualquiera x correspondiente al problema real (con dis-tribución normal) a un valor estandarizado z (con el fin de aprovechar la tabla del Anexo I) se utiliza la siguiente fórmula de estandarización:

(28)

Aplicando la distribución normal estándar a la resolución de los ítems ante-riores, resulta

Las diferencias que se detectan al realizar los cálculos con la tabla se deben al redondeo a dos decimales de z que tiene dicha tabla.

6.

a.

Calcular el tiempo máximo que, con una probabilidad de 0,90,

tar-daría en hacer dicha operación un cliente de la entidad bancaria 

tomado al azar.

b.

En relación con la población de clientes observada, si se

considera-ran sólo los clientes que tardaron menos de 130 segundos ¿qué

por-centaje de ellos tardó más de 100 segundos?

Experimento exponencial 

El experimento exponencial se define dentro de un proceso de Poisson y en consecuencia la variable continua exponencial está íntimamente relacionada con la variable discreta de Poisson.

Mientras el rol de la variable aleatoria de Poisson es contar la cantidad de éxitos a lo largo de un intervalo continuo, la variable aleatoria exponencial mide, a partir del último éxito ocurrido, la longitud del continuo hasta la ocu-rrencia del siguiente éxito.

Con el último éxito concluye el experimento exponencial lo que determina su carácter de efímero (se desarrolla sólo entre dos éxitos), por lo que fijado un cierto intervalo t del continuo a partir del último éxito sólo podrían ocurrir dos sucesos aleatorios:

• que la variable exponencial mida la ocurrencia del siguiente éxito antes de transcurrido t es decir x < t , o

• que la variable exponencial mida la ocurrencia del siguiente éxito después de transcurrido t es decir x > t .

Los sucesos

x < t 

y

x > t 

son los dos únicos sucesos aleatorios que

pue-den imaginarse pue-dentro de un experimento exponencial y por lo tanto son

complementarios y como tales, mutuamente excluyentes.

(29)

La primera consecuencia de lo expresado anteriormente es que no hay suce-  sos compuestos en un experimento exponencial porque el único suceso con-cebible {x < t} I {x > t}

es un suceso imposible {x < t} I {x > t} = Ø y por lo tanto su probabilidad es nula

P({x < t} I {x > t}) = P( Ø ) = 0

La segunda consecuencia es que no hay probabilidades condicionales pues-to que no hay posibilidad de particionar la población para definir un suceso ale-atorio que represente la condición porque, como razonamos anteriormente, el experimento es efímero y no hay una colección de datos que permita descri-bir una población, por lo tanto no existen poblaciones exponenciales .

Formalmente, y asignando arbitrariamente a uno de los dos sucesos posi-bles el rol de condición, se tiene:

Al no haber población, no podemos contar inicialmente con una función de densidad exponencial procediendo de forma similar a como se obtuvo, por ejemplo, la función de densidad normal.

Usaremos un camino distinto aprovechando el vínculo entre las distribu-ciones de Poisson y exponencial dentro de un mismo proceso de Poisson caracterizado por α.

Para ello, definiremos un suceso aleatorio S: que transcurra todo un cierto  intervalo t sin que ocurra éxito, cuya probabilidad pueda calcularse tanto utili-zando la variable aleatoria de Poisson como la variable aleatoria exponencial. P(que no ocurra éxito a lo largo de t) = P(XPoisson = 0) = P(xexponencial > t)

Donde: P(XPoisson= 0) = e-a.t = P(xexponencial> t)

Luego, las probabilidades de los únicos sucesos posibles de un experimento exponencial resultan:

P(x > t) = e-α.t

y aplicando la propiedad de la probabilidad de sucesos complementarios P(x < t) = 1 - P(x > t) = 1 - e-α.t

se observa que esta expresión corresponde a la función de distribución acu-mulada, luego se tiene que

(30)

y derivándola se obtiene la función de densidad de probabilidad f(x) F´ (x) = f(x)

La función de densidad que sintetiza al modelo es entonces

Cuya representación gráfica es G.2.17.

Gráfico 2.17.

El parámetro de la distribución exponencial es el mismo

que

caracte-riza al proceso de Poisson.

La esperanza de esta variables es:

y la varianza

 Aplicaciones de la distribución exponencial

Caso A. Como distribución de los tiempos de espera , la exponencial puede aplicarse a problemas de rotación de inventario donde el experimento comien-za a partir de un pedido (éxito) y luego la variable recorre los valores aleato-rios del tiempo en que puede ocurrir el siguiente (éxito) pedido. A continuación se desarrolla un ejemplo.

Una distribuidora mayorista comprobó que cada 5 días hábiles recibe en pro-medio 3 pedidos de embarque de cierto artículo (a = 3 pedidos/5 días = 0,6 pedidos/día).

(31)

1- Teniendo en cuenta que el tiempo para reponer un embarque en depósito es de 1 día, despachado un pedido ¿con qué probabilidad el siguiente lle-gará después de ese lapso?

2- Siendo el tiempo medio esperado entre pedidos: E(X) = 1/a = 1,67 días, ¿con qué probabilidad el siguiente pedido será antes de lo esperado?

3- Con una probabilidad de 0,90 ¿de cuánto tiempo se dispone entre dos pedidos?

despejando t se tiene t = ln 0,90 / -0,6 = 0,18 días

4- Habiendo despachado un pedido, ¿con qué probabilidad el siguiente lle-gará entre 1 y 2 días después?

Caso B. La distribución exponencial también puede aplicarse a problemas de fiabilidad o plazo de servicio de los ar tículos en circulación, vida útil de mate-riales o de mercancías perecederas, donde la variable recorre los valores ale-atorios de vida útil de los mismos hasta quedar fuera de ser vicio. Aquí no hay  dos éxitos pues el experimento comienza con el inicio del servicio y termina en la falla, que es el único éxito. A continuación se analiza un ejemplo.

Para ciertas lámparas de bajo consumo, su fabricante midió que la vida media de funcionamiento sin fallo es de 8.000 horas. Si se instalara una cual-quiera de esas lámparas.

1- ¿Cuánto tiempo se espera que dure?

Dentro del experimento aleatorio, que consiste en tomar al azar una de las lámparas e instalarla, la media observada con anterioridad se convierte en un media esperada E(X) = 8.000 h.

2- ¿Con qué probabilidad durará más de 8.000 h? α = 1/E(X) = 1/8000 = 0,000125

(32)

3- ¿Cuántas horas de funcionamiento sin falla se puede garantizar, con una probabilidad de 0,90?

7.

Tomando el ejemplo ya trabajado en la distribución Poisson, una

dis-tribuidora mayorista comprobó que, en las primeras semanas de cada 

mes, la cantidad media demandada de un determinado producto es de

3 toneladas diarias. Luego de la última tonelada demandada, para la 

misma época del mes

a.

¿Cuántos días se espera que transcurran hasta el siguiente pedido de

una tonelada?

b.

Calcular la probabilidad de que el siguiente pedido de una tonelada 

ingrese luego de transcurridos 2 días.

c.

Calcular la probabilidad de que el pedido se realice antes de que pase

un día y medio.

Figure

Actualización...

Referencias

Actualización...

Related subjects :