• No se han encontrado resultados

Casos favorables sobre casos posibles

N/A
N/A
Protected

Academic year: 2021

Share "Casos favorables sobre casos posibles"

Copied!
15
0
0

Texto completo

(1)

Casos favorables sobre casos posibles

Matías Carrasco 26 de febrero de 2018

1.

Introducción

Seguramente si te pidieran definir lo que es una pro-babilidad dirías

probabilidad= número de casos favorables número de casos posibles . (1) Por ejemplo, si lanzamos una moneda la probabilidad de que salga cara es 1/2 pues se trata de un caso favo-rable en dos posibles, o si lanzamos un dado la proba-bilidad de que salga un seis es 1/6 pues solo nos sirve una de seis posibilidades.

La definición (1) está basada en lo que se conoce co-mo el principio de indiferencia. El misco-mo afirma que si no tenemos razones por las cuales sospechar que un resultado particular del experimento tienen más chan-ces de ocurrir que los demás, entonchan-ces todos los resul-tados deben tener la misma probabilidad de ocurrir. Se debe tener cierto cuidado ya que el principio de indiferencia no se aplica en todas las situaciones. Si lanzamos dos dados y miramos la suma de los resul-tados, podríamos decir que los casos posibles son los números del 2 al 12, pero parece menos probable que salga un 2 a que salga un 7. En este caso sería mejor aplicar el principio de indiferencia a los pares de nú-meros que representan los resultados de cada dado. Esto lo veremos en detalle más adelante.

Existe una definición general de probabilidad que abarca a la definición (1) como caso particular. Sin embargo, la ecuación (1) aparece con mucha frecuen-cia y es muy útil en una gran variedad de situaciones. Vale la pena pasar un poco de tiempo con ella, así ganamos intuición sobre algunas propiedades básicas del azar, y de paso nos preparamos para entender me-jor la definición general.

En este capítulo vamos a partir de la definición de probabilidad, dada por el principio de indiferencia, y vamos a desarrollar algunos conceptos importantes. Veremos algunos cálculos explícitos que dan como re-sultado probabilidades que chocan un poco con nues-tra intuición.

2.

El espacio muestral

Un experimento aleatorio es aquel en el cuál el re-sultado no está completamente determinado por las condiciones iniciales del mismo, si no que el resulta-do del experimento puede ser cualquiera de un cierto conjunto de resultados posibles. Un ejemplo clásico es el lanzamiento de una moneda, cuyos dos resultados posibles son cara o número.

El espacio muestral asociado a un experimento es el conjunto de todos los resultados posibles. Es costum-bre denotar al espacio muestral por la letra griega Ω (omega mayúscula). En el caso del lanzamiento de una moneda Ω= {C, N}, donde C significa cara y N número. Encontraremos vários ejemplos a lo largo del curso de espacios muestrales, pero es importante te-ner presente que los elementos de Ω pueden ser de cualquier tipo, por ejemplo números, personas, boli-tas, conjuntos de números, etc.

Los elementos del espacio muestral, es decir los re-sultados posibles del experimento, se denotan usual-mente por la letra griega ω (omega minúscula) y se llaman eventos simples o elementales. A partir de ellos podemos construir diversos eventos posibles.

3.

Eventos

Un evento es una subcolección de resultados posibles de un experimento. Dicho en lenguaje matemático, un evento A es un subconjunto del espacio muestral Ω. Hay dos eventos particularmente sencillos: el evento imposible A = ∅ que significa que nada ocurre y el evento seguro A = Ω que significa que algo ocurre. La letra ∅ representa al conjunto vacío, esto es, un conjunto que no tiene elementos1.

(2)

Ejemplo: lanzando dos dados

Usemos el siguiente ejemplo como guía para las defi-niciones que siguen. Supongamos que nuestro experi-mento consiste en lanzar dos dados, uno rojo y el otro verde, y observar el resultado de cada dado.

El espacio muestral consiste en todos los pares orde-nados de números entre uno y seis. Es decir que cada evento simple es de la forma ω= (dr, dv) en donde dr

es un número entre uno y seis que indica el resultado del dado rojo y dv el del dado verde.

En símbolos, podemos decir que

Ω= ω = (dr, dv) : dr y dv están en {1, . . . , 6}

Podemos visualizar Ω en una grilla de 6 × 6 en el cual la primer coordenada indica el resultado del dado rojo y la segunda el del dado verde.

(1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) 1 1 2 2 3 3 4 4 5 5 6 6

El número de resultados posibles, o el cardinal de Ω como lo llamaremos más comúnmente, lo denotamos por |Ω|. En este caso es 36.

Un evento posible es por ejemplo

A= {el dado rojo es mayor que el dado verde}.

Es más cómodo escribir este evento de la siguiente forma

A= {(dr, dv) : dr > dv}

y es fácil ver que consiste en la colección de eventos simples marcados en rojo en el diagrama de abajo.

(1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) 1 1 2 2 3 3 4 4 5 5 6 6

El cardinal de A es en este caso | A| = 15, por lo que la probabilidad de A es 15/36 ≈ 0,4167. Muchas veces las probabilidades se expresan en porcentajes, y para esto hace falta simplemente multiplicar por 100. Por ejemplo, decimos que A tiene 41,67 % de chances de ocurrir.

Otro ejemplo es el evento

B= {la suma es par} que podemos escribir en símbolos como

B = (dr, dv) : dr + dv = ˙2 .

Los eventos simples que componen el evento B se muestran rayados en rojo en el diagrama de abajo.

(1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) 1 1 2 2 3 3 4 4 5 5 6 6

El cardinal de B es |B| = 18, por lo que la probabilidad de B es 18/36= 0,5.

Por lo general podemos definir un evento de dos for-mas distintas:

Especificando sus elementos. Esto es, escribien-do uno por uno los eventos simples que lo com-ponen. Por ejemplo, podríamos haber definido el evento A escribiendo

(3)

A través de alguna condición que sus elementos deben cumplir. De ésta segunda manera fue que definimos los eventos A y B en el ejemplo ante-rior.

Cuando realizamos un experimento y el resultado ob-servado es un cierto evento simple ω del espacio mues-tral Ω, decimos que el evento A ha ocurrido si el evento simple ω pertenece al evento A. Esto último lo escri-bimos ω ∈ A.

Nos será útil más adelante disponer de una notación especial para el conjunto de todos los eventos de un experimento. Es así que denotaremos

E= A : A es un subconjunto de Ω

al conjunto de todos los eventos. La notación estándar para indicar que A es un subconjunto de Ω es A ⊂ Ω. Como veremos más adelante, el conjunto E de todos los eventos posibles es muchos más grande que el es-pacio muestral Ω. Su cardinal es | E| = 2|Ω|. En el

ejem-plo del lanzamiento de dos dados, el cardinal de Ω es 36 y el cardinal de E es 236que es del orden de 7×1010.

4.

Probabilidad como una función

A cada evento le podemos asociar una probabilidad. La forma en la que lo haremos en este capítulo da lugar a lo que se conoce como la distribución uniforme discreta. Es un caso particular de la definición general de probabilidad que veremos más adelante, pero nos va a ser más que suficiente por un buen rato.

Se trata simplemente de escribir de forma un poco más precisa la ecuación (1) que introdujimos al prin-cipio del capítulo.

Supongamos que estamos interesados en un determi-nado experimento aleatorio cuyo espacio muestral es Ω. Vamos a suponer que Ω es finito en todo lo que sigue.

Si no tenemos razones para sospechar que algún re-sultado del experimento es más probable que otro, entonces todos los resultados posibles deben tener la misma probabilidad. Esto es lo que llamamos casos equiprobables.

Si cada resultado ocurre con igual chance que los de-más, la probabilidad de un evento será naturalmente proporcional a la cantidad de elementos de ese evento

P (A) ∝ | A|.

Si además, queremos que las probabilidades sean nú-meros entre cero y uno, la probabilidad de un evento Aestará dada por

P (A)= | A|

|Ω|. (2)

Si comparamos esta definición con la ecuación (1), ve-mos que | A| representa el número de casos favorables y que |Ω| representa el número de casos posibles. Es interesante observar que las probabilidades así definidas determinan una función, cuyo dominio es el conjunto E de todos los eventos de Ω, a valores en [0, 1]. Esto último simplemente quiere decir que 0 ≤ P(A) ≤ 1 para todo evento A ∈ E. Toda esta frase se suele resumir escribiendo

P : E → [0, 1].

La ecuación (2) nos dice cuál es la definición de P(A) para cualquier evento A. Lo único que debemos hacer es contar cuántos elementos tiene A y dividirlo por la cantidad de elementos de Ω.

5.

Operaciones con eventos

Existen varias operaciones básicas que podemos ha-cer con eventos dados, y entender bien lo que signifi-can será crucial para el resto del curso.

El complemento

Siempre que tenemos un evento A podemos definir el evento complementario de A que consiste en todos los eventos simples que no pertenecen a A. Este evento lo denotaremos por

Ac = {ω ∈ Ω : ω < A}.

Observar que es lo mismo decir que A no ha ocurrido a decir que Ac ha ocurrido.

Tomar complementos equivale a la negación lógica, por lo que si un evento ha sido definido a través de una condición que deben cumplir sus elementos, su complemento se puede definir usando la negación de la condición.

Por ejemplo, usando los eventos A y B definidos en la sección anterior para el lanzamiento de dos dados, vemos que

(4)

y

Bc = (dr, dv) : dr + dv , ˙2 .

La intersección

Si tenemos dos eventos, A y B, nos puede interesar un tercer evento C que exprese la condición de que ambos A y B ocurran simultáneamente. Este evento C se llama la intersección de A y B y se escribe

C = A ∩ B = ω ∈ Ω : ω ∈ A y ω ∈ B .

En el ejemplo de los dos dados, la intersección entre Ay B es el evento

A ∩ B = (dr, dv) : dr > dv y dr + dv = ˙2 .

Consiste de los elementos simples indicados con raya-do rojo en el diagrama de abajo.

(1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) 1 1 2 2 3 3 4 4 5 5 6 6

Notar que el cardinal es | A ∩ B| = 6, y por lo tanto su probabilidad es 6/36 = 1/6 ≈ 0,1667. Esta probabili-dad no es igual al producto de las probabiliprobabili-dades de A y B, el cual es 15/36 · 18/36 ≈ 0,2083. Es decir, la probabilidad de que A y B ocurran simultáneamente no es igual al producto de las probabilidades de A y B. Más adelante estudiaremos mejor cuándo podemos calcular la probabilidad de una intersección haciendo el producto de las probabilidades de cada evento. Cuando dos eventos no tienen elementos en común, decimos que son incompatibles o disjuntos y escribimos A ∩ B = ∅. En palabras, ésto quiere decir que si A ocurre, B no puede ocurrir, y viceversa.

La unión

Otra operación que podemos hacer cuando dispone-mos de dos eventos A y B, es la de considerar un ter-cer evento C que expresa la condición de que A o B ocurran. Debemos entender la conjunción “o” en el

sentido amplio, es decir una cosa o la otra o ambas. Este evento se llama la unión de A y B y se escribe

C= A ∪ B = {ω ∈ Ω : ω ∈ A o ω ∈ B}.

En el ejemplo del lanzamiento de dos dados, la unión es el evento

A ∪ B = (dr, dv) : dr > dv o dr + dv = ˙2

y se indica con los elementos simples rayados en rojo en el diagrama. (1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) 1 1 2 2 3 3 4 4 5 5 6 6

Notar que el cardinal es | A ∪ B| = 27, por lo que la probabilidad de la unión es en este caso 27/36= 0,75. Observar que esta probabilidad no es igual a la suma de las probabilidades de A y B, lo cual es 15/36 + 18/36 ≈ 0,9167. En general, la probabilidad de que A o B ocurra no es igual a la suma de las probabilidades de A y B. Más adelante veremos cuándo ésto es cierto.

Las leyes de De Morgan

Las leyes de De Morgan son dos reglas útiles que permiten pasar de uniones a intersecciones tomando complementos.

Complemento de la unión: El complemento de la unión de dos eventos A y B es la intersección de sus complementos. En símbolos

(A ∪ B)c = Ac∩ Bc

A B

(5)

La demostración es muy sencilla. Notar que cuan-do se quiere probar que cuan-dos conjuntos son igua-les, se debe probar que todo elemento del prime-ro es también un elemento del segundo, y vice-versa.

Sea ω un elemento de(A ∪ B)c. Esto quiere decir que ω no está en A ∪ B. O lo que es lo mismo, ω no está ni en A ni en B. Pero esto es exactamente la condición para que ω esté en Ac ∩ Bc.

Reíprocamente, si ω ∈ Ac ∩ Bc, entonces ω no

está ni en A ni en B, por lo que no está en A ∪ B. Es decir, ω ∈(A ∪ B)c.

Complemento de la intersección: El comple-mento de la intersección de dos eventos A y B es la unión de sus complementos. En símbolos

(A ∩ B)c = Ac∪ Bc

A B

Para demostrarla podemos usar la regla anterior apli-cada a los eventos Ac y Bc. Entonces

(Ac∪ Bc)c = (Ac)c∩(Bc)c = A ∩ B,

ya que tomar complementos dos veces es como no hacer nada. Para terminar, basta tomar complementos en la igualdad anterior.

6.

Reglas básicas de conteo

Contar la cantidad de elementos de un conjunto A puede en la práctica ser bastante difícil. Por eso enun-ciamos en esta sección algunas reglas básicas de con-teo que nos serán de gran utilidad. Lo que precisa-remos para nuestro curso es realmente mínimo, y no es necesario profundizar demasiado en las diferentes técnicas de conteo que se pueden encontrar en varios libros.

Lo más difícil para algunos es saber cuándo debemos multiplicar y cuándo debemos sumar. Justamente de eso se tratan las dos reglas básicas del conteo.

La primer regla se conoce como regla de la suma y expresa lo siguiente.

Regla de la suma:

Supongamos que A y B son dos eventos disjun-tos, entonces | A ∪ B| = | A| + |B|.

Aplicando esta regla repetidas veces se ve que tam-bién vale para una cantidad cualquiera de eventos. Es decir, si A1, . . . , An son n eventos disjuntos dos a dos,

lo cual significa que Ai ∩ Aj = ∅ para todo i , j,

entonces

| A1∪ · · · ∪ An|= |A1|+ · · · |An| .

La regla puede enunciarse con palabras de la siguiente manera:

si hay n(A) posibilidades para A y, distintas de éstas, n(B) posibilidades para B, entonces hay n(A) + n(B) posibilidades para A o B.

Lo importante es que ninguna de las posibilidades pa-ra A lo sea papa-ra B y viceversa. Esta es la condición de que los eventos sean disjuntos. Esta regla es muy útil cuando podemos realizar un conteo separando por ca-sos que son incompatibles.

La segunda regla es la regla del producto. Para enun-ciarla correctamente debemos recordar la definición de producto cartesiano de dos conjuntos. Si A y B son dos conjuntos, no necesariamente incluidos en un mis-mo espacio muestral, el producto cartesiano de A y B es la colección de todos los pares ordenados con la primer coordenada en A y la segunda en B. Lo deno-tamos por

A × B= (a, b) : a ∈ A y b ∈ B .

En el ejemplo del lanzamiento de los dos dados, pode-mos escribir el espacio muestral Ω usando el producto cartesiano como

Ω= {1, . . ., 6} × {1, . . ., 6}.

Se puede definir de forma similar el producto carte-siano de n conjuntos A1, . . . , An como el conjunto de

todas las secuencias ordenadas de tamaño n en donde la i-ésima coordenada pertenece a Ai. Es decir

A1× · · · × An = {(a1, . . . , an) : ai ∈ Ai} .

(6)

Regla del producto:

Sean A y B dos conjuntos cualesquiera. Entonces | A × B| = | A| · |B|.

La regla se puede aplicar análogamente al producto cartesiano de n conjuntos, esto es

| A1× · · · × An|= |A1| × · · · × | An| .

En este caso también podemos enunciar la regla con palabras:

Si hay n(A) posibilidades para A y n(B) dades para B, entonces hay n(A) · n(B) posibili-dades para A y luego B.

Es importante aplicar esta regla cuando el número de posibilidades para A es independiente del número de posibilidades para B. Con esto queremos decir que el número de posibilidades para B es siempre el mis-mo, independientemente de qué posibilidad se haya elegido para A. Esto es así porque cuando las posibi-lidades son independientes, A y luego B se representa correctamente por el producto cartesiano.

No hay que confundir el y luego que aparece en la regla del producto con el y que parece en la definición de intersección. En el contexto de la regla del producto, se debe interpretar como una operación en dos eta-pas. Primero se elige una posibilidad para A y luego se elige una posibilidad para B.

La última regla que mencionaremos aquí se llama la regla de la división. En cierto sentido es como leer la regla del producto a la inversa.

Recordar que una correspondencia k a 1 de A a B es una función

f : A → B

tal que todo elemento b ∈ B tiene exactamente k pre-imágenes en A. Cuando k = 1 se dice que la corres-pondencia es biyectiva.

Regla de la división:

Si existe una correspondencia k a 1 de A a B, entonces

|B| = | A| k .

Notar que la regla de la división es exactamente la regla del producto leída a la inversa.

7.

Permutaciones y combinaciones

La pregunta que responderemos en esta sección es ¿de cuántas formas podemos elegir k ele-mentos de una lista de n?

Veremos dos situaciones: cuando el orden importa y cuando el orden no importa.

Consideremos una lista

{∗1, . . . , ∗n} (3)

de n elementos distintos. Los elementos pueden ser de cualquier tipo, eso no es relevante ahora. Notar que la lista original (3) no tiene ningún orden pre-establecido, lo único que importa es que los elemen-tos son todos distinelemen-tos y los hemos numerado arbitra-riamente de 1 a n para poder distinguirlos. Es como ponerle un nombre a cada uno.

La cuestión del orden va a ser relevante para nosotros si al elegir k de ellos queremos arreglarlos en una lista ordenada o no.

Permutaciones: el orden importa

Supongamos primero que el orden es importante. En este caso queremos formar una lista ordenada

( ? |{z} 1 , ? |{z} 2 , . . . , ? |{z} k −1 , ? |{z} k )

en donde hay un primer elemento, un segundo ele-ment, etc. Por lo general ponemos paréntesis curvos para indicar que el orden en una lista es importante. Para contar de cuántas formas posibles podemos ha-cer esto podemos aplicar la regla del producto.

( ? |{z} n posibilidades , ? |{z} n−1 posibilidades , . . . , ? |{z} n−k+1 posibilidades )

(7)

El número total de listas ordenadas de tamaño k formadas a partir de un conjunto de n elementos es

(n)k = n · (n − 1) · (n − 2) · · · (n − k + 1)

| {z }

k factores

para 1 ≤ k ≤ n.

Podemos escribir este número de forma más compacta usando factoriales

(n)k =

n! (n − k)!.

Podemos extender la definición al caso k = 0 ponien-do (n)0= 1.

En el caso especial en el cual k = n obtenemos to-das las formas posibles en que podemos ordenar un conjunto de n elementos. En este caso escribimos sim-plemente n! en lugar de (n)n.

Combinaciones: el orden no importa

Supongamos ahora que el orden no importa. Quere-mos entonces formar listas no ordenadas

{ ?, . . . , ? | {z }

kelementos

}

de tamaño k. En este caso escribimos la lista entre llaves para indicar que el orden no es relevante. Imaginemos que hemos elegido una lista no ordena-da de k elementos. Podemos ordenarlos de k! formas distintas. Además, si las listas no ordenadas son dife-rentes, también lo serán las listas ordenadas que así formemos. Esto quiere decir que existe una correspon-dencia k! a 1 de las listas ordenadas a las listas no ordenadas.

Por la regla de la división, tenemos que el número total de listas no ordenadas que podemos formar es entonces (n)k/k!. Este número se llama combinaciones

de n en k y lo escribiremos nk.

El número total de listas no ordenadas de tama-ño k formadas a partir de un conjunto de n ele-mentos es n k ! = (n)k k! = n! k!(n − k)! para 0 ≤ k ≤ n.

Una propiedad interesante de las combinaciones per-mite calcularlas de forma inductiva. La misma afirma que n k ! = n − 1 k −1 ! + n − 1 k ! .

Se puede verificar con un simple cálculo a partir de la definición.

Por ejemplo, sabiendo que 32

= 3 y 3 1  = 3 deducimos que 42 = 6.

Utilizando esta relación podemos construir lo que se conoce como el triángulo de Pascal. Las primeras ocho filas del mismo están representadas en el diagrama a continuación. Los números en una misma fila son las combinaciones con n fijo, variando k desde 0 a n.

1 1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1 1 6 15 20 15 6 1 1 7 21 35 35 21 7 1

De todos modos, los números combinatorios crecen muy rápido y se vuelve imposible en la práctica calcu-larlos. Más adelante veremos una aproximación muy buena de n! que nos servirá para calcular, al menos de forma aproximada, números combinatorios. Los números combinatorios aparecen también en el binomio de Newton que establece una fórmula para cal-cular la potencia de una suma de dos números. Si x e y son dos reales cualesquiera, entonces

(x + y)n= n X i=0 n i ! xiyn−i.

Dos casos particulares de ésta fórmula serán impor-tantes más adelante.

(8)

obtenemos la igualdad 2n= n X i=0 n i ! . (4)

Esta se puede interpretar de la siguiente manera. Cada número combinatorio nk representa la cantidad de subconjuntos (listas no ordenadas) de tamaño k que podemos formar de un conjunto de n elementos. Si sumamos todos estos números desde 0 (que repre-senta al conjunto vacío ∅) hasta n (que reprerepre-senta al conjunto entero) obtenemos la cantidad total de sub-conjuntos que tiene un conjunto de n elementos. Notar que aquí hemos aplicado la regla de la suma.

Sin embargo, podemos calcular la cantidad de subcon-juntos de un conjunto de n elementos de otra forma. Podemos formar un subconjunto eligiendo elemento a elemento si estará o no en el mismo. Como cada ele-mento tiene dos posibilidades, estar o no estar, tene-mos en total 2 · 2 · · · 2= 2nposibilidades. La igualdad (4) simplemente establece la equivalencia de las dos formas de contar la cantidad de subconjuntos. El segundo caso es cuando x= p e y = 1 − p. En este caso obtenemos la igualdad

1= n X i=0 n i ! pi(1 − p)n−i.

La interpretación de esta ecuación la postergamos pa-ra más adelante.

8.

Más ejemplos

Antes de seguir indagando sobre las propiedades del azar, haremos un paréntesis para explicar con algunos ejemplos más cómo se usan las reglas de conteo.

Ejemplo: agrupando de a pares

Disponemos de 2n objetos distintos. ¿De cuántas ma-neras distintas los podemos agrupar en n pares? Imaginemos a los 2n objetos dispuestos en una mesa rectangular que tiene n asientos de cada lado.

n

Si distribuímos los 2n objetos en los asientos de la mesa, obtenemos una agrupación en pares en donde cada pareja consiste de dos asientos enfrentados.

Supongamos que los asientos están númerados del 1 al 2n de forma arbitraria. Si distinguimos qué objeto se coloca en qué asiento, tenemos (2n)! formas distintas de elegir una disposición particular.

Si intercambiamos de lugar dos objetos que estén en asientos enfrentados, obtenemos la misma división en pares. Esto se puede hacer de 2n formas distintas, ya que hay n pares de asientos enfrentados y dos posibi-lidades (intercambiar o no) para cada par.

Lo mismo ocurre si intercambiamos un par de asien-tos enfrentados por otro par. Esto equivale a ordenar los pares de asientos enfrentados, y como hay n en total, esto se puede hacer de n! formas distintas.

Concluimos entonces que existen (2n)! 2nn!

formas distintas de agrupar en pares 2n objetos dis-tintos. Dejamos como ejercicio verificar qué reglas de conteo hemos usado.

Podemos aplicar este cálculo a los sorteos de cruces en copas de fútbol. Si X e Y son dos equipos particulares entre 2n equipos que se cruzarán de a pares para jugar una fase de play-offs, y si suponemos que el sorteo se realiza al azar de modo que todas las formas de agruparlos en cruces son equiprobables, entonces la probabilidad de que X se cruce con Y es

(2(n − 1))! 2n−1(n − 1)! , (2n)! 2nn! = 1 2n − 1.

(9)

rivales restantes al azar, y solamente el rival Y cuenta como caso favorable.

Si nos interesa calcular la probabilidad de que se den dos cruces particulares, X1con Y1y X2 con Y1,

enton-ces la respuesta es (2(n − 2))! 2n−2(n − 2)! , (2n)! 2nn! = 1 (2n − 1)(2n − 3).

También podríamos haber llegado de forma más fácil a esta respuesta viendo que hay 2n−1 formas de elegir el rival de X1, y por cada una de estas hay 2n−3 formas

de elegir el rival de X2.

Supongamos que de los 2n equipos hay n “grandes” y n“chicos”. ¿Cuál es la probabilidad de que los grandes no se crucen entre ellos?

Llamemos A al evento “los grandes no se cruzan en-tre ellos”. Observar que podemos construir los agru-pamientos de a pares en los cuál los grandes no se cruzan de la siguiente manera. Primero establecemos un orden fijo de los n grandes de forma arbitraria, y luego ordenamos los chicos. El primero se cruza con el primero, el segundo con el segundo, etc. Al variar los órdenes posibles de los equipos chicos, obtenemos todas las formas posibles de cruzar equipos grandes con equipos chicos.

los grandes fijos

los chicos varian Luego | A| = n!. Es decir que

P (A)= n!, (2n)! 2nn! =

2nn!2 (2n)!.

Por ejemplo, la probabilidad de que esto ocurra en octavos de final (n= 8) es 128/6435 ≈ 0,0199, en cuar-tos de final (n= 4) es 8/35 ≈ 0,2286, y en semifinales (n = 2) es 2/3 ≈ 0,6667. Notar que en semifinales es más probable que los grandes no se crucen, ya que un sólo cruce de tres posibles es favorable a tal situación. Observar también que estas probabilidades son más difíciles de calcular por otros métodos que las dos an-teriores.

Ejemplo: coincidencias

Ana y Beto son dos personas que no se conocen y vi-ven en la misma ciudad de n habitantes. Ambos tienen k conocidos en la ciudad. ¿Cuál es la probabilidad de

que no tengan conocidos en común? En la pregunta se asume implícitamente que los conjuntos de conoci-dos, tanto de Ana como de Beto, pueden ser cualquier subconjunto de habitantes de la ciudad y que todos tie-nen la misma probabilidad. Naturalmente, para que la pregunta no sea trivial debemos suponer que n > 2k. Es instructivo antes de hacer cálculos intentar adivi-nar si esta probabilidad es chica, moderada o gran-de. Por ejemplo, si la ciudad es Montevideo con n = 1 500 000 y Ana y Beto tienen k = 700 conocidos, ¿se-rá más bien cercana a 1 %, 25 %, 50 %, 75 %, ó 99 %? En este ejemplo veremos que en muchos problemas de conteo una astucia o “truquito” puede simplificarlo enormemente. El truco en este caso consiste en ima-ginarnos que numeramos los habitantes de la ciudad de forma tal que los k primeros son los conocidos de Ana. Luego basta elegir al azar los conocidos de Beto y ver si hay coincidencias.

conocidos de Ana desconocidos de Ana habitantes de la ciudad

¿De cuántas formas distintas podemos elegir los cono-cidos de Beto? La respuesta es simple, debemos dar una lista no ordenada de tamaño k construida a par-tir de los n habitantes de la ciudad. Como vimos en la sección anterior esto se puede hacer de nk maneras distintas.

¿De cuántas formas distintas podemos elegir los co-nocidos de Beto entre los no coco-nocidos de Ana? Ra-zonamos igual que en la pregunta anterior salvo que en este caso debemos elegir a partir de los n − k habi-tantes desconocidos por Ana. Es decir n−kk .

Luego, la probabilidad p de que Beto y Ana no tengan conocidos en común es p= n − k k ! , n k !

Si la ciudad es razonablemente grande, las combina-ciones son difíciles de calcular. Este es un problema frecuente en probabilidad, así que aprovechamos este ejemplo para mostrarles un método con el cual pode-mos aproximar esta probabilidad.

Usando la fórmula de las combinaciones con factoria-les, podemos escribir esta probabilidad como

(10)

Este cociente de factoriales lo podemos escribir como (n − k)! (n − 2k)!· (n − k)! n! , que se reduce a (n − k) · · · (n − 2k + 1) · 1 n · · ·(n − k + 1). Podemos re-escribir este último como

k −1 Y i=0 (n − i − k) · k −1 Y i=0 1 n − i = k −1 Y i=0 n − i − k n − i = k −1 Y i=0 1 − k n − i ! .

He aquí otro truco ingenioso: siempre que tenemos un producto podemos pasarlo a una suma tomando logaritmos. Si tomamos logaritmos llegamos a

log(p) = log * , k −1 Y i=0 1 − k n − i ! + -= k −1 X i=0 log 1 − k n − i ! . Recordar que log(1 + x) ≈ x (5) cuando x es chico.

Si el tamaño de la ciudad n es mucho más grande que 2k (esto lo escribimos n  2k), podemos usar (5) para obtener log(p) ≈ − k −1 X i=0 k n − i.

Además, como n es muy grande comparado con i, podemos suponer que n−i ≈ n para todos los términos de la suma, de donde log(p) ≈ −k 2 n, o lo que es equivalente p ≈ e−k2/n.

Para apreciar esta fórmula, supongamos que Ana y Beto viven en Montevideo, es decir n= 1 500 000 y que tienen k = 700 conocidos. Entonces p ≈ 0,72. Dicho de otro modo, hay aproximadamente 28 % de chances de que Ana y Beto tengan un conocido en común. ¿Coincide este número con tu respuesta intuitiva que diste al principio del ejemplo?

Ejemplo: el problema de los cumpleaños

Imaginemos un grupo de n personas. ¿Cuál es la pro-babilidad de que al menos dos de ellas cumplan años el mismo día? Por ejemplo, cuál es tu pronóstico si n = 23 la cantidad de personas en un partido de fút-bol contando al juez.

Llamemos pna esta probabilidad que ciertamente

de-pende de la cantidad de personas n. Vamos a supo-ner que los años tienen 365 días (no consideramos los años bisiestos) y que una persona tiene igual chances de cumplir años en cualquiera de estos días.

Numeramos a las personas de 1 a n de forma arbi-traria, simplemente con el objetivo de distinguirlas. El total de posibilidades distintas para elegir los cum-pleaños de las n personas es entonces

365 |{z} primer persona · 365 |{z} segunda persona · · · 365 |{z} n-ésima persona = 365n

pues hay 365 posibilidades para la primer persona, 365 posibilidades para la segunda, etc.

Es más fácil calcular la probabilidad de que no haya dos personas que cumplan el mismo día. Es decir, si A es el evento “al menos dos personas cumplen el mismo día”, entonces pn= P (A) = | A| |Ω| = |Ω| − | Ac| |Ω| = 1 − P (A c)

donde Ac es el evento “todas las personas cumplen en

días distintos”.

¿De cuántas formas podemos elegir los cumpleaños de las n personas de modo tal que todas cumplan en días distintos? La respuesta es fácil: tenemos 365 po-sibilidades para la primer persona, una vez elegido el cumpleaños de la primer persona tenemos 364 po-sibilidades para la segunda, y así sucesivamente. Es decir 365 |{z} primer persona · 364 |{z} segunda persona · · ·(365 − n + 1) | {z } n-ésima persona = (365)n. Entonces pn= 1 − (365)n 365n .

(11)

n pn n pn n pn n pn n pn 2 0,0027 7 0,0562 12 0,1670 17 0,3150 22 0,4757 3 0,0082 8 0,0743 13 0,1944 18 0,3469 23 0,5073 4 0,0163 9 0,0946 14 0,2231 19 0,3791 24 0,5383 5 0,0271 10 0,1169 15 0,2529 20 0,4114 25 0,5687 6 0,0404 11 0,1411 16 0,2836 21 0,4437 26 0,5982

Notar que cuando n = 23 es más probable que al menos dos personas cumplan el mismo día que to-das cumplan en días distintos. ¿Qué tan bueno fue tu pronóstico al respecto?

Algunos valores más se pueden calcular con una cal-culadora científica. Sin embargo, para n= 50 esto ya no es más posible.

Una computadora portátil puede hacer los cálculos hasta n = 120. En el gráfico de abajo se muestra la probabilidad pn en función de n, desde n = 2 hasta

n= 120. 0 20 40 60 80 100 120 0.0 0.2 0.4 0.6 0.8 1.0 n pn

Si no disponemos de una computadora para hacer es-tos cálculos, podemos usar el mismo método de apro-ximación que usamos en el ejemplo anterior.

Observar que podemos escribir pn de la forma

1 − pn= (365)n 365n = n−1 Y i=0 1 − i 365 !

Si tomamos logaritmos a ambos lados de la ecuación anterior obtenemos log(1 − pn)= n−1 X i=0 log 1 − i 365 ! ≈ − n−1 X i=0 i 365

recordando que log(1 + x) ≈ x para x chico.

La suma de los primeros n−1 enteros se puede calcular explícitamente y vale n−1 X i=0 i= n(n − 1) 2 . Entonces log(1 − pn) ≈ − 1 365 n−1 X i=0 i= −n(n − 1) 730 .

Tomando exponencial a ambos lados llegamos a la siguiente aproximación para pn:

pn ≈1 − e−n(n−1)/730.

Por ejemplo, para n = 23 el valor aproximado de pn

es 0,5. 0 20 40 60 80 100 120 0.000 0.002 0.004 0.006 0.008 0.010 n pn − 1 − e − n (n − 1) /730 

En el gráfico de arriba se muestra el error de aproxi-mación

pn−



1 − e−n(n−1)/730

en función de n. El error más grande para n ≤ 120 es 0,0103 y se da en n= 33.

Ejemplo: un argumento de simetría

(12)

Asumimos que la moneda es honesta. Entonces Ana tiene 2n+1posibilidades, todas las secuencias posibles de largo n+1 formadas con “C” y “X”, todas igualmen-te probables. Del mismo modo, Beto tiene 2n. Pero además, juntos tienen 2n+12n = 22n+1 posibilidades,

todas igualmente probables.

Llamemos CA y XA el número de caras y cruces que

obtiene Ana, y de igual forma, llamemos CB y XB los

de Beto. Entonces CA+ XA = n + 1 y CB+ XB = n. Los

eventos

{CA > CB} y {XA > XB}

tienen el mismo número de elementos. De hecho, si tenemos una secuencia en {CA > CB}, cambiando

to-das las C por X y viceversa, obtenemos una secuencia en {XA > XB}. Por otro lado, una secuencia verifica

que CA > CBsi, y solo si, verifica que n − CB > n −CA.

Pero esto es lo mismo que XB > XA− 1, de donde

XB ≥ XA pues son cantidades enteras.

En conclusión, el evento {CA > CB} es igual al evento

{XB ≥ XA}. Dicho en palabras, si Ana tiene más caras

que Beto, entonces necesariamente Beto tiene más o igual cruces que Ana.

Cualquiera sea el resultado de los lanzamientos, de-bemos tener una de dos: o bien XA > XB o XB ≥ XA.

Es decir que el número de secuencias en el evento {XA > XB} es igual a 22n+1 menos el número de

se-cuencias en {XB ≥ XA}.

Juntando todo, vemos que

1= P (XA > XB)+ P (XB ≥ XA)

= P (XA > XB)+ P (CA > CB)= 2P (CA > CB) ,

de donde P(CA > CB)= 1/2.

¿Te sorprende la respuesta? De hecho, hay una forma muy simple de calcular esta probabilidad usando un argumento de simetría.

Al terminar los lanzamientos, una de dos debe ocu-rrir: o bien Ana tiene más caras que Beto, o bien Ana tiene más cruces que Beto. Es decir, uno de los dos eventos {CA > CB} o {XA > XB} debe ocurrir. Esto

es así pues Ana tiene más lanzamientos que Beto, y no puede por lo tanto tener a la vez menos (o igual) caras y cruces que él.

Además son incompatibles, pues Ana tiene un solo lanzamiento más que Beto. Cambiando las cruces por las caras, como hicimos antes, vemos que estos even-tos tienen la misma probabilidad.

Si llamamos p a la probabilidad de {CA > CB}, y q a

la de {XA > XB}, entonces

1. p+ q = 1, 2. p= q,

de donde p= q = 1/2.

Como ejercicio para ver si entendieron bien, pueden buscar dónde falla el argumento, si en lugar de Ana lanzar una vez más que Beto, lanza dos veces más.

Ejemplo: apretados en el cine

En un cine de Montevideo, la gente se sienta al azar en la primera fila. La fila tiene N ≥ n asientos. ¿Cuál es la probabilidad de que no haya dos personas sentadas una al lado de la otra?

Un espacio muestral para este problema puede ser el formado por todos los subconjuntos de tamaño n de un conjunto de N elementos. Los N elementos co-rresponden a númerar los asientos de la primer fila, y un subconjunto de éstos corresponde a las elecciones posibles que puede hacer la gente. Así, en total hay

N n



posibilidades, todas igualmente probables, pues las personas no tienen preferencia por dónde sentar-se.

Debemos contar de cuántas formas podemos sentar n personas en N asientos, de forma tal que no haya dos consecutivos. Miremos la fila de izquierda a derecha, suponiendo que el asiento número 1 se encuentra en la punta izquierda.

Veamos primero cuán chico puede ser n. Si las per-sonas logran sentarse sin vecinos consecutivos, vere-mos que a la derecha de cada persona hay un espacio vacío, exceptuando eventualmente a quien está senta-do en el borde derecho de la fila. Tal configuración ocupa en total al menos 2n − 1 lugares, por lo que si N < 2n − 1, la probabilidad es cero.

¿Qué pasa si N ≥ 2n − 1? Una forma de asignar asien-tos a las personas de forma que no queden vecinos consecutivos es la siguiente.

Para ser más concretos, supongamos que n= 4 y que N es muy grande. Los asteríscos representarán a las cuatro personas:

∗ ∗ ∗ ∗

(13)

personas que no están en los bordes: ∗ _ |{z} algún espacio ∗ _ |{z} algún espacio ∗ _ |{z} algún espacio ∗

¿Cómo se asignan los espacios? Elegimos tres núme-ros entenúme-ros, todos no nulos, cuya suma sea igual a N −4. Por ejemplo, si N = 11 y elegimos los números 2, 4, y 1, obtendremos la disposición

∗_ _ ∗ _ _ _ _ ∗ _ ∗

Pero hay un problema. Claramente, éstas no son to-das las formas posibles de asignar los lugares, pues podrían no haber personas sentadas en los bordes. Para arreglar este desperfecto, en lugar de elegir tres números todos no nulos, elegimos cinco números con la posibilidad de que el primero y el segundo sean nu-los. Así, por ejemplo, si elegimos los números 1,2,3,1,0 obtenemos la disposición

_ ∗ _ _ ∗ _ _ _ ∗ _ ∗

Notar que siempre hay N − 4 espacios y 4 asteríscos. Algunos espacios son obligatorios y otros no, y de he-cho de los N − 4 espacios hay 3 que deben ir necesa-riamente a la derecha de un asterísco:

_ |{z} posible espacio ∗_ _ |{z} posible espacio ∗_ _ |{z} posible espacio ∗_ _ |{z} posible espacio ∗ _ |{z} posible espacio

Así que quedan N − 7 espacios para repartir entre las cinco “celdas” representadas por las llaves en el diagrama.

¿Cómo podemos contar todas las formas posibles de hacer ésto? Representemos por una barra vertical los bordes de una celda. Por ejemplo, si N = 11, la asigna-ción representada con los números 1,2,3,1,0 que usa-mos arriba queda

|_|_|_ _|||

Esto lo leemos así: un espacio en la primer celda, un espacio en la segunda (es solo uno y no dos, pues hay uno que ya lo pusimos), dos espacios en la tercer celda, y las dos últimas celdas vacías.

Lo único que debemos hacer es entreverar los espacios y las barras, teniendo en cuenta que los dos bordes deben ser barras. Como hay N − 7 espacios y 4 barras (sacando las dos de los bordes), esto lo podemos hacer de (N − 7 + 4)! (N − 7!)4! = N − 3 4 ! formas distintas.

¿Como se resuelve el caso general? Supongamos que nes cualquier otro número, con la sola condición N ≥ 2n − 1. Cada persona tendrá un espacio a su derecha, exceptuando posiblemente la persona sentada más a la derecha. Nos quedan así N − (2n − 1) espacios para repartir entre n+ 1 celdas. Esto último se puede hacer de

N − n+ 1 n

!

formas distintas. Así que la probabilidad de no tener vecinos al lado es N −n+1 n  N n  .

9.

Experimentos secuenciales y

re-peticiones independientes

Muchos experimentos consisten de varias etapas. En esta sección veremos como construir el espacio mues-tral cuando las diferentes etapas del experimento son independientes entre sí.

Supongamos que Ω1es el espacio muestral de un

pri-mer experimento E1 y que Ω2 es el espacio muestral

de un segundo experimento E2. Si realizamos un

ex-perimento que consista en E1 y luego E2, ¿cuál es el

espacio muestral correspondiente?

Supondremos que el experimento E2se realiza de

for-ma independiente del E1, en el sentido de que sin

im-portar el resultado de E1cualquier resultado de E2es

posible. Entonces el espacio muestral Ω(1,2) de E1 y

luego E2 consiste de todos los pares ordenados de la

forma (ω1, ω2) en donde ω1∈ Ω1 y ω2 ∈ Ω2. Es decir

(1,2)= Ω1× Ω2 = {(ω1, ω2) : ωi ∈ Ωi}

el producto cartesiano de los dos espacios originales. Muchas veces el experimento E2es el mismo que el E1.

Es decir, E1 y E2son dos repeticiones independientes

de un mismo experimento. En general, si realizamos n ensayos independientes de un mismo experimento cuyo espacio muestral es Ω, el espacio muestral co-rrespondiente lo escribimos

Ωn= Ω × · · · × Ω | {z }

nveces

.

(14)

Ejemplo: n lanzamientos de una moneda

Lanzamos n veces una moneda. El experimento de base es el lanzamiento de una moneda una sola vez, y por lo tanto Ω= {C, N} donde C significa cara y N número. El espacio muestral para n lanzamientos es entonces Ωnque consiste de las secuencias de largo n cuyas entradas son C0s o N0s.

¿Cuál es la probabilidad de que nunca salga cara? Hay una sola secuencia que no tiene caras y es

(N, . . . , N | {z }

nveces

)

por lo que la probabilidad es 1/|Ω|n = 1/2n.

Notar que esta probabilidad tiende rápidamente a ce-ro cuando n →+∞. Podríamos decir que si lanzamos una moneda infinitas veces, la probabilidad de que nunca salga cara es cero. Esto lo justificaremos mejor más adelante, pero por el momento nos basta con esta idea intuitiva.

Ejemplo: bolitas y urnas

Imaginemos una fila de n urnas que llamaremos U1, U2, . . . , Un

las cuales tienen bolitas negras y blancas.

Supongamos que la k-ésima urna tiene k bolas negras y una blanca. Por ejemplo, U1 tiene 1 bola negra y

1 blanca, U2 tiene 2 bola negras y una blanca, y así

sucesivamente.

U48=

El experimento consiste en sacar una bola de la pri-mer urna, una de la segunda, y así hasta la última ur-na. ¿Cuál es la probabilidad de que nunca saquemos una bola blanca?

Antes de seguir leyendo conviene pensar en una res-puesta intuitiva, ¿es esta probabilidad grande o chica?

Llamemos Ωial espacio muestral de sacar una bola de

la i-ésima urna. Esto es, Ωi es un conjunto de i+ 1

bo-las distintas (bo-las podemos numerar para diferenciarbo-las por ejemplo) de las cuales i son negras y una sola es blanca.

El espacio muestral de nuestro experimento es enton-ces

Ω= Ω1× · · · × Ωn.

Notar que el cardinal de Ω es

|Ω| = |Ω1| · · · |Ωn|= 2 · 3 · · · (n + 1) = (n + 1)!.

El evento A que nos interesa es que ninguna bola sea blanca, y por lo tanto

| A| = 1 · 2 · · · n = n!. Entonces P (A)= n! (n + 1)! = 1 n+ 1.

Notar que esta probabilidad también tiende a cero cuando n →+∞, aunque menos rápidamente que en el caso anterior. Es decir, a pesar de que las bolas blancas son cada vez menos frecuentes en las urnas, de todos modos la probabilidad de que nunca salga una bola blanca sigue siendo cero.

10.

Algunas propiedades básicas de

la probabilidad

Las reglas de conteo se traducen en propiedades im-portantes que son muy útiles para calcular probabi-lidades. En esta sección enumeraremos algunas de ellas, y las probaremos en el caso particular que esta-mos considerando (modelos equiprobables). Sin em-bargo son propiedades que valen en general.

Las dos propiedades más importantes, de las cuales se siguen todas las demás, son las siguientes.

Probabilidad de Ω: P (Ω)= 1. Esto es claro ya que

P (Ω)= |Ω| |Ω| = 1.

Regla de la suma: si A y B son dos eventos dis-juntos, entonces

(15)

De hecho, por la regla de la suma para cardinales sabemos que | A ∪ B| = | A| + |B|, por lo que P (A ∪ B)= | A ∪ B| |Ω| = | A| |Ω|+ |B| |Ω| = P (A) + P (B) . Existen otras propiedades que enumeramos a conti-nuación. Observar con atención que las demostracio-nes solamente utilizan la validez de las dos propieda-des anteriores.

Complemento: si A es un evento, la probabili-dad de su complemento es

P (Ac)= 1 − P (A) .

Esto se sigue de que A ∪ Ac = Ω y de que esta

unión es disjunta. Si aplicamos la regla de la suma obtenemos

1= P (Ω) = P (A) + P (Ac) , y de aquí despejamos la probabilidad de Ac.

División en casos: Si podemos dividir el espacio muestral Ω en subconjuntos C1, . . . , Cn que son

disjuntos dos a dos, entonces la probabilidad de cualquier evento A se descompone como

P (A)=

n

X

i=1

P (A ∩ Ci) .

La demostración consiste en aplicar la regla de la suma a los conjuntos A ∩ Ci cuya unión es A.

Regla de la resta: si A es un subconjunto de B (esto lo escribimos A ⊂ B), entonces

P (B \ A)= P (B) − P (A) .

En esta fórmula el evento B \ A consiste de aque-llos elementos ω que están en B pero no en A. Para demostrarla notar que podemos escribir B= A∪ B \ A, y que esta unión es disjunta. Luego por la regla de la suma P(B)= P (A) + P (B \ A). Monotonía: si A es un subconjunto de B, enton-ces

P (A) ≤ P (B) .

Esto se sigue inmediatamente de la regla de la resta ya que P(B \ A) ≥ 0.

Principio de inclusión y exclusión: si A y B son dos eventos cualesquiera, entonces

P (A ∪ B)= P (A) + P (B) − P (A ∩ B) .

Esto se deduce de las reglas de la suma y de la resta aplicadas a la unión disjunta

A ∪ B= [A \ (A ∩ B)] ∪ [B \ (A ∩ B)] ∪ [A ∩ B] .

La cota de la unión: si A y B son dos eventos cualesquiera, entonces

P (A ∪ B) ≤ P (A)+ P (B)

Esto se sigue del principio de inclusión y exclu-sión ya que P(A ∩ B) ≥ 0.

Lecturas recomendadas

I. Stewart, ¡Qué coincidencia!, Investigación y Cien-cia, Julio 1998, No 262.

A. Rayo, ¿Qué es la probabilidad?, Investigación y Ciencia, Junio 2011, No 417.

G. Uzquiano, Prisioneros y permutaciones, Investi-gación y Ciencia, Marzo 2012, No 426.

Referencias

Documento similar

Casos. Número de casos de Diarrea Aguda causada por Shigelosis, México 2010-2020.. socioeconómicos, así como la falta de información sobre los posibles medios de

mismo tiempo se reconoce en España la libertad de empresa que como sabemos es la base o pilar del Derecho de la competencia. El segundo cambio en la materia tuvo lugar con la

Sin embargo esta práctica de reclutar esclavos no era desconocida en Roma.Así, según nos informa la Historia Augusta (XXIX, 12,2) Próculo en el siglo III d.C, una vez

Supongamos que solo nos interesa la distribución de moléculas con módulos de velocidad entre ( v , v + dv ). La probabilidad no puede cambiar al cambiar de sistema de coordenadas.

De este modo se constituye un espacio ontológico y epistemológico a la vez, en el que cada elemento (cada principio) ocupa un lugar determinado en la totalidad, y desde ahí está

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

A Carlos Eduardo, Oscar y Gilma, mis colegas de doctorado que ya se graduaron y que fueron mi ejemplo y grupo de apoyo. Por supuesto a todos los Emes, amigos

Pero antes hay que responder a una encuesta (puedes intentar saltarte este paso, a veces funciona). ¡Haz clic aquí!.. En el segundo punto, hay que seleccionar “Sección de titulaciones