• No se han encontrado resultados

Pocas cosas son inmutables en este mundo. Todo cambia y todo es relativo. Incluso la probabilidad de un suceso puede ser algo cambiante. Me explico.

N/A
N/A
Protected

Academic year: 2021

Share "Pocas cosas son inmutables en este mundo. Todo cambia y todo es relativo. Incluso la probabilidad de un suceso puede ser algo cambiante. Me explico."

Copied!
5
0
0

Texto completo

(1)

Otra de monedas

Pocas cosas son inmutables en este mundo. Todo cambia y todo es relativo. Incluso la probabilidad de un suceso puede ser algo cambiante. Me explico.

Habitualmente vemos el mundo de la probabilidad desde un punto de vista frecuentista. Si tenemos un dado con seis caras asumimos que cada cara tiene una probabilidad de aparecer de una entre seis cada vez que lancemos el dado (suponiendo que el dado es legal y todas las caras tienen la misma probabilidad de salir).

Si tenemos dudas sobre si el dado es legal, lo que hacemos es tirar el dado un número enorme de veces hasta que somos capaces de calcular cuántas veces es predecible que aparezca cada cara, calculando así su probabilidad. Pero, en ambos casos, una vez que obtenemos el dato, ya no nos movemos de ahí. Pase lo que pase, seguiremos afirmando que la probabilidad de sacar un cinco en una tirada es un sexto.

Pero a veces la probabilidad puede cambiar y volverse diferente de la que preestablecimos en un comienzo. Una probabilidad inicial puede cambiar si inyectamos información nueva en el sistema y puede depender de eventos que vayan sucediendo a lo largo del tiempo. Esto da origen al punto de vista estadístico bayesiano, basado en gran parte en la regla de Bayes, en el que la probabilidad de un evento puede ir actualizándose a lo largo del tiempo. Pongamos un ejemplo.

Supongamos, como no, que tenemos tres monedas. Pero son tres monedas muy particulares, ya que solo una de ellas es legal (cara y cruz, CZ). De las otras dos, una tiene dos caras (CC) y la otra, dos cruces (ZZ). Ahora metemos las tres monedas en una bolsa y sacamos una de ellas sin mirar. La pregunta es: ¿cuál es la probabilidad de haber sacado la moneda con dos caras?.

¡Qué sencillo!, pensaréis la mayoría. Es el típico caso de eventos favorables dividido por eventos posibles. Como hay un evento favorable (CC) y tres posibles (CC, ZZ y CZ), la probabilidad es de un tercio. Tenemos una probabilidad del 33% de haber sacado la moneda con dos caras.

Pero, ¿qué pasa si os digo que lanzo la moneda al aire y me sale cara?. ¿Sigo teniendo la misma probabilidad de un tercio de tener la moneda con dos caras en la mano?. La respuesta, evidentemente, es no. ¿Y cuál es ahora la probabilidad de tener en la mano la moneda con dos caras?. Para calcularlo no nos valen los eventos favorables y los posibles, sino que tenemos que recurrir a la regla de Bayes. Vamos a razonarla.

(2)

La probabilidad de que se produzcan dos sucesos independientes A y B es igual a la probabilidad de A por la probabilidad de B. En el caso de que los dos sucesos sean dependientes, la probabilidad de A y B sería igual a la probabilidad de A por la probabilidad de B una vez que se ha producido A:

P(A y B) = P(A) x P(B|A)

Llevándolo al ejemplo de nuestras monedas, la probabilidad de que salga cara y de que tengamos la moneda de dos caras podemos expresarla como

P(C y CC) = P(C) x P(CC|C) (probabilidad de obtener cara por probabilidad de tener la moneda CC una vez que sale cara).

Pero también lo podemos expresar al revés:

P(C y CC) = P(CC) x P(C|CC) (probabilidad de tener la moneda CC por la probabilidad de sacar cara si tenemos la moneda CC).

Así que podemos igualar las dos expresiones y obtener nuestra buscada regla de Bayes:

P(C) x P(CC|C) = P(CC) x P(C|CC) P(CC|C) = [P(CC) x P(C|CC)] / P(C)

Vamos a calcular nuestra probabilidad de tener la moneda CC si hemos sacado cara. Sabemos que P(CC) = 1/3. P(C|CC) = 1: si tenemos la moneda con dos caras la posibilidad de que salga cara es del 100%. ¿Cuál es la P(C)?.

La probabilidad de sacar cara será igual a la probabilidad de haber sacado de la bolsa la moneda ZZ por la posibilidad de tener cara con ZZ más la probabilidad de haber sacado CC por la probabilidad de cara con CC más la probabilidad de haber sacado la moneda legal por la probabilidad de cara con esta moneda:

P(C) = (1/3 x 0) + (1/3 x 1/2) + (1/3 x 1) = 1/2 Luego, P(CC|C) = [1 x 1/3] / 1/2 = 2/3 = 0,66

Esto quiere decir que si hemos tirado la moneda y ha salido cara, la probabilidad de que tengamos la moneda con dos caras sube del 33% al 66% (y la de tener la moneda con dos cruces baja del 33% al 0).

¿Veis cómo se ha actualizado la probabilidad?. ¿Qué pasaría si volvemos a lanzar la moneda y vuelve a salir cara?. ¿Cuál sería entonces la probabilidad de tener la moneda con dos caras?. Vamos a calcularlo siguiendo el mismo razonamiento:

(3)

En este caso, P(CC) ya no vale 1/3, sino 2/3. P(C|CC) sigue valiendo 1. Por último P(C) también se ha modificado: ya hemos descartado la posibilidad de haber sacado la moneda con dos cruces, así que la probabilidad de sacar cara en el segundo lanzamiento es la probabilidad de tener CC por la probabilidad de cara con CC más la probabilidad de tener la moneda legal por la probabilidad de cara con esta moneda:

P(C) = (2/3 x 1) + (1/3 x 1/2) = 5/6

Así que P(CC|C) = (2/3 x 1) / (5/6) = 4/5 = 0,8

Si en el segundo lanzamiento volvemos a sacar cara, la probabilidad de que estemos lanzando la moneda con dos caras sube del 66% al 80%. Lógicamente, si seguimos repitiendo el experimento, cuántas más caras saquemos, más seguros estaremos de que tenemos la moneda con dos caras, aunque nunca tendremos una certeza total. Por supuesto, el experimento termina en el momento en que sacamos cruz, en el que la probabilidad de la moneda CC bajaría automáticamente a cero (y la de la moneda legal a 100%).

Como veis, la probabilidad no es tan inmutable como parece.

Y aquí dejamos de jugar con monedas por hoy. Solo deciros que, aunque sea menos conocido que el enfoque frecuentista, esto de la estadística bayesiana da para mucho. Existen manuales, programas informáticos especiales y métodos de análisis de resultados que incorporan la información que se deriva del estudio. Pero esa es otra historia…

El estigma de la culpabilidad

Hay veces en que los conceptos estadísticos son de gran utilidad para otras facetas de la vida. Por ejemplo, imaginad que se produce un robo en un banco y que el ladrón se ha introducido a través de un pequeño agujero que ha hecho en la pared. Ahora seguid imaginando que hace cinco años un ladrón pequeñito que salió de la cárcel hace dos meses, hizo un robo similar. ¿A quién creéis que interrogará la policía en primer lugar?.

Todos estaréis de acuerdo en que el ladrón enano será el primer sospechoso, pero probablemente os preguntaréis también qué tiene todo esto que ver con la estadística. Pues os diré que es muy simple: la policía está utilizando el concepto de probabilidad condicionada cuando piensa en su pequeño sospechoso. Vamos a ver por partes qué es la probabilidad

(4)

condicionada y veréis que tengo razón.

Dos sucesos pueden ser dependientes o independientes. Son independientes cuando la probabilidad de producirse uno no tiene nada que ver con la de producirse el otro. Por ejemplo, si tiramos un dado diez veces, cada una de esas tiradas será independiente de las anteriores (y de la siguientes). Si sacamos un seis en una tirada, no por ello la probabilidad de sacar otro en la siguiente es más baja, sino que sigue siendo de un sexto. Aplicando el mismo razonamiento, si hemos tirado diez veces y no hemos tenido ningún seis, la probabilidad de sacarlo en la siguiente tirada sigue siendo un sexto. La probabilidad de obtener dos seises en dos tiradas sería el producto de la probabilidad de obtenerlo en cada una: 1/6 x 1/6 = 1/36.

Expresado matemáticamente, la probabilidad de que ocurran dos sucesos independientes es la siguiente:

P(A y B) = P(A) x P(B)

En otras ocasiones los sucesos pueden ser dependientes, lo que significa que el que ocurra uno de ellos cambia la probabilidad de que ocurra el otro. Hablamos entonces de probabilidad condicionada. Veamos algún ejemplo.

El más inmediato para los médicos puede ser el de los valores predictivos positivo y negativo de las pruebas diagnósticas. La probabilidad de que un paciente tenga un positivo en la prueba no es la misma que la probabilidad de que esté enfermo, una vez que haya dado positivo. Ésta, a su vez, será mayor que si ha dado negativo. Como veis, el resultado de la prueba condiciona la probabilidad de la enfermedad.

Pensad por otro lado que estamos estudiando una población de niños para ver cuantos tienen anemia y malnutrición. Lógicamente, los anémicos tendrán más probabilidad de estar malnutridos. Una vez que determinamos que el niño está anémico, la probabilidad de que esté malnutrido se incrementa. Lo bueno de todo estos es que, si conocemos las distintas probabilidades, podremos calcular la probabilidad de que tenga anemia una vez que hemos constatado que está malnutrido. Vamos a verlo matemáticamente.

La probabilidad de que dos sucesos dependientes ocurran puede expresarse de la siguiente forma:

P(A y B) = P(A) x P(B|A), donde B|A se lee como B condicionada por A. También podríamos expresarlo cambiando A por B, de la siguiente forma: P(A y B) = P(B) x P(A|B)

y como la parte izquierda de las dos ecuaciones es la misma podríamos igualarlas y obtener otra ecuación diferente:

(5)

P(A) x P(B|A) = P(B) x P(A|B) P(B|A) = [P(B) x P(A|B)] / P(A)

que es lo que se conoce como regla de Bayes, que fue un clérigo del siglo XVIII muy aficionado a los sucesos condicionados.

Para entender su utilidad, vamos a aplicarlo al caso del valor predictivo positivo. Supongamos una enfermedad cuya prevalencia (probabilidad de padecerla en la población) es de 0,2 y una prueba diagnóstica para diagnosticarla con una sensibilidad de 0,8. Si tomamos una población y obtenemos un 30% de positivos (probabilidad 0,3), ¿cuál es la probabilidad de que un individuo esté enfermo una vez que ha obtenido un resultado positivo en la prueba?. Resolvamos el ejemplo:

P(enfermo|positivo) = [P(enfermo) x P(positivo|enfermo)] / P(positivo) P(enfermo|positivo) = (prevalencia x sensibilidad) / P(prueba positiva) P(enfermo|positivo) = (0,2 x 0,8) / 0,3 = 0,53

En resumen, si un individuo da positivo habrá un 53% de probabilidades de que esté enfermo.

Y aquí dejamos la regla de Bayes por hoy. Hay que decir que la contribución de Bayes a la ciencia de la estadística fue mucho más amplia. De hecho, este tipo de razonamientos conduce a otra forma de ver la estadística más dependiente de los sucesos que vayan ocurriendo, frente al enfoque estadístico clásico frecuentista que empleamos la mayor parte de las veces. Pero esa es otra historia…

Referencias

Documento similar

La oferta existente en el Departamento de Santa Ana es variada, en esta zona pueden encontrarse diferentes hoteles, que pueden cubrir las necesidades básicas de un viajero que

forme, se constata que el punto más débil de las residencias son sus in- fraestructuras –aunque de media consiguen un aceptable 6,5–, y son las privadas las que más trabajo tienen

En tales circunstancias, una forma de proceder posible sería iniciar una fase preconstitucional de diálogo nacional, como sucedió en Sudáfrica, para reunir a

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

Este parón o bloqueo de las ventas españolas al resto de la Comunidad contrasta sin em- bargo con la evolución interior de ese mismo mercado en cuan- to a la demanda de hortalizas.

La heterogeneidad clínica de esta patolo- gía hizo que se considerasen a numerosos genes de pro- teínas de la matriz extracelular (elastina, fibronectina, genes de los colágenos de

El objetivo de este bolet´ın es ilustrar uno de los m´etodos que permiten calcular la expresi´on regular que denota el mismo lenguaje que un Aut´omata Finito reconoce mediante