Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

El estigma de la culpabilidad

This post is also available in: Inglés

image_pdf

Hay veces en que los conceptos estadísticos son de gran utilidad para otras facetas de la vida. Por ejemplo, imaginad que se produce un robo en un banco y que el ladrón se ha introducido a través de un pequeño agujero que ha hecho en la pared. Ahora seguid imaginando que hace cinco años un ladrón pequeñito que salió de la cárcel hace dos meses, hizo un robo similar. ¿A quién creéis que interrogará la policía en primer lugar?.

Todos estaréis de acuerdo en que el ladrón enano será el primer sospechoso, pero probablemente os preguntaréis también qué tiene todo esto que ver con la estadística. Pues os diré que es muy simple: la policía está utilizando el concepto de probabilidad condicionada cuando piensa en su pequeño sospechoso. Vamos a ver por partes qué es la probabilidad condicionada y veréis que tengo razón.

Dos sucesos pueden ser dependientes o independientes. Son independientes cuando la probabilidad de producirse uno no tiene nada que ver con la de producirse el otro. Por ejemplo, si tiramos un dado diez veces, cada una de esas tiradas será independiente de las anteriores (y de la siguientes). Si sacamos un seis en una tirada, no por ello la probabilidad de sacar otro en la siguiente es más baja, sino que sigue siendo de un sexto. Aplicando el mismo razonamiento, si hemos tirado diez veces y no hemos tenido ningún seis, la probabilidad de sacarlo en la siguiente tirada sigue siendo un sexto. La probabilidad de obtener dos seises en dos tiradas sería el producto de la probabilidad de obtenerlo en cada una: 1/6 x 1/6 = 1/36.

Expresado matemáticamente, la probabilidad de que ocurran dos sucesos independientes es la siguiente:

P(A y B) = P(A) x P(B)

En otras ocasiones los sucesos pueden ser dependientes, lo que significa que el que ocurra uno de ellos cambia la probabilidad de que ocurra el otro. Hablamos entonces de probabilidad condicionada. Veamos algún ejemplo.

El más inmediato para los médicos puede ser el de los valores predictivos positivo y negativo de las pruebas diagnósticas. La probabilidad de que un paciente tenga un positivo en la prueba no es la misma que la probabilidad de que esté enfermo, una vez que haya dado positivo. Ésta, a su vez, será mayor que si ha dado negativo. Como veis, el resultado de la prueba condiciona la probabilidad de la enfermedad.

Pensad por otro lado que estamos estudiando una población de niños para ver cuantos tienen anemia y malnutrición. Lógicamente, los anémicos tendrán más probabilidad de estar malnutridos. Una vez que determinamos que el niño está anémico, la probabilidad de que esté malnutrido se incrementa. Lo bueno de todo estos es que, si conocemos las distintas probabilidades, podremos calcular la probabilidad de que tenga anemia una vez que hemos constatado que está malnutrido. Vamos a verlo matemáticamente.

La probabilidad de que dos sucesos dependientes ocurran puede expresarse de la siguiente forma:

P(A y B) = P(A) x P(B|A), donde B|A se lee como B condicionada por A.

También podríamos expresarlo cambiando A por B, de la siguiente forma:

P(A y B) = P(B) x P(A|B)

y como la parte izquierda de las dos ecuaciones es la misma podríamos igualarlas y obtener otra ecuación diferente:

P(A) x P(B|A) = P(B) x P(A|B)

P(B|A) = [P(B) x P(A|B)] / P(A)

que es lo que se conoce como regla de Bayes, que fue un clérigo del siglo XVIII muy aficionado a los sucesos condicionados.

Para entender su utilidad, vamos a aplicarlo al caso del valor predictivo positivo. Supongamos una enfermedad cuya prevalencia (probabilidad de padecerla en la población) es de 0,2 y una prueba diagnóstica para diagnosticarla con una sensibilidad de 0,8. Si tomamos una población y obtenemos un 30% de positivos (probabilidad 0,3), ¿cuál es la probabilidad de que un individuo esté enfermo una vez que ha obtenido un resultado positivo en la prueba?. Resolvamos el ejemplo:

P(enfermo|positivo) = [P(enfermo) x P(positivo|enfermo)] / P(positivo)

P(enfermo|positivo) = (prevalencia x sensibilidad) / P(prueba positiva)

P(enfermo|positivo) = (0,2 x 0,8) / 0,3 = 0,53

En resumen, si un individuo da positivo habrá un 53% de probabilidades de que esté enfermo.

Y aquí dejamos la regla de Bayes por hoy. Hay que decir que la contribución de Bayes a la ciencia de la estadística fue mucho más amplia. De hecho, este tipo de razonamientos conduce a otra forma de ver la estadística más dependiente de los sucesos que vayan ocurriendo, frente al enfoque estadístico clásico frecuentista que empleamos la mayor parte de las veces. Pero esa es otra historia…

Deja un comentario

A %d blogueros les gusta esto: