Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasProbabilidad
image_pdf

El engaño de la intuición

Es una cosa curiosa, pero hay un problema de probabilidad con el que últimamente me topo cada dos por tres. Me lo encuentro leyendo, haciendo mis cursos y estudiando mis libros. Así que, por qué no, voy a compartirlo con vosotros, aunque es algo difícil de comprender y quizás muchos ya lo conoceréis.

Se trata del problema del cumpleaños y es una especie de acertijo que se usa para demostrar que nuestra intuición puede engañarnos en muchas ocasiones cuando manejamos conceptos de probabilidad, sobre todo si en el asunto hay grandes números de por medio.

Supongamos que vamos un día al cine. Ya nos llama la atención la poca gente que hay, así que nos tememos lo peor. Por desgracia, nuestros temores se ven confirmados y la película es un verdadero rollo, así que nuestra mente empieza a divagar, comenzando por contar cuánta gente hay en la sala. Vemos que estamos solo 35 personas y entonces nos hacemos la pregunta del millón: ¿cuál será la probabilidad de que al menos dos de estas 35 personas cumplan años el mismo día?.

¿Qué os parece?. A simple vista parece bastante difícil de calcular pero, ¿pensáis que la probabilidad es alta o baja?. Nuestra intuición nos dice que la probabilidad no debe ser muy alta, ya que solo hay 35 personas para repartir en coincidencias entre nada menos que 365 días que tiene un año (nos olvidamos de los bisiestos). Sin embargo, como dice el título de esta entrada, la intuición puede a veces engañarnos. Vamos a calcular cuál es la probabilidad real de que haya al menos dos personas en la sala a las que les coincida su cumpleaños.

Para calcular la probabilidad de un suceso debemos dividir el número de sucesos favorables entre el número de sucesos posibles. Por ejemplo, para calcular la probabilidad de sacar un seis en una tirada de un dado dividimos uno (el número de jugadas que nos interesa, el seis) entre seis (el número posible de resultados que podemos obtener al tirar un dado, del uno al seis). Pues bien, en este caso vamos a hacer lo mismo. En el numerador tendremos que poner el número de combinaciones existentes de que haya al menos una coincidencia y en el denominador el número de combinaciones que pueden hacerse de 35 cumpleaños con los 365 días del año.

El primer problema lo encontramos en el numerador. El número posible de coincidencias incluye una coincidencia, dos, tres…., multitud de ellas. Esto puede ser terriblemente complejo de calcular, así que vamos a recurrir a un pequeño truco muy utilizado en probabilidad.

Si lo pensáis, pueden darse dos situaciones: que haya al menos una coincidencia o que no haya ninguna. Por tanto, la probabilidad de los dos sucesos es igual a uno (100%). Así que ¿por qué no calculamos la probabilidad de que nunca haya coincidencias y le restamos a uno el resultado que nos dé?

P(al menos una coincidencia) = 1 – P(ninguna coincidencia)

Vamos a construir nuestra fracción para calcular la probabilidad que estamos buscando y, al final, calcularemos su valor complementario.

Empecemos por el denominador, que es más sencillo. ¿De cuántas formas podemos combinar 35 cumpleaños con 365 días?. Se trata de calcular el número de permutaciones posibles permitiendo el reemplazamiento, porque consideramos la posibilidad de que haya coincidencias de dos personas el mismo día. Así que sería 365x365x…x365 35 veces o, lo que es lo mismo, 36535.

Vamos con el numerador. ¿De cuántas formas distintas podemos distribuir 365 días entre 35 personas sin que haya coincidencias?. En este caso, se trata de combinaciones múltiples sin reemplazamiento, de forma que podemos calcularlo como el factorial de 365 (ya sabéis, 365x364x363x…x2x1) dividido por el factorial de la diferencia entre los días del año y el número de personas, 330.

Ya tenemos construida nuestra fórmula para el cálculo de probabilidad:

P= \frac{\frac{365!}{(365-35)!}}{365^{35}}

Ya solo nos queda resolverla. No intentéis hacerlo con vuestra calculadora de bolsillo, porque puede que explote. Yo he utilizado el programa R e, incluso, he tenido que hacer un poco de álgebra primero para simplificar los factoriales. El resultado es 0,18.

Pues bien, ya sabemos que la probabilidad de que no haya coincidencias entre los cumpleaños de las personas de la sala es de 0,18. Si le restamos a uno ese valor obtenemos 0,82. Esto quiere decir que hay un 82% de probabilidad de que al menos dos personas cumplan los años el mismo día. Impresionante cómo puede engañarnos nuestra intuición. Si no lo creéis, id un día al cine y haced la prueba.

Y creo que es el momento de dejarlo por hoy. Podríamos haber profundizado y detallado más cómo calcular el numerador y el denominador de nuestra fórmula de probabilidad, explicando los conceptos de combinatoria. Para aquellos que no lo sepáis, la combinatoria es un conjunto de herramientas matemáticas que sirve, entre otras cosas, para contar elementos. Pero esa es otra historia…

No te la juegues

¿Habéis estado en Las Vegas?. Es una ciudad curiosa de ver. Una vez. Dos, como mucho. Los casinos son algo asombroso, con todo el mundo jugando como locos con la ilusión de hacerse ricos con poco esfuerzo.

Pero, ¿quién pensáis que paga todo lo que veis en Las Vegas?. Efectivamente, los que juegan. La banca nunca pierde. Hacedme caso, no os juguéis la pasta en un casino porque la probabilidad de ganar es más bien escasa y, aún en el caso de que ganéis, lo más probable es que sea poca cantidad. Claro que esto puede no ser verdad si apostáis grandes cantidades, pero si tenéis tanto dinero tampoco tendréis necesidad de apostar para haceros ricos.

Vamos a ver con un ejemplo lo difícil que es hacerse millonario por este método. Tomemos como ejemplo una de las jugadas a las que se puede apostar con la ruleta: la apuesta de la calle o de tres números. Para los que no hayáis jugado nunca, nuestra ruleta tiene 38 números.

En esta jugada colocamos nuestras fichas en tres números de una de las filas y la ruleta se pone a girar. Supongamos que apostamos un euro en cada jugada. La apuesta de la calle se paga 11 a uno, lo que quiere decir que si la bola cae en uno de nuestros tres números nos devuelven nuestro euro y otros 11 más. Pero si la bola cae en otro de los 38 números, perderemos nuestro euro.

Así que la probabilidad de acertar será p = 3/38 y la de perder q = 35/38. Pensemos primero cuál será la ganancia neta teórica de cada jugada: será la suma de la probabilidad de ganar por 11 euros menos la probabilidad de perder por uno:

Ganancia media = (3/38 x 11) – 35/38 = -0,0526 €

Esto quiere decir que, por término medio, en cada jugada perderemos algo más de cinco céntimos. ¿Y si jugamos 300 veces seguidas?. ¿Podremos hacernos ricos entonces?.

Pues tampoco, porque la ganancia esperada será la ganancia media de cada jugada por el número total de jugadas, o sea, -0,0526 x 300 = -15,78 €. Entonces, ¿por qué coño juega la gente, si cuánto más se juega mayor es la cantidad que se espera perder?. Pues precisamente porque es una cantidad esperada, pero el número de veces que se gana o pierde sigue una distribución de frecuencias binomial, así que habrá afortunados que pierdan menos o, incluso, que ganen dinero, pero también desgraciados que perderán mucho más de lo esperado.

La siguiente pregunta que os estaréis haciendo es qué probabilidades tenemos de ganar si jugamos las trescientas veces seguidas. Vamos a calcularlo.

Llamemos W al número de veces que ganamos y G a nuestra ganancia neta después de las 300 jugadas. La ganancia neta será el número de veces que ganemos multiplicado por 11 (recordad que se paga 11 a uno) menos el número de veces que no ganemos (perderemos un euro). Por otro lado, el número de veces que perderemos será el número total de jugadas menos el número de jugadas en las que ganemos. Así:

G = 11 W + (-1)(300 – W) -> 12 W – 300

Si queremos ganar, nuestra ganancia neta G debe ser mayor que cero. Si lo ponemos en la ecuación anterior:

12W – 300 > 0

Nos queda

W > 300/12

W > 25

Esto quiere decir que, para no perder dinero, tendremos que ganar un mínimo de 25 veces de las 300 que juguemos. ¿Y 25 son muchas o pocas?. A mí, la verdad, me parecen un montón, pero calculemos la probabilidad.

Ya hemos dicho que el modelo de la ruleta sigue la distribución de probabilidad binomial:

P= \binom{n}{k} (p)^{k} (1-p)^{n-k}

Donde n es el número de jugadas, k es el número de éxitos, p la probabilidad de ganar y q o (1-p) la de perder. Si sustituimos las letras de la ecuación por nuestros datos (n=300, p=3/38 y k=25) podemos calcular cuál es la probabilidad de ganar, al menos 25 veces. El problema es que los números se vuelven tan grandes que es muy difícil manejarlos, así que os aconsejo que utilicéis un programa estadístico o alguna de las calculadoras disponibles en Internet. Yo lo he hecho y me sale una probabilidad del 42%.

¡Qué bien!, pensaréis alguno. Un 42% de probabilidades de ganar no está tan mal. Pero pensad un momento que lo que no está mal, para el casino al menos, es el 58% de probabilidades que tenemos de perder. Y, además, el 42% es la probabilidad de ganar en general. Si calculáis el número de jugadas que hay que ganar para obtener una ganancia neta de 100 euros veréis que es de más de 34 y, si calculáis la probabilidad, veréis que baja hasta un 2,2%.

Seguid mi consejo: gastaos el dinero en otra cosa.

Para finalizar esta entrada tan lúdica solo comentaros que, si no disponéis de una calculadora de probabilidad binomial, podéis calcular una aproximación utilizando una distribución normal. Habría que calcular la ganancia media y su error estándar y, con ambos y la ganancia deseada, calcular el valor z estandarizado para estimar su probabilidad. Pero esa es otra historia…

La de nombre extranjero

¿Os gusta el juego?. Me refiero a los juegos de azar que la gente busca en los casinos con la vana esperanza de ganar un poco (o no tan poco) de dinero a la vez que se divierte. Pero la gente que desea enriquecerse de forma rápida y divertida olvida dos cosas. La primera es que todo lo que ve alrededor (y mucho más que no ve) lo pagan los miles que previamente fracasaron en un intento similar al suyo. La segunda es estudiar antes a fondo cuáles son sus probabilidades de ganar… y sus odds.

Os preguntaréis qué es una odds y por qué usamos un término tan raro. A la segunda pregunta os diré que no he encontrado una palabra castellana que guste a la mayoría. Quizás las que más me gustan a mí sean “oportunidad relativa” o “probabilidad relativa”, pero para seguir la corriente general, me quedaré con odds. Para contestar a la primera pregunta tenemos que calentarnos un poco las neuronas.

Todos entendemos el concepto de probabilidad. Si nos preguntan cuál es la probabilidad de sacar un seis si tiramos un dado en el casino, responderemos rápidamente que la probabilidad es una entre seis o 1/6 (0,16 ó 16,66%). Pero al jugador quizás le interese más saber cuánto es más probable que salga el seis frente a que no salga. Y la respuesta no es 1/6, sino 1/5. ¿Por qué?: porque la probabilidad de que salga es 1/6 y la de que no salga es 5/6. Para saber cuánto más probable es sacar el seis debemos dividir 1/6 entre 5/6, lo que nos daría 1/5 (20%). Esta es la odds: la probabilidad de que ocurra un suceso respecto a la probabilidad de que no ocurra: odds = p / (1-p), para los amantes de las fórmulas.

Salgamos ahora del casino. He observado que la noche que echo una mirada a las noticias en Internet antes de acostarme duermo peor. Supongamos que hago una encuesta preguntando a la gente que me encuentro por la calle si duermen bien y si acostumbran a ver las noticias antes de acostarse y obtengo los resultados que os muestro en la tabla.

Podemos preguntarnos ¿cuál es la probabilidad de que alguien que lea las noticias sea insomne?. Fácil: 25/79 ó 0,31 (número de lectores insomnes dividido por número de lectores). Por otra parte, ¿cuál es la odds del lector de ser insomne?. También sencillo: probabilidad de lector insomne partido de probabilidad de lector no insomne, o sea 25/54 ó 0,46.

Calculamos igualmente la probabilidad de que un no lector sea insomne como el cociente 105/355 = 0,29 (no lectores insomnes dividido por el total de no lectores). La odds, por su parte, sería de 105/250 = 0,42 (no lectores con insomnio dividido por no lectores sin insomnio).

Si calculamos ahora el cociente de las dos probabilidades obtendremos el riesgo relativo, RR = 0,31/0,29 = 1.06. Esto quiere decir que el riesgo de tener insomnio es más o menos el mismo entre los que leen las noticias y los que no. Si calculamos el cociente de las dos odds obtendremos un valor de 1,09 (0,46/0,42). Esta es la denominada odds ratio (OR), un parámetro bastante interesante que, en breve, veremos para qué sirve.

Vamos ahora a analizar de nuevo los datos de la tabla, pero esta vez al revés. ¿Cuál es la probabilidad de que un insomne lea las noticias?: 25/130 = 0,19. ¿Cuál es la odds del insomne de leer frente a no leer las noticias?: 25/105 = 0,23. ¿Cuál es la probabilidad de que el que no tiene insomnio sea lector?: 54/304 = 0,17. ¿Y su odds?: 54/250 = 0,21.

Si calculamos el RR = 0,19/0,17 = 1,11, nos dirá que los insomnes tienen el mismo riesgo, aproximadamente, de haber leído las noticias antes de acostarse que los que duermen plácidamente. ¿Y la OR?: 0,23/0,58 = 1,09. ¡Pásmate!, la OR es la misma se miren los datos como se miren, lo cual no puede ser casualidad, sino que debe esconder algún significado.

Y esto es así porque la OR, también llamada razón de predominio, mide la fuerza de la asociación entre el efecto (el insomnio) y la exposición (leer las noticias). Su valor es siempre el mismo aunque cambiemos el orden de las proporciones en la tabla. Como ocurre con otros parámetros, lo correcto será calcular su intervalo de confianza para conocer la precisión de la estimación. Además, esta asociación será significativa si el intervalo no incluye el uno, que es el valor neutro para la OR. Cuánto mayor sea la OR, mayor será la fuerza de la asociación. Las OR menores de uno son más complejas de interpretar, aunque podemos hacer un razonamiento similar al que hacíamos con los RR menores que uno. Pero aquí acaba la similitud entre los dos. El uso correcto del RR precisa del conocimiento de la incidencia del efecto en las dos poblaciones comparadas mientras que la OR se calcula en base a la frecuencia observada en las dos, por lo que no son parámetros equiparables aunque su interpretación sea similar. Solo tienden a igualarse en los casos en los que el efecto tiene una probabilidad muy baja de presentarse. Por estos motivos, la OR es la medida de asociación utilizada en estudios de casos y controles y metaanálisis, mientras que los RR son preferible para los estudios de cohortes y los ensayos clínicos.

Un par de consideraciones antes de acabar con el tema de la OR. Primera, aunque nos permita comparar la asociación entre dos variables cualitativas (categorizadas como sí o no), no sirve para establecer relaciones de causa-efecto entre las dos. Segunda, tiene gran utilidad porque permite evaluar el efecto de otras variables sobre esta asociación, lo que puede servir para planificar la realización de estudios estadísticos de regresión logística. Pero esa es otra historia…

Dame una barra y estandarizaré el mundo

Pero no me vale una barra cualquiera. Tiene que ser una barra muy especial. O mejor, una serie de barras. Y no estoy pensando en un diagrama de barras, tan conocidos y utilizados que cuando abres el PowerPoint casi te hace uno sin que se lo pidas. No, estos diagramas son muy insulsos, solo representan cuántas veces se repite cada uno de los valores de una variable cualitativa, pero no nos dicen nada más.

Yo estoy pensando en un diagrama mucho más profundo. Me refiero al histograma. ¡Vaya!, me diréis, pues no es otro diagrama de barras. Sí, pero de otra clase de barras, mucho más informativas. Para empezar, el histograma se utiliza (o debería) para representar frecuencias de variables cuantitativas continuas. El histograma no es un diagrama de barras, sino una distribución de frecuencias. ¿Y eso qué significa?. Pues que las barras, en el fondo, son algo artificial. Supongamos una variable cuantitativa continua como puede ser el peso. Imaginemos que el rango de nuestra distribución va de 38 a 118 kg de peso. En teoría, podemos tener infinitos valores de peso (como con cualquier variable continua), pero para representar la distribución dividimos el rango en un número de intervalos arbitrario y dibujamos una barra para cada intervalo cuya altura (y, por tanto, superficie) sea proporcional al número de casos del intervalo. Eso es un histograma: la distribución de frecuencias.

Ahora supongamos que hacemos los intervalos cada vez más estrechos. El perfil que forman las barras se irá pareciendo cada vez más a una curva según se estrechen los intervalos. Al final, lo que tendremos será una curva que se llama curva de densidad de probabilidad. La probabilidad de un determinado valor será cero (uno pensaría que debería ser la altura de la curva en ese punto, pero resulta que no, que es cero), pero la probabilidad de los valores de un determinado intervalo será igual a la superficie del área bajo la curva en ese intervalo. Y, ¿cuál será el área bajo toda la curva?. Pues fácil: la probabilidad de encontrar cualquier valor, o sea, uno (100% para los amigos del porciento).

Veis, pues, que el histograma es mucho más de lo que parece. Nos dice que la probabilidad de encontrar un valor inferior a la media es 0,5, pero no solo eso, sino que podemos calcular la densidad de probabilidad de cualquier valor utilizando una formulita que prefiero no poner porque cerraríais  el navegador y dejaríais de leer esta entrada. Además, hay una forma de solucionarlo algo más simple.

Con las variables que siguen una distribución normal (la famosa campana) la solución es sencilla. Sabemos que una distribución normal se define perfectamente por su media y su desviación estándar. El problema es que cada distribución tiene las suyas, con lo que la densidad de probabilidad también es específica de cada distribución. ¿Qué hacemos?. Pues nos inventamos una distribución normal estándar de media cero y desviación típica 1 y nos estudiamos su densidad de probabilidad de tal forma que no necesitemos fórmulas ni tablas para conocer la probabilidad de un segmento determinado.

Una vez hecho esto, tomamos cualquier valor de nuestra distribución y los transformamos en su alma gemela de la distribución estándar. A este proceso se le denomina estandarización y es tan sencillo como restar al valor la media y dividirlo por la desviación típica. Así obtenemos otro de los estadísticos que los médicos en general, y los pediatras en particular, veneramos más profundamente: el z score.

Las probabilidades de la distribución estándar son bien conocidas. Un z de cero está en la media. El intervalo de z = 0 ± 1,64 engloba el 90% de la distribución, el z = 0 ± 1,96 el 95%, y el z = 0 ± 2,58 el 99%. Lo que se hace, en la práctica, es determinar el z deseable para la variable que medimos, una vez estandarizada. Este valor suele ser ±1 ó ± 2, según lo que midamos. Además, podemos comparar cómo se modifica el z en determinaciones sucesivas.

El problema surge porque en medicina hay muchas variables cuya distribución se encuentra sesgada y no se ajusta a una distribución normal, como es el caso de la talla, el colesterol sanguíneo y muchas otras. Pero no desesperéis, para eso los matemáticos se han inventado una cosa que llaman el teorema central del límite, que viene a decir que si el tamaño de la muestra es lo suficientemente grande podemos estandarizar cualquier distribución y enlazarla con la distribución normal estándar. Este teorema es una cosa estupenda, ya que permite estandarizar incluso para variables no continuas que siguen otro tipo de distribuciones como la binomial, la de Poisson u otras.

Pero la cosa no queda aquí. La estandarización es la base para calcular otras características de la distribución, como su índice de asimetría o su curtosis, y está además en la base de muchas pruebas de contraste de hipótesis que buscan estadísticos de distribución conocida para calcular la significación, pero esa es otra historia…

Busca siempre un intervalo, pero que sea de confianza

El intervalo de confianza es una de esas herramientas que nos permiten conservar uno de nuestros vicios más persistentes: querer sacar conclusiones acerca de muchos con datos obtenidos de unos pocos.

Cuando queremos conocer una característica de un determinado grupo de pacientes es frecuente que no podamos estudiarla en todos los sujetos que nos interesan, por lo que tenemos que resignarnos a seleccionar una muestra dentro de esa población y realizar las mediciones que nos parezcan oportunas. El problema entonces es evidente: sabremos cuál es el valor en nuestra muestra pero, ¿cuál es el valor en la población global? ¿no hay forma de saberlo sin estudiar a toda la población?

La mala noticia es que la única manera de saber el valor con exactitud en la población es medir la variable en todos los sujetos. La buena noticia es que podemos estimar el valor en la población a partir del que obtuvimos en la muestra, aunque dentro de unos límites de incertidumbre, que son los que marca el intervalo de confianza.

Así, el intervalo de confianza, que se calcula a partir de los resultados de la muestra, nos dice entre que límites se encuentra el valor de la variable en la población de la que procede la muestra, siempre con cierto grado de error o incertidumbre, que por convenio suele situarse en el 95%.

En la práctica, el intervalo de confianza con una probabilidad del 95% (el que más se usa habitualmente) se calcula de la forma siguiente:

            IC 95% = V ± 1,96 SE

Donde V representa el parámetro que medimos (una media, una proporción, etc) y ±1,96 corresponde al rango alrededor de la media que incluye el 95% de la población en una distribución normal estándar. SE representa el error estándar, un término bastante más antipático de explicar, que corresponde a la desviación típica de la distribución de los valores de la variable que obtendríamos si repitiésemos el estudio muchas veces. Pero no os preocupéis por todo este galimatías, los programas de estadística lo hacen todo ellos solos. Lo único que tenemos que saber es que el intervalo de confianza incluye el verdadero valor de la población con la probabilidad especificada (la realidad es un poco más compleja, pero dejémoslo así).

Una reflexión final antes de cerrar este tema. Además del grado de incertidumbre, el intervalo de confianza nos informa sobre la precisión del estudio. Cuanto menor sea el intervalo, más precisión habremos conseguido, y si el intervalo es demasiado amplio es posible que el resultado no nos valga para nada, aunque tenga significación estadística. Este tipo de información es algo que no nos da la p. Entonces, ¿para qué sirve la p?. La p sirve para otras cosas, pero esa es otra historia…