Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Guardado poroctubre 2012
image_pdf

La de nombre extranjero

¿Os gusta el juego?. Me refiero a los juegos de azar que la gente busca en los casinos con la vana esperanza de ganar un poco (o no tan poco) de dinero a la vez que se divierte. Pero la gente que desea enriquecerse de forma rápida y divertida olvida dos cosas. La primera es que todo lo que ve alrededor (y mucho más que no ve) lo pagan los miles que previamente fracasaron en un intento similar al suyo. La segunda es estudiar antes a fondo cuáles son sus probabilidades de ganar… y sus odds.

Os preguntaréis qué es una odds y por qué usamos un término tan raro. A la segunda pregunta os diré que no he encontrado una palabra castellana que guste a la mayoría. Quizás las que más me gustan a mí sean “oportunidad relativa” o “probabilidad relativa”, pero para seguir la corriente general, me quedaré con odds. Para contestar a la primera pregunta tenemos que calentarnos un poco las neuronas.

Todos entendemos el concepto de probabilidad. Si nos preguntan cuál es la probabilidad de sacar un seis si tiramos un dado en el casino, responderemos rápidamente que la probabilidad es una entre seis o 1/6 (0,16 ó 16,66%). Pero al jugador quizás le interese más saber cuánto es más probable que salga el seis frente a que no salga. Y la respuesta no es 1/6, sino 1/5. ¿Por qué?: porque la probabilidad de que salga es 1/6 y la de que no salga es 5/6. Para saber cuánto más probable es sacar el seis debemos dividir 1/6 entre 5/6, lo que nos daría 1/5 (20%). Esta es la odds: la probabilidad de que ocurra un suceso respecto a la probabilidad de que no ocurra: odds = p / (1-p), para los amantes de las fórmulas.

Salgamos ahora del casino. He observado que la noche que echo una mirada a las noticias en Internet antes de acostarme duermo peor. Supongamos que hago una encuesta preguntando a la gente que me encuentro por la calle si duermen bien y si acostumbran a ver las noticias antes de acostarse y obtengo los resultados que os muestro en la tabla.

Podemos preguntarnos ¿cuál es la probabilidad de que alguien que lea las noticias sea insomne?. Fácil: 25/79 ó 0,31 (número de lectores insomnes dividido por número de lectores). Por otra parte, ¿cuál es la odds del lector de ser insomne?. También sencillo: probabilidad de lector insomne partido de probabilidad de lector no insomne, o sea 25/54 ó 0,46.

Calculamos igualmente la probabilidad de que un no lector sea insomne como el cociente 105/355 = 0,29 (no lectores insomnes dividido por el total de no lectores). La odds, por su parte, sería de 105/250 = 0,42 (no lectores con insomnio dividido por no lectores sin insomnio).

Si calculamos ahora el cociente de las dos probabilidades obtendremos el riesgo relativo, RR = 0,31/0,29 = 1.06. Esto quiere decir que el riesgo de tener insomnio es más o menos el mismo entre los que leen las noticias y los que no. Si calculamos el cociente de las dos odds obtendremos un valor de 1,09 (0,46/0,42). Esta es la denominada odds ratio (OR), un parámetro bastante interesante que, en breve, veremos para qué sirve.

Vamos ahora a analizar de nuevo los datos de la tabla, pero esta vez al revés. ¿Cuál es la probabilidad de que un insomne lea las noticias?: 25/130 = 0,19. ¿Cuál es la odds del insomne de leer frente a no leer las noticias?: 25/105 = 0,23. ¿Cuál es la probabilidad de que el que no tiene insomnio sea lector?: 54/304 = 0,17. ¿Y su odds?: 54/250 = 0,21.

Si calculamos el RR = 0,19/0,17 = 1,11, nos dirá que los insomnes tienen el mismo riesgo, aproximadamente, de haber leído las noticias antes de acostarse que los que duermen plácidamente. ¿Y la OR?: 0,23/0,58 = 1,09. ¡Pásmate!, la OR es la misma se miren los datos como se miren, lo cual no puede ser casualidad, sino que debe esconder algún significado.

Y esto es así porque la OR, también llamada razón de predominio, mide la fuerza de la asociación entre el efecto (el insomnio) y la exposición (leer las noticias). Su valor es siempre el mismo aunque cambiemos el orden de las proporciones en la tabla. Como ocurre con otros parámetros, lo correcto será calcular su intervalo de confianza para conocer la precisión de la estimación. Además, esta asociación será significativa si el intervalo no incluye el uno, que es el valor neutro para la OR. Cuánto mayor sea la OR, mayor será la fuerza de la asociación. Las OR menores de uno son más complejas de interpretar, aunque podemos hacer un razonamiento similar al que hacíamos con los RR menores que uno. Pero aquí acaba la similitud entre los dos. El uso correcto del RR precisa del conocimiento de la incidencia del efecto en las dos poblaciones comparadas mientras que la OR se calcula en base a la frecuencia observada en las dos, por lo que no son parámetros equiparables aunque su interpretación sea similar. Solo tienden a igualarse en los casos en los que el efecto tiene una probabilidad muy baja de presentarse. Por estos motivos, la OR es la medida de asociación utilizada en estudios de casos y controles y metaanálisis, mientras que los RR son preferible para los estudios de cohortes y los ensayos clínicos.

Un par de consideraciones antes de acabar con el tema de la OR. Primera, aunque nos permita comparar la asociación entre dos variables cualitativas (categorizadas como sí o no), no sirve para establecer relaciones de causa-efecto entre las dos. Segunda, tiene gran utilidad porque permite evaluar el efecto de otras variables sobre esta asociación, lo que puede servir para planificar la realización de estudios estadísticos de regresión logística. Pero esa es otra historia…

Que no te la den con queso

Si tenéis por casa un vino que se os haya estropeado un poco, hacedme caso, no lo tiréis. Esperad a que vaya alguna de esas visitas gorronas (¡yo no he mencionado a ningún cuñado!) y ponédselo para que se lo beban. Eso sí, tenéis que acompañarlo de un queso fuertecillo. Cuánto más fuerte el queso, mejor sabrá el vino (vosotros podéis tomaros otra cosa con cualquier excusa). Pues bien, este truco, tan viejo casi como la especie humana, tiene sus paralelismos en la presentación de los resultados de trabajos científicos.

Imaginemos que realizamos un ensayo clínico en el que probamos un antibiótico nuevo (llamémosle A) para el tratamiento de una infección grave de la localización que nos interese estudiar. Aleatorizamos los pacientes seleccionados y les damos el fármaco nuevo o el tratamiento habitual (nuestro grupo de control), según les corresponda por azar. Al final, medimos en cuántos de nuestros pacientes fracasa el tratamiento (el evento que queremos evitar).

De los 100 pacientes que reciben el fármaco A, 36 presentan el evento a evitar. Por tanto, podemos concluir que el riesgo o incidencia del evento en los expuestos (Ie) es de 0,36 (36 de cada 100, en tanto por uno). Por otra parte, 60 de los 100 controles (los llamamos el grupo de no expuestos) han presentado el suceso, por lo que rápidamente calculamos que el riesgo o incidencia en los no expuestos (Io) es de 0,6.

A simple vista ya vemos que el riesgo es distinto en cada grupo, pero como en la ciencia hay que medirlo todo, podemos dividir los riesgos entre expuestos y no expuestos, obteniendo así el denominado riesgo relativo (RR = Ie/Io). Un RR = 1 significa que el riesgo es igual en los dos grupos. Si el RR > 1 el evento será más probable en el grupo de expuestos (la exposición que estemos estudiando será un factor de riesgo para la producción del evento) y si RR está entre 0 y 1, el riesgo será menor en los expuestos. En nuestro caso, RR = 0,36/0,6 = 0,6. Es más sencillo interpretar los RR > 1. Por ejemplo, un RR de 2 quiere decir que la probabilidad del evento es dos veces mayor en el grupo expuesto. Siguiendo el mismo razonamiento, un RR de 0,3 nos diría que el evento es una tercera parte menos frecuente en los expuestos que en los controles.

Pero lo que a nosotros nos interesa es saber cuánto disminuye el riesgo del evento con nuestra intervención para estimar cuánto esfuerzo hace falta para prevenir cada uno. Para ello podemos calcular la reducción relativa del riesgo (RRR) y la reducción absoluta del riesgo (RRA). La RRR es la diferencia de riesgo entre los dos grupos respecto del control (RRR = [Ie-Io]/Io). En nuestro caso es de 0,6, lo que quiere decir que la intervención probada disminuye el riesgo un 60% respecto al tratamiento habitual.

La RAR es más sencilla: es la resta entre los riesgos de expuestos y controles (RAR = Ie – Io). En nuestro caso es de 0,24 (prescindimos del signo negativo), lo que quiere decir que de cada 100 pacientes que tratemos con el nuevo fármaco se producirán 24 eventos menos que si hubiésemos utilizado el tratamiento control. Pero aún hay más: podemos saber cuántos tenemos que tratar con el fármaco nuevo para evitar un evento con solo hacer la regla de tres (24 es a 100 como 1 es a x) o, más fácil de recordar, calculando el inverso de la RAR. Así, el número necesario a tratar (NNT) = 1/RAR = 4,1. En nuestro caso tendríamos que tratar a cuatro pacientes para evitar un suceso adverso. El contexto nos dirá siempre la importancia clínica de esta cifra.

Como veis, la RRR, aunque es técnicamente correcta, tiende a magnificar el efecto y no nos cuantifica claramente el esfuerzo a realizar para obtener los resultados. Además, puede ser similar en situaciones diferentes con implicaciones clínicas totalmente distintas. Veámoslo con otro ejemplo. Supongamos otro ensayo con un fármaco B en los que obtenemos tres eventos en los 100 tratados y cinco en los 100 controles. Si hacéis los cálculos, el RR es de 0,6 y la RRR de 0,4, igual que en el ejemplo anterior, pero si calculáis la RAR veréis que es muy diferente (RAR = 0,02), con un NNT de 50. Se ve claramente que el esfuerzo para evitar un evento es mucho mayor (cuatro frente a 50) a pesar de que coincidan el RR y la RRR.

Así que, llegados a este punto, permitidme un consejo. Dado que con los datos necesarios para calcular la RRR es incluso más sencillo calcular la RAR (y el NNT), si en un trabajo científico os lo ocultan y solo os ofrecen la RRR, desconfiad como del cuñado que os pone un queso curado con el vino y preguntadle por qué no os pone mejor un pincho de jamón ibérico. Bueno, en realidad quería decir que os preguntéis por qué no os dan la RAR y la calculéis vosotros con los datos del trabajo.

Una última reflexión para cerrar este tema. Existe cierta tendencia y confusión a la hora de utilizar o analizar otra medida de asociación utilizada en ciertos estudios observacionales: la odds ratio. Aunque en algunas ocasiones puedan ser equiparables, como cuando la prevalencia del efecto es muy pequeña, en general la odds ratio tiene otras implicaciones en cuanto a significado e interpretación, pero esa es otra historia…