Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Guardado poroctubre 2012
image_pdf

De la gallina al huevo

Seguro que alguna persona que rebosaba ingenio a raudales os ha preguntado en alguna ocasión, con mirada de suficiencia, ¿qué fue antes, el huevo o la gallina?. Pues bien, la próxima vez que os encontréis con alguien así podéis responder con otra pregunta: ¿es qué tienen algo que ver el huevo y la gallina?. Porque primero habrá que saber, no solo si para tener gallinas hay primero que tener huevos (con perdón), sino también qué probabilidad hay de acabar teniéndolas, con huevos o sin ellos (alguna mente retorcida dirá que la pregunta se podría plantear al revés, pero es que yo soy de los que piensan que lo primero que hay que tener, sin ánimo de ofender, son huevos).

Este planteamiento nos llevaría al diseño de un estudio de casos y controles, que es un estudio observacional, analítico y longitudinal en el que se comparan un grupo que presenta un efecto o enfermedad determinada (los casos) con otro grupo que no lo presenta (los controles), con el objetivo de determinar si existe diferencia en la frecuencia de exposición a un determinado factor de riesgo entre los dos grupos. Como en el punto de partida el efecto ya se ha producido, la mayor parte de los estudios de casos y controles son restrospectivos, aunque también podrían diseñarse estudios prospectivos.

Los estudios de casos y controles son muy utilizados en epidemiología. Son relativamente sencillos de hacer, generalmente tienen menor coste que otros estudios observacionales (como los estudios de cohortes), permiten estudiar varios factores de exposición al mismo tiempo y saber cómo interactúan entre ellos y son ideales para enfermedades o factores de exposición de frecuencia muy baja. El problema de este tipo de diseño es que hay que ser sumamente cuidadoso para seleccionar los casos y los controles, ya que es muy fácil caer en una lista de sesgos que, a día de hoy, no tiene aún un final conocido.

En general, los criterios de selección deberían ser los mismos para casos y controles, pero, como para ser caso hay que estar diagnosticado de la enfermedad y estar disponible para el estudio, es muy probable que los casos no sean totalmente representativos de la población. Por ejemplo, si los criterios de diagnóstico son poco sensibles y específicos habrá muchos falsos positivos y negativos, con lo que el efecto de la exposición al factor se diluirá.

Otro posible problema depende de que elijamos casos incidentes (de nuevo diagnóstico) o prevalentes. Los estudios basados en prevalencia favorecen la selección de supervivientes (hasta ahora no se conoce ningún caso de un muerto que haya accedido a participar en ningún estudio) y, si la supervivencia está relacionada con la exposición, el riesgo detectado será menor que con casos incidentes. Este efecto es todavía más evidente cuando el factor de exposición es de buen pronóstico, situación en la que los estudios prevalentes producen una mayor sobreestimación de la asociación. Un ejemplo para comprender mejor estos aspectos:  supongamos que el riesgo de infarto es mayor cuánto más se fuma. Si solo incluimos casos prevalentes excluiremos a los muertos por infarto más grave, que presumiblemente deberían ser los que más fumasen, con lo cuál el efecto del tabaco podría infraestimarse.

Pero si lo de los casos parece complicado, no es nada comparado con una buena selección de los controles. Lo ideal es que los controles hayan tenido la misma probabilidad de exposición que los casos o, dicho de otra forma más elegante, deben ser representativos de la población de la que proceden los casos. Además, esto hay que compatibilizarlo con la exclusión de aquéllos que tengan alguna enfermedad que se relacione de forma positiva o negativa con el factor de exposición. Por ejemplo, si nos sobra tiempo y queremos ver la asociación entre pasajeros de avión que tienen una tromboflebitis y la ingesta previa de aspirina, tendremos que excluir de los controles a los que tengan cualquier otra enfermedad que se trate con aspirina, aunque no la hubiesen tomado antes de emprender el viaje.

También hay que ser crítico con algunos hábitos de selección de controles. Por ejemplo, los pacientes que van al hospital por otro motivo distinto al estudiado están muy a mano, suelen ser muy colaboradores y, al ser enfermos, seguramente recordarán mejor las exposiciones pasadas a factores de riesgo. Pero el problema es ese, que son enfermos, por lo que pueden tener hábitos de exposición a factores de riesgo diferentes a los de la población general.

Otro recurso es reclutar a vecinos, amigos, familiares, etc. Éstos suelen ser muy comparables y colaboradores, pero tenemos el riesgo de que haya emparejamiento de hábitos de exposición que nos alteren los resultados del estudio. Todos estos problemas se evitan tomando los controles de la población general, pero esto es más costoso en esfuerzo y dinero, suelen ser menos colaboradores y, sobre todo, mucho más olvidadizos (los sanos recuerdan menos la exposición a factores de riesgo pasados), con lo que la calidad de la información que obtengamos de casos y controles puede ser muy diferente.

Como puede deducirse de su diseño, los estudios de casos y controles no proporcionan una estimación directa ni de la incidencia ni de la prevalencia de la enfermedad, ya que la proporción de expuestos y enfermos viene determinada por los criterios del investigador y no por la incidencia en la población. Por este motivo la medida de asociación de los estudios de casos y controles es la odds ratio y no el riesgo relativo que usamos en los estudios de cohortes.

De todos modos, y solo para los que gusten de meterse en complicaciones, es posible calcular las tasas de incidencia a partir de los resultados de un estudio de casos y controles si conocemos previamente la incidencia de la enfermedad en la población (obtenida de otro tipo de estudios), utilizando para ellos las formulitas que os adjunto.

Un par de reflexiones para terminar con este tema tan ameno. La primera es una consideración sobre los estudios de casos y controles que comparten con el resto de los estudios observacionales: detectan la asociación entre la exposición y el efecto, pero no nos permiten establecer con seguridad relaciones de causalidad, para lo cual necesitamos otro tipo de estudios. La segunda, hay que recordar siempre que son los que con más facilidad están sometidos a sesgos de múltiples tipos que hay que analizar y considerar, pero esa es otra historia…

Una de romanos

¡Qué tíos esos romanos!. Iban, veían y vencían. Con esas legiones, cada una con sus diez cohortes, cada cohorte con sus casi quinientos romanos con su falda y sus sandalias de correas. Las cohortes eran grupos de soldados que estaban al alcance de la arenga de un mismo jefe y siempre avanzaban, nunca retrocedían. Así se puede conquistar la Galia (aunque no en su totalidad, como es bien sabido).

En epidemiología, una cohorte es también un grupo de personas que comparten algo, pero en lugar de ser la arenga de su jefe es la exposición a un factor que se estudia a lo largo del tiempo (tampoco son imprescindibles ni la falda ni las sandalias). Así, un estudio de cohortes es un tipo de diseño observacional, analítico y longitudinal que compara la frecuencia con la que ocurre un determinado efecto (generalmente una enfermedad) en dos grupos diferentes (las cohortes), uno de ellos expuesto a un factor y otro no expuesto al mismo factor. Ambas cohortes se estudian a lo largo del tiempo, por lo que la mayor parte de los estudios de cohortes son prospectivos (van hacia delante, como las cohortes romanas). Sin embargo, es posible hacer estudios de cohortes retrospectivos una vez ocurridos tanto la exposición como el efecto, identificándose los dos grupos en un momento atrás en el tiempo lo suficientemente alejado como para permitir que el efecto se haya desarrollado.

Como curiosidad, también podemos hacer un estudio con una sola cohorte si queremos estudiar la incidencia o la evolución de una determinada enfermedad, pero en realidad este tipo de diseños se engloba en los estudios descriptivos longitudinales.

Al realizarse un seguimiento a lo largo del tiempo, los estudios de cohortes permiten calcular la incidencia del efecto entre expuestos y no expuestos, calculando a partir de ellas una serie de medidas de asociación y de medidas de impacto características.

La medida de asociación es el riesgo relativo (RR), que es la proporción entre la incidencia de expuestos (Ie) y no expuestos (I0): RR = Ie/I0. Esta medida nos permite estimar la fuerza de la asociación entre la exposición al factor y el efecto, pero no nos informa sobre el impacto potencial que tiene la exposición sobre la salud de la población. Para esto debemos recurrir a las medidas de impacto, fundamentalmente la diferencia de incidencias (DI) y la proporción atribuible al factor en el grupo expuesto (PAE) o en la población (PAP).

La DI sería, como su nombre indica, la diferencia entre la incidencia de expuestos y no expuestos (Ie-I0). Esta medida, que es el equivalente a la reducción absoluta del riesgo de los ensayos clínicos, nos cuantifica la diferencia de incidencia que puede atribuirse al factor estudiado. Aunque puede sonar parecido al RR, en realidad son dos medidas bien diferentes. Veámoslo con un ejemplo. Supongamos dos estudios E1 y E2. Aunque el RR es igual a 3 en los dos estudios, la DI en E1 es del 40% mientras que en E2 es del 2%, con lo que el exceso de riesgo en los expuestos es mucho mayor en el primer estudio que en el segundo, a pesar de que los RR sean iguales en ambos. Digamos que el RR es más informativo para determinar posibles causas de un efecto, mientras que la DI, que depende también de la incidencia, es más útil desde el punto de vista epidemiológico para calcular los efectos sobre grupos de población.

La PAE es la DI respecto al grupo de expuestos y nos indica el riesgo de presentar el efecto en los expuestos que se debe específicamente a eso, a haber estado expuesto. Esta medida puede calcularse también a partir del RR entre expuestos y no expuestos.

Por su parte, la PAP nos da una idea del efecto que se produciría en la población (cuánto disminuiría la enfermedad) si pudiésemos eliminar totalmente la exposición al factor estudiado.

Como vemos, pues, los estudios de cohortes son muy útiles para calcular la asociación y el impacto entre efecto y exposición pero, cuidado, no sirven para establecer relaciones causales. Para eso son necesarios otros tipos de estudios.

El problema con los estudios de cohortes es que son difíciles (y costosos) de realizar de forma adecuada, suelen requerir muestran grandes y, a veces, periodos de seguimiento prolongados (con el consiguiente riesgo de pérdidas). Además, son poco útiles para enfermedades raras. Y no debemos olvidar que no nos permiten establecer relaciones de causalidad con la seguridad suficiente, aunque para ello sean mejores que sus primos los estudios de casos y controles, pero esa es otra historia…

La de nombre extranjero

¿Os gusta el juego?. Me refiero a los juegos de azar que la gente busca en los casinos con la vana esperanza de ganar un poco (o no tan poco) de dinero a la vez que se divierte. Pero la gente que desea enriquecerse de forma rápida y divertida olvida dos cosas. La primera es que todo lo que ve alrededor (y mucho más que no ve) lo pagan los miles que previamente fracasaron en un intento similar al suyo. La segunda es estudiar antes a fondo cuáles son sus probabilidades de ganar… y sus odds.

Os preguntaréis qué es una odds y por qué usamos un término tan raro. A la segunda pregunta os diré que no he encontrado una palabra castellana que guste a la mayoría. Quizás las que más me gustan a mí sean “oportunidad relativa” o “probabilidad relativa”, pero para seguir la corriente general, me quedaré con odds. Para contestar a la primera pregunta tenemos que calentarnos un poco las neuronas.

Todos entendemos el concepto de probabilidad. Si nos preguntan cuál es la probabilidad de sacar un seis si tiramos un dado en el casino, responderemos rápidamente que la probabilidad es una entre seis o 1/6 (0,16 ó 16,66%). Pero al jugador quizás le interese más saber cuánto es más probable que salga el seis frente a que no salga. Y la respuesta no es 1/6, sino 1/5. ¿Por qué?: porque la probabilidad de que salga es 1/6 y la de que no salga es 5/6. Para saber cuánto más probable es sacar el seis debemos dividir 1/6 entre 5/6, lo que nos daría 1/5 (20%). Esta es la odds: la probabilidad de que ocurra un suceso respecto a la probabilidad de que no ocurra: odds = p / (1-p), para los amantes de las fórmulas.

Salgamos ahora del casino. He observado que la noche que echo una mirada a las noticias en Internet antes de acostarme duermo peor. Supongamos que hago una encuesta preguntando a la gente que me encuentro por la calle si duermen bien y si acostumbran a ver las noticias antes de acostarse y obtengo los resultados que os muestro en la tabla.

Podemos preguntarnos ¿cuál es la probabilidad de que alguien que lea las noticias sea insomne?. Fácil: 25/79 ó 0,31 (número de lectores insomnes dividido por número de lectores). Por otra parte, ¿cuál es la odds del lector de ser insomne?. También sencillo: probabilidad de lector insomne partido de probabilidad de lector no insomne, o sea 25/54 ó 0,46.

Calculamos igualmente la probabilidad de que un no lector sea insomne como el cociente 105/355 = 0,29 (no lectores insomnes dividido por el total de no lectores). La odds, por su parte, sería de 105/250 = 0,42 (no lectores con insomnio dividido por no lectores sin insomnio).

Si calculamos ahora el cociente de las dos probabilidades obtendremos el riesgo relativo, RR = 0,31/0,29 = 1.06. Esto quiere decir que el riesgo de tener insomnio es más o menos el mismo entre los que leen las noticias y los que no. Si calculamos el cociente de las dos odds obtendremos un valor de 1,09 (0,46/0,42). Esta es la denominada odds ratio (OR), un parámetro bastante interesante que, en breve, veremos para qué sirve.

Vamos ahora a analizar de nuevo los datos de la tabla, pero esta vez al revés. ¿Cuál es la probabilidad de que un insomne lea las noticias?: 25/130 = 0,19. ¿Cuál es la odds del insomne de leer frente a no leer las noticias?: 25/105 = 0,23. ¿Cuál es la probabilidad de que el que no tiene insomnio sea lector?: 54/304 = 0,17. ¿Y su odds?: 54/250 = 0,21.

Si calculamos el RR = 0,19/0,17 = 1,11, nos dirá que los insomnes tienen el mismo riesgo, aproximadamente, de haber leído las noticias antes de acostarse que los que duermen plácidamente. ¿Y la OR?: 0,23/0,58 = 1,09. ¡Pásmate!, la OR es la misma se miren los datos como se miren, lo cual no puede ser casualidad, sino que debe esconder algún significado.

Y esto es así porque la OR, también llamada razón de predominio, mide la fuerza de la asociación entre el efecto (el insomnio) y la exposición (leer las noticias). Su valor es siempre el mismo aunque cambiemos el orden de las proporciones en la tabla. Como ocurre con otros parámetros, lo correcto será calcular su intervalo de confianza para conocer la precisión de la estimación. Además, esta asociación será significativa si el intervalo no incluye el uno, que es el valor neutro para la OR. Cuánto mayor sea la OR, mayor será la fuerza de la asociación. Las OR menores de uno son más complejas de interpretar, aunque podemos hacer un razonamiento similar al que hacíamos con los RR menores que uno. Pero aquí acaba la similitud entre los dos. El uso correcto del RR precisa del conocimiento de la incidencia del efecto en las dos poblaciones comparadas mientras que la OR se calcula en base a la frecuencia observada en las dos, por lo que no son parámetros equiparables aunque su interpretación sea similar. Solo tienden a igualarse en los casos en los que el efecto tiene una probabilidad muy baja de presentarse. Por estos motivos, la OR es la medida de asociación utilizada en estudios de casos y controles y metaanálisis, mientras que los RR son preferible para los estudios de cohortes y los ensayos clínicos.

Un par de consideraciones antes de acabar con el tema de la OR. Primera, aunque nos permita comparar la asociación entre dos variables cualitativas (categorizadas como sí o no), no sirve para establecer relaciones de causa-efecto entre las dos. Segunda, tiene gran utilidad porque permite evaluar el efecto de otras variables sobre esta asociación, lo que puede servir para planificar la realización de estudios estadísticos de regresión logística. Pero esa es otra historia…

Que no te la den con queso

Si tenéis por casa un vino que se os haya estropeado un poco, hacedme caso, no lo tiréis. Esperad a que vaya alguna de esas visitas gorronas (¡yo no he mencionado a ningún cuñado!) y ponédselo para que se lo beban. Eso sí, tenéis que acompañarlo de un queso fuertecillo. Cuánto más fuerte el queso, mejor sabrá el vino (vosotros podéis tomaros otra cosa con cualquier excusa). Pues bien, este truco, tan viejo casi como la especie humana, tiene sus paralelismos en la presentación de los resultados de trabajos científicos.

Imaginemos que realizamos un ensayo clínico en el que probamos un antibiótico nuevo (llamémosle A) para el tratamiento de una infección grave de la localización que nos interese estudiar. Aleatorizamos los pacientes seleccionados y les damos el fármaco nuevo o el tratamiento habitual (nuestro grupo de control), según les corresponda por azar. Al final, medimos en cuántos de nuestros pacientes fracasa el tratamiento (el evento que queremos evitar).

De los 100 pacientes que reciben el fármaco A, 36 presentan el evento a evitar. Por tanto, podemos concluir que el riesgo o incidencia del evento en los expuestos (Ie) es de 0,36 (36 de cada 100, en tanto por uno). Por otra parte, 60 de los 100 controles (los llamamos el grupo de no expuestos) han presentado el suceso, por lo que rápidamente calculamos que el riesgo o incidencia en los no expuestos (Io) es de 0,6.

A simple vista ya vemos que el riesgo es distinto en cada grupo, pero como en la ciencia hay que medirlo todo, podemos dividir los riesgos entre expuestos y no expuestos, obteniendo así el denominado riesgo relativo (RR = Ie/Io). Un RR = 1 significa que el riesgo es igual en los dos grupos. Si el RR > 1 el evento será más probable en el grupo de expuestos (la exposición que estemos estudiando será un factor de riesgo para la producción del evento) y si RR está entre 0 y 1, el riesgo será menor en los expuestos. En nuestro caso, RR = 0,36/0,6 = 0,6. Es más sencillo interpretar los RR > 1. Por ejemplo, un RR de 2 quiere decir que la probabilidad del evento es dos veces mayor en el grupo expuesto. Siguiendo el mismo razonamiento, un RR de 0,3 nos diría que el evento es una tercera parte menos frecuente en los expuestos que en los controles.

Pero lo que a nosotros nos interesa es saber cuánto disminuye el riesgo del evento con nuestra intervención para estimar cuánto esfuerzo hace falta para prevenir cada uno. Para ello podemos calcular la reducción relativa del riesgo (RRR) y la reducción absoluta del riesgo (RRA). La RRR es la diferencia de riesgo entre los dos grupos respecto del control (RRR = [Ie-Io]/Io). En nuestro caso es de 0,6, lo que quiere decir que la intervención probada disminuye el riesgo un 60% respecto al tratamiento habitual.

La RAR es más sencilla: es la resta entre los riesgos de expuestos y controles (RAR = Ie – Io). En nuestro caso es de 0,24 (prescindimos del signo negativo), lo que quiere decir que de cada 100 pacientes que tratemos con el nuevo fármaco se producirán 24 eventos menos que si hubiésemos utilizado el tratamiento control. Pero aún hay más: podemos saber cuántos tenemos que tratar con el fármaco nuevo para evitar un evento con solo hacer la regla de tres (24 es a 100 como 1 es a x) o, más fácil de recordar, calculando el inverso de la RAR. Así, el número necesario a tratar (NNT) = 1/RAR = 4,1. En nuestro caso tendríamos que tratar a cuatro pacientes para evitar un suceso adverso. El contexto nos dirá siempre la importancia clínica de esta cifra.

Como veis, la RRR, aunque es técnicamente correcta, tiende a magnificar el efecto y no nos cuantifica claramente el esfuerzo a realizar para obtener los resultados. Además, puede ser similar en situaciones diferentes con implicaciones clínicas totalmente distintas. Veámoslo con otro ejemplo. Supongamos otro ensayo con un fármaco B en los que obtenemos tres eventos en los 100 tratados y cinco en los 100 controles. Si hacéis los cálculos, el RR es de 0,6 y la RRR de 0,4, igual que en el ejemplo anterior, pero si calculáis la RAR veréis que es muy diferente (RAR = 0,02), con un NNT de 50. Se ve claramente que el esfuerzo para evitar un evento es mucho mayor (cuatro frente a 50) a pesar de que coincidan el RR y la RRR.

Así que, llegados a este punto, permitidme un consejo. Dado que con los datos necesarios para calcular la RRR es incluso más sencillo calcular la RAR (y el NNT), si en un trabajo científico os lo ocultan y solo os ofrecen la RRR, desconfiad como del cuñado que os pone un queso curado con el vino y preguntadle por qué no os pone mejor un pincho de jamón ibérico. Bueno, en realidad quería decir que os preguntéis por qué no os dan la RAR y la calculéis vosotros con los datos del trabajo.

Una última reflexión para cerrar este tema. Existe cierta tendencia y confusión a la hora de utilizar o analizar otra medida de asociación utilizada en ciertos estudios observacionales: la odds ratio. Aunque en algunas ocasiones puedan ser equiparables, como cuando la prevalencia del efecto es muy pequeña, en general la odds ratio tiene otras implicaciones en cuanto a significado e interpretación, pero esa es otra historia…