Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasEstudios de cohortes
image_pdf

Simplificando el impacto

En los estudios epidemiológicos es habitual encontrar un conjunto de medidas de efecto como pueden ser los riesgos en expuestos y no expuestos, los riesgos relativos y las reducciones de riesgo. Sin embargo, para que el análisis de un estudio pueda considerarse bien hecho, conviene que las medidas de efecto se acompañen de una serie de medidas de impacto, que son las que nos informan de forma más precisa sobre el verdadero efecto de la exposición o intervención sobre el efecto que estamos estudiando.

Por ejemplo, si realizamos un estudio sobre la prevención de la mortalidad por una enfermedad con un tratamiento X, un riesgo relativo de 0,5 nos dirá que existe la mitad de probabilidad de morirse si tomamos el fármaco, pero no podemos ver de forma clara el impacto del tratamiento. Sin embargo, si calculamos el número necesario a tratar (NNT) y nos sale que es de dos, sabremos que uno de cada dos personas tratadas evitarán la muerte por esa enfermedad. Esta medida de impacto, el NNT, sí nos da una idea más clara del efecto real de la intervención en nuestra práctica.

Existen diversas medidas de impacto, además del NNT. En los estudios de cohortes, que son en los que nos vamos a centrar hoy, podemos calcular la diferencia de incidencias entre expuestos y no expuestos, la proporción atribuible en expuestos (PAE), la proporción evitable en expuestos (PEE) y la proporción atribuible poblacional (PAP).

La PAE nos indica el riesgo de presentar el efecto en los expuestos que se debe específicamente a eso, a haber estado expuesto. La PEE nos informaría de los casos de enfermedad en el grupo expuesto que podrían haberse evitado si no hubiese existido la exposición. formulas_cohortesPor último, la PAP es un riesgo específico atribuible que describe la proporción de casos que se podrían prevenir en la población si se eliminase completamente el factor de riesgo en estudio. Como un cuarto parámetro, considerando la presencia de exposición y enfermedad, podemos calcular la fracción de exposición en los casos (FEc), que define la proporción de casos expuestos que son atribuibles al factor de riesgo.

En la tabla que os adjunto podéis ver las fórmulas para el cálculo de estos parámetros.

El problema de estas medidas de impacto es que pueden ser, en ocasiones, difíciles de interpretar por parte del clínico. Por ese motivo, e inspirados en el cálculo de los NNT, se han ideado una serie de medidas denominadas números de impacto, que nos dan una idea más directa del efecto del factor de exposición sobre la enfermedad en estudio. Estos números de impacto son el número de impacto en expuestos (NIE), el número de impacto en casos (NIC) y el número de impacto de los casos expuestos (NICE).

Empecemos por el más sencillo. El NIE sería el equivalente al NNT y se calcularía como el inverso de la reducción absoluta de riesgos o de la diferencia de riesgos. El NNT es el número de personas que deben ser tratadas para prevenir un caso en comparación con el grupo control. El NIE representa el número medio de personas que tienen que exponerse al factor de riesgo para que se produzca un nuevo caso de enfermedad en comparación con las personas no expuestas. Por ejemplo, un NIE de 10 significa que de cada 10 expuestos se producirá un caso de enfermedad atribuible al factor de riesgo estudiado.

El NIC es el inverso de la PAP, así que define el número medio de personas enfermas entre las que un caso es debido al factor de riesgo. Un NIC de 10 quiere decir que por cada 10 enfermos de la población, uno es atribuible al factor de riesgo en estudio.

Por fin, el NICE es el inverso de la FEc. Es el número medio de enfermos entre los que un caso es atribuible al factor de riesgo.

En resumen, estas tres medidas miden el impacto de la exposición entre todos los expuestos (NIE), entre todos los enfermos (NIC) y entre todos los enfermos que han estado expuestos (NICE).

numeros-impactoVeamos un ejemplo con los datos de la tabla adjunta, que se corresponden a un estudio ficticio sobre el efecto de la mortalidad coronaria por el hábito de fumar. Yo he usado una calculadora epidemiológica de las muchas que hay disponibles en Internet y he calculado una diferencia de riesgos de 0,0027, una PAP de 0,16 y una FEc de 0,4. Ya podemos calcular nuestros números de impacto.

El NIE será de 1/0,0027 = 366. Redondeando, de cada 365 fumadores, uno morirá por una cardiopatía atribuible al tabaco.

El NIC será de 1/0,16 = 6,25. De cada seis muertos por cardiopatía en la población, uno será atribuible al tabaco.

Por fin, el NICE será de 1/0,4 = 2,5. Aproximadamente, por cada tres muertos por cardiopatía entre los que fumaban, uno sería atribuible al vicio del tabaco.

Y aquí lo dejamos por hoy. No olvidéis que los datos del ejemplo son ficticios y no sé si se ajustan mucho a la realidad.

Hemos hablado solo de las estimaciones puntuales de los números de impacto pero, como siempre, lo preferible es el cálculo de sus intervalos de confianza. Los tres se pueden calcular con los límites de los intervalos de las medidas a partir de las que se obtienen los números de impacto, pero lo mejor es utilizar una calculadora que lo haga por nosotros. El cálculo de los intervalos de algunos parámetros como, por ejemplo, de la PAP puede ser complejo. Pero esa es otra historia…

Juntos, pero no revueltos

Los estudios observacionales son aquellos en los que, como su propio nombre indica, el investigador se limita a observar lo que pasa. Bueno, a observar y a analizar, pero no tiene ningún papel activo sobre la exposición o intervención en estudio. Dentro de estos estudios observacionales, todos conocemos los estudios de cohortes y los de casos y controles, los más utilizados.

En un estudio de cohortes, un grupo o cohorte es sometido a una exposición y se le sigue a lo largo del tiempo para comparar la frecuencia de aparición del efecto en comparación con una cohorte no expuesta, que actúa como control. Por su parte en un estudio de casos y controles, se parte de dos grupos de población, uno de los cuales presenta el efecto o enfermedad en estudio y se compara su exposición a un factor determinado respecto al grupo que no tiene la enfermedad y actúa como control.

El estudio de cohortes es el más sólido de los dos desde el punto de vista metodológico. El problema es que suelen requerir largos periodos de seguimiento y grandes cohortes, sobre todo cuando la frecuencia de la enfermedad estudiada es baja, lo que lleva a la necesidad de manejar todas las covariables de toda esta gran cohorte, lo que aumenta los costes del estudio.

Pues bien, para estos casos en los que ni los casos y controles ni las cohortes se ajustan bien a las necesidades del investigador, los epidemiólogos han inventado una serie de diseños que están a caballo entre los dos y pueden mitigar sus defectos. Estos diseños híbridos son los estudios de casos y controles anidados en una cohorte y los estudios de cohorte y caso.

Vamos a empezar con el de casos y controles anidados. Supongamos que hemos hecho un estudio en el que hemos utilizado una cohorte con muchos participantes. Pues bien, podemos reutilizarla en un estudio de casos y controles anidados. Tomamos la cohorte y la seguimos a lo largo del tiempo, seleccionando como casos aquellos sujetos que van desarrollando la enfermedad y asignándoles como controles sujetos de la misma cohorte que todavía no la han presentado (aunque pueden hacerlo más tarde). Así casos y controles provienen de la misma cohorte. Es conveniente emparejarlos teniendo en cuenta variables confusoras y dependientes del tiempo como, por ejemplo, los años que llevan incluidos en la cohorte. De esta forma, un mismo sujeto puede actuar como control en varias ocasiones y terminar como caso en otra, lo que habrá que tener en cuenta a la hora del análisis estadístico de los estudios.

Como vamos viendo cómo surgen los casos, vamos haciendo un muestreo por densidad de incidencia, lo que nos va a permitir estimar riesgos relativos. Esta es una diferencia importante con los estudios de casos y controles convencionales, en los que suele calcularse una odds ratio, que solo puede asimilarse al riesgo relativo cuando la frecuencia del efecto es muy baja.

Otra diferencia es que toda la información sobre la cohorte se recoge al inicio del estudio, por lo que hay menos riesgo de que se produzcan los sesgos de información clásicos de los estudios de casos y controles, de naturaleza retrospectiva.

El otro tipo de diseño observacional híbrido que vamos a tratar es el de los estudios de caso y cohorte. Aquí también partimos de una gran cohorte inicial, de la que seleccionamos una subcohorte más manejable que se utilizará como grupo de comparación. Así, vamos viendo qué individuos de la cohorte inicial desarrollan la enfermedad y los comparamos con la subcohorte (con independencia de que pertenezcan o no a la subcohorte).

Al igual que en el ejemplo anterior, al elegir los casos a lo largo del tiempo podemos estimar la densidad de incidencia en casos y no casos, calculando a partir de ellas el riesgo relativo. Como podemos imaginar, este diseño es más económico que los estudios convencionales porque disminuye mucho el volumen de información de los sujetos sanos que hay que manejar, sin perder eficiencia a la hora de estudiar enfermedades raras. El problema que surge es que la subcohorte tiene una sobrerrepresentación de casos, por lo que el análisis de los resultados no puede hacerse como en las cohortes tradicionales, sino que tiene su metodología propia, bastante más complicada.

Y aquí vamos a dejarlo por hoy. Para resumir un poco, diremos que el estudio de casos y controles anidado se parece más al de casos y controles clásico, mientras que el de cohorte y caso se parece más al estudio de cohortes convencional. La diferencia fundamental entre los dos es que en el estudio anidado el muestreo de los controles se hace por densidad de incidencia y mediante emparejamiento, por lo que hay que esperar a que se hayan producido todos los casos para seleccionar toda la población de referencia. Esto no es así en el de caso cohorte, mucho más sencillo, en el que la población de referencia se selecciona al comienzo del estudio.

El inconveniente de estos estudios, como ya hemos comentado, es que el análisis es un poco más complicado que el de los estudio convencionales, ya que no es suficiente con el análisis crudo de los resultados, sino que hay que ajustar por la posibilidad de que un participante pueda actuar como control y caso (en los estudios anidados) y por la sobrerrepresentación de los casos en la subcohorte (en los de caso y cohorte). Pero esa es otra historia…

La tabla

Existen gran cantidad de tablas. Y tienen un gran papel a lo largo de nuestra vida. Quizás la que primero nos asalta en nuestra más tierna infancia es la tabla de multiplicar. ¿Quién no recuerda con nostalgia, al menos los más mayorcitos, como  repetíamos como loros aquello del dos por uno es dos, dos por… hasta que lo aprendíamos de memoria?. Pero no hicimos más que dominar las múltiples tablas de multiplicar cuando nos topamos con la tabla periódica de los elementos. Otra vez a aprender de memoria, esta vez ayudados de reglas nemotécnicas imposiblemente idiotas sobre Indios que Ganaban Buena Altura y no sé qué.

Pero es con los años cuando llega una de las peores de todas: la tabla de composición de alimentos, con su celda llena de calorías. Esta tabla nos persigue hasta en sueños. Y todo porque comer mucho tiene gran número de inconvenientes, demostrados la mayor parte de ellos gracias a la ayuda de otro tipo de tabla: la tabla de contingencia.

Las tablas de contingencia son usadas muy frecuentemente en Epidemiología para analizar la relación entre dos o más variables. Están formadas por filas y columnas. En las filas se suelen colocar los grupos por nivel de exposición al factor de estudio y en las columnas las diferentes categorías que tienen que ver con el estado de enfermedad o daño que investigamos. Filas y columnas se cruzan para formar celdas donde se representa la frecuencia de esa determinada combinación de variables.

Lo más habitual es que se representen dos variables (nuestra querida tabla 2×2), una dependiente y otra independiente, pero esto no siempre es así. Puede haber más de dos variables y, en ocasiones, puede no existir una dirección de dependencia entre las variables antes de realizar el análisis.

Las tablas 2×2 simples permiten analizar la relación entre dos variables dicotómicas. Según su contenido y el diseño del estudio al que pertenezcan, sus celdas pueden tener significados ligeramente diferentes, lo mismo que ocurre con las medidas que podemos calcular a partir de los datos de la tabla.

contingencia_transversalLas primeras serían las tablas de estudios transversales. En este tipo de estudios se representa una especie de foto fija de nuestra muestra que nos permite estudiar la relación entre las variables. Son, pues, estudios de prevalencia y, aunque los datos se recojan a lo largo de un periodo de tiempo, los resultados representan esa foto fija a la que ya nos hemos referido. En las columnas se coloca la variable dependiente (enfermedad o daño producido) y en las filas la independiente (el grado de exposición), con lo que podemos calcular una serie de medidas de frecuencia, de asociación y de significación estadística.

Las medidas de frecuencia son la prevalencia de enfermedad entre expuestos (EXP) y no expuestos (NEXP) y la prevalencia de exposición entre enfermos (ENF) y no enfermos (NENF). Estas prevalencias representan el número de personas enfermas, sanas, expuestas y no expuestas en relación con el total de cada grupo, por lo que son tasas estimadas en un momento puntual.

Las medidas de asociación son las razones de las prevalencias que acabamos de mencionar según enfermedad y exposición y la odds ratio, que nos dice cuánto más probable es que se produzca la enfermedad respecto a que no se produzca en EXP frente a NEXP. Un valor de estas medidas mayor de uno indica que el factor es de riesgo para que se produzca la enfermedad. Si vale de cero a uno querrá decir que el factor es de protección. Y si vale uno, pues que ni carne ni pescado.

Por último, como en todos los tipos de tablas que vamos a mencionar, se pueden calcular medidas de asociación estadística, fundamentalmente la chi-cuadrado con o sin corrección, la prueba exacta de Fisher y el valor de la p, uni o bilateral.

Muy parecidas a estas que hemos visto son las tablas de los estudios de casos y controles. En estos se trata de ver si diferentes grados de la exposición explican diferentes grados de enfermedad. En la columnas se colocan los casos y los controles y en las filas los EXP y NEXP.

contingencia_casos_controlesLas medidas de frecuencia que podemos calcular son la proporción de casos expuestos (respecto al total de casos) y la proporción de controles expuestos (respecto al total de controles). Lógicamente, podemos calcular también las proporciones de NEXP calculando los complementarios de los anteriores.

La medida de asociación fundamental es la odds ratio, que ya conocemos y en la que no nos vamos a detener mucho. Ya sabéis que, de forma simplificada, podemos calcularla como el cociente de los productos cruzados de la tabla y que nos indica cuánto es más probable contraer la enfermedad en EXP que en NEXP. La otra medida sería la fracción atribuible en los expuestos (FAExp), que nos indica el número de enfermos que son debidos a la acción directa de la exposición.

Podemos, en este tipo de tablas, calcular, además, una medida de impacto: la fracción atribuible en la población (FAPob), que sería el impacto potencial que tendría sobre la población el eliminar el factor de exposición. Si es un factor de riesgo sería un impacto positivo y, a la inversa, si es protector, negativo.

Comentar que las medidas de significación estadística dependerán de que los datos sean pareados (utilizaremos la prueba de McNemar) o no pareados (chi-cuadrado, prueba exacta de Fisher y valor de p).

contingencia_cohortes_acumulada

El tercer tipo de tablas de contingencia es el que corresponde a los estudios de cohortes, aunque la estructura difiere un poco si son estudios de casos nuevos producidos durante todo el periodo de estudio (incidencia acumulada) o si consideran el periodo de tiempo del estudio, el momento de aparición de la enfermedad y el diferente seguimiento de los grupos (tasa de incidencia o densidad de incidencia).

Las tablas de los estudios de incidencia acumulada (IA) son similares a las que hemos visto hasta ahora. En las columnas se representa el estado de enfermedad y en las filas el de exposición. Por otra parte, las de densidad o tasa de incidencia (TI) representan en una de las columnas el número de enfermos y en la otra el seguimiento en personas-año, de forma que los que tienen un seguimiento más prolongado tienen un mayor peso a la hora de calcular las medidas de frecuencia, asociación, etc.

contingencia_cohortes_densidadLas medidas de frecuencia serían los riesgos en EXP (Re) y en NEXP (Ro) para los casos de IA y las tasas de incidencia en EXP (TIe) y NEXP (TIo) en los de TI.

Los cocientes de las medidas anteriores nos permiten calcular las medidas de asociación: riesgos relativos (RR), reducción absoluta de riesgo (RAR) y reducción relativa de riesgo (RRR) para los estudios de IA y reducciones absolutas y relativas de las TI para los estudios de densidad. Podemos calcular también la FAExp como hacíamos con los estudios de casos y controles, al igual que la FAPob como medida de impacto.

En teoría pueden calcularse también las odds ratios, pero suelen ser menos utilizadas en este tipo de tablas. En cualquier caso, ya sabemos que odds ratio y RR se parecerán cuando la prevalencia de la enfermedad sea baja.

Para terminar con este tipo de tablas, podemos calcular las medidas de asociación estadística: chi-cuadrado, Fisher y p para estudios de IA y otras pruebas de asociación para los estudios de densidad de incidencia.

Como siempre, todos estos cálculos pueden realizarse a mano, aunque os recomiendo utilizar calculadoras, como la disponible en la Red CASPe. Es más sencillo, más rápido y, además, nos proporcionan todos estos parámetros con sus correspondientes intervalos de confianza, con lo que podemos estimar también su precisión.

Y con esto hemos llegado al final. Existen más tipos de tablas, con múltiples niveles por tratar más de dos variables, estratificadas según diferentes factores, etc. Pero esa es otra historia…

Cada oveja, con su pareja

En ocasiones, no podemos evitar que en nuestros estudios se nos metan factores de confusión, conocidos o desconocidos. Estas variables confusoras abren una puerta trasera por la que se cuelan nuestros datos, haciendo que las medidas de asociación entre exposición y efecto que estimamos mediante el estudio no se correspondan con la realidad.

En la fase de análisis suelen utilizarse técnicas como la estratificación, o modelos de regresión para medir la asociación ajustando por la variable confusora. Pero también podemos intentar prevenir la confusión en la fase de diseño. Una forma es restringiendo los criterios de inclusión según la variable de confusión. Otra estrategia consiste en seleccionar los controles para que tengan la misma distribución de la variable confusora que el grupo de intervención. Esto es lo que se conoce como emparejamiento.

cada oveja_poblacion generalSupongamos que queremos determinar el efecto del tabaco sobre la frecuencia de aparición de cáncer laríngeo, en una población con la distribución que veis en la primera tabla. Podemos ver que el 80% de los fumadores son hombres, mientras que solo el 20% de los no fumadores lo son. Nos inventamos que el riesgo de cáncer en hombres es del 2%, pero que sube hasta el 6% para los fumadores. Por su parte, el riesgo en mujeres es del 1%, llegando hasta un 3% si fuman. Así que, aunque todos doblan el riesgo si se apuntan al más antisocial de los vicios, los hombres siempre tienen el doble de riesgo que las mujeres (a igualdad de exposición al tabaco entre los dos sexos, porque los que fuman tienen seis veces más riesgo que las no fumadoras). En resumen, el sexo actúa como factor de confusión: influye sobre la probabilidad de sufrir la exposición y sobre la probabilidad de padecer el efecto, pero no forma parte de la secuencia causal entre tabaco y cáncer de laringe. Esto tendríamos que tenerlo en cuenta a la hora del análisis y calcular el riesgo relativo ajustado mediante la técnica de Mantel-Haenszel o utilizando un  modelo de regresión logística.

Pero otra posibilidad, si conocemos el factor de confusión, es intentar prevenir su efecto durante la fase de planificación del estudio. Supongamos que partimos de una cohorte de 500 fumadores, el 80% hombres y el 20% mujeres. En lugar de tomar 500 controles no fumadores al azar (solo el 20% serían hombres), incluímos en la cohorte no expuesta un no fumador por cada fumador de la cohorte expuesta y una no fumadora por cada fumadora de la cohorte expuesta. Tendremos dos cohortes con una distribución similar de la variable de confusión y, lógicamente, también similares en la distribución del resto de las variables conocidas (en caso contrario no podríamos compararlas).

¿Hemos solucionado el problema de la confusión?. Vamos a comprobarlo.

puerta_trasera_edadesVemos la tabla de contingencia de nuestro estudio con 1000 personas, puerta_trasera_edadesel 80% hombres y el 20% mujeres en los dos grupos, expuestos y no expuestos. Como sabemos el riesgo de desarrollar cáncer en función del sexo y el estado de fumador, podemos calcular el número de personas que esperamos que desarrollen cáncer a lo largo del estudio: 24 fumadores (el 6% de 400), ocho no fumadores (2% de 400), tres fumadoras (3% de 100) y una mujer no fumadora (1% de 100).

Con estos datos podemos construir las tablas de contingencia, global y estratificadas por sexos, que esperamos encontrar al finalizar el seguimiento. Si calculamos la medida de asociación (en este caso, el riesgo relativo) en hombres y mujeres por separado vemos que coincide (RR = 3). Además, es el mismo riesgo que el de la cohorte global, así que parece que hemos conseguido cerrar la puerta trasera. Ya sabemos que, en un estudio de cohortes, el emparejamiento por el factor de confusión nos permite contrarrestar su efecto.

Ahora supongamos que en lugar de un estudio de cohortes queremos realizar un estudio de casos y controles. ¿Podemos usar el emparejamiento?. Pues claro que podemos, ¿quién nos lo va a impedir?. Pero hay un pequeño problema.

Si pensamos un poco, nos daremos cuenta de que el emparejamiento con las cohortes influye tanto sobre la exposición como sobre el efecto. Sin embargo, en los estudios de casos y controles, el forzar una distribución similar del factor de confusión afecta solo a su influencia sobre el efecto y no a la que tiene sobre la exposición. Esto es así porque al homogeneizar según el factor de confusión se hace también según otros factores relacionados con él, entre otros, la propia exposición. Por este motivo, el emparejamiento no nos garantiza el cierre de la puerta trasera en los estudios de casos y controles.

¿Alguien no se lo cree?. Vamopuerta_trasera_edadess a suponer que, al finalizar el estudio de cohortes, seleccionamos 330 personas con cáncer laríngeo (80% hombres y 20% mujeres). Para hacer el estudio de casos y controles seleccionamos como controles un grupo de personas de la misma población que no tenga cáncer laríngeo (es lo que se denomina un estudio de casos y controles anidado en un estudio de cohortes).

El número de expuestos y no expuestos lo conocemos de los datos que dimos al principio de la población general, conociendo el riesgo de cáncer que se presenta según el género y la exposición al tabaco. Por otra parte, podemos también construir la tabla de los controles, ya que sabemos el porcentaje de exposición al tabaco según el sexo.

Por último, con los datos de estas tres tablas podremos construir las tablas de contingencia para el estudio global y las correspondientes a hombres y mujeres.

En este caso, la medida de asociación idónea es la odds ratio, que tiene un valor de tres para hombres y mujeres, pero que es de 2,18 para la población global del estudio. Vemos, pues, que no coinciden,puerta_trasera_edades lo que nos está diciendo que no nos hemos librado completamente del efecto de la variable de confusión aunque hayamos utilizado la técnica de emparejamiento para seleccionar el grupo control.

Entonces, ¿no puede utilizarse el emparejamiento en los estudios de casos y controles?. Pues sí, sí que se puede, aunque el análisis de los resultados para estimar la medida de asociación ajustada es un poco diferente. Pero esa es otra historia…

¿A qué lo atribuye?

Parece que fue ayer. Yo empezaba mis andanzas en los hospitales y tenía mis primeros contactos con El Paciente. Y de enfermedades no es que supiese demasiado, por cierto, pero sabía sin necesidad de pensar en ello cuáles eran las tres preguntas con las que se iniciaba toda buena historia clínica: ¿qué le pasa?, ¿desde cuándo?, ¿a qué lo atribuye?.

Y es que la necesidad de saber el porqué de las cosas es inherente a la naturaleza humana y, por supuesto, tiene gran importancia en medicina. Todo el mundo está loco por establecer relaciones de causa-efecto, por lo que a veces estas relaciones se hacen sin mucho rigor y llega uno a creerse que el culpable de su catarro de verano es el fulano del supermercado, que ha puesto el aire acondicionado muy fuerte. Por eso es de capital importancia que los estudios sobre etiología se realicen y se valoren con rigor. Por eso, y porque cuando hablamos de causa nos referimos también a las que hacen daño, incluidas nuestras propias acciones (lo que la gente culta llama iatrogenia).

Esta es la razón de que los estudios de etiología/daño tengan diseños similares. El ideal sería el ensayo clínico, y podemos usarlo, por ejemplo, para saber si un tratamiento es la causa de la curación del paciente. Pero cuando estudiamos factores de riesgo o exposiciones nocivas, el principio ético de no maleficencia nos impide aleatorizar las exposiciones, por lo que hemos de recurrir a estudios observacionales como los estudios de cohortes o los estudios de casos y controles, aunque siempre el nivel de evidencia será menor que el de los estudios experimentales.

Para valorar críticamente un trabajo sobre etiología/daño recurriremos a nuestros consabidos pilares: validez, importancia y aplicabilidad.

En primer lugar nos centraremos en la VALIDEZ o rigor científico del trabajo, que debe responder a la pregunta sobre si el factor o la intervención que estudiamos fue la causa del efecto adverso o la enfermedad producida.

Como siempre, buscaremos unos criterios primarios de validez. Si estos no se cumplen, dejaremos el trabajo y nos dedicaremos a otra cosa más provechosa. Lo primero será determinar si se han comparado grupos similares en cuanto a otros factores determinantes del efecto diferentes de la exposición estudiada. La aleatorización de los ensayos clínicos facilita que los grupos sean homogéneos, pero no podemos contar con ella en el caso de estudios observacionales. La homogeneidad de las dos cohortes es fundamental y sin ella el estudio no tendrá validez. Uno siempre se puede defender diciendo que ha estratificado por las diferencias entre los dos grupos o que ha hecho un análisis multivariante para controlar el efecto de las variables confusoras conocidas pero, ¿qué hacemos con las desconocidas?. Lo mismo se aplica a los estudios de casos y controles, mucho más sensibles a sesgos y confusiones.

¿Se han valorado la exposición y el efecto de la misma forma en todos los grupos?. En los ensayos y cohortes debemos comprobar que el efecto ha tenido la misma probabilidad de aparecer y ser detectado en los dos grupos. Por otra parte, en los estudios de casos y controles es muy importante valorar adecuadamente la exposición previa, por lo que debemos investigar si ha habido posibles sesgos de recogida de datos, como el sesgo de memoria (los enfermos suelen acordarse mejor de sus síntomas pasados que los sanos). Por último, debemos considerar si el seguimiento ha sido lo suficientemente largo y completo. Las pérdidas durante el estudio, frecuentes en los diseños observacionales, pueden sesgar los resultados.

Si hemos contestado sí a las tres preguntas anteriores, pasamos a considerar los criterios secundarios de validez. Los resultados del estudio deben ser evaluados para determinar si la asociación entre exposición y efecto satisface las pruebas de causalidad razonable. HillUna herramienta que podemos usar son los criterios de Hill, que fue un señor que sugirió utilizar una serie de aspectos para tratar de distinguir el carácter causal o no causal de una asociación. Estos criterios son los siguientes: a) fuerza de la asociación, que es la razón de riesgos de exposición y efecto, que consideraremos en breve; b) consistencia, que es la reproducibilidad en poblaciones o situaciones diferentes; c) especificidad, que quiere decir que una causa produce un único efecto y no múltiples; d) temporalidad: es fundamental que la causa preceda al efecto; e) gradiente biológico: a más intensidad de causa, mayor intensidad de efecto; f) plausibilidad: tiene que tener su lógica según nuestros conocimientos biológicos; g) coherencia, que no entre en conflicto con lo que se sabe de la enfermedad o el efecto; h) evidencia experimental, difícil de obtener muchas veces en humanos por problemas éticos; y, finalmente, i) analogía con otras situaciones conocidas. Aunque estos criterios son ya viejecillos y alguno puede ser irrelevante (evidencia experimental o analogía) o erróneo (especificidad), pueden servirnos de orientación. El criterio de temporalidad sería necesario y se complementaría muy bien con los de gradiente biológico, plausibilidad y coherencia.

Otro aspecto importante es estudiar si, al margen de la intervención en estudio, se han tratado los dos grupos de forma similar. En este tipo de estudios en los que el doble ciego brilla por su ausencia es en los que hay más riesgo de sesgo debido a cointervenciones, sobre todo si éstas son tratamientos con un efecto mucho mayor que la exposición en estudio.

En cuanto a la IMPORTANCIA de los resultados, debemos considerar la magnitud y la precisión de la asociación entre exposición y efecto.

¿Cuál fue la fuerza de la asociación?. La medida de asociación más habitual es el riesgo relativo (RR), que podremos usar en los ensayos y en los estudios de cohortes. Sin embargo, en los estudios de casos y controles desconocemos la incidencia del efecto (ya se ha producido al realizarse el estudio), por lo que utilizamos la odds ratio (OR). Como ya sabemos, la interpretación de los dos parámetros es similar. Incluso los dos son similares cuando la frecuencia del efecto es muy baja. Sin embargo, cuánto mayor es la magnitud o la frecuencia del efecto, más diferentes son RR y OR, con la peculiaridad de que la OR tiende a sobreestimar la fuerza de la asociación cuando es mayor que 1 y a subestimarla cuando es menor que 1. De todas formas, estos caprichos de la OR excepcionalmente nos modificarán la interpretación cualitativa de los resultados.

Hay que tener en cuenta que en un ensayo es válido cualquier valor de OR o RR cuyo intervalo de confianza no incluya el uno, pero en estudios observacionales hay que ser un poco más exigente. Así, en un estudio de cohortes daremos valor a RR mayores o iguales a tres y, en uno de casos y controles, a OR de cuatro o más.

Otro parámetro muy útil (en ensayos y cohortes) es la diferencia de riesgos o diferencia de incidencias, que es una forma rebuscada de llamar a nuestra conocida reducción absoluta de riesgo (RAR), que nos permite calcular el NNT (o NND, número necesario a dañar), parámetro que mejor nos cuantifica la importancia clínica de la asociación. También, similar a la reducción relativa del riesgo (RRR), contamos con la fracción atribuible en los expuestos, que es el porcentaje de riesgo observado en los expuestos que se debe a la exposición.

Y, ¿cuál es la precisión de los resultados?. Como ya sabemos, tiraremos de nuestros queridos intervalos de confianza, que nos servirán para determinar la precisión de la estimación del parámetro en la población. Siempre es conveniente disponer de todos estos parámetros, por lo que deben figurar en el estudio o debe ser posible su cálculo a partir de los datos proporcionados por los autores.

Para finalizar, nos fijaremos en la APLICABILIDAD de los resultados en nuestra práctica.

¿Son aplicables los resultados a nuestros pacientes?. Buscaremos si hay diferencias que desaconsejen extrapolar los resultados del trabajo a nuestro medio. Además, consideraremos cuál es la magnitud del riesgo en nuestros pacientes en función de los resultados del estudio y de las características del paciente en quien queramos aplicarlos. Y, finalmente, teniendo todos estos datos en mente, habrá que pensar en nuestras condiciones de trabajo, las alternativas que tenemos y las preferencias del paciente para decidir si hay que evitar la exposición que se ha estudiado. Por ejemplo, si la magnitud del riesgo es alta y disponemos de una alternativa eficaz la decisión está clara, pero las cosas no siempre serán tan sencillas.

Como siempre, os aconsejo que utilicéis los recursos CASPe para valorar los trabajos, tanto las parrillas adecuadas a cada diseño para hacer la lectura crítica, como las calculadoras para valorar la importancia de los resultados.

Antes de acabar, dejadme aclarar una cosa. Aunque hemos comentado que en las cohortes y ensayos usamos RR y en los casos y controles usamos OR, podemos usar OR en cualquier tipo de estudio (no así RR, para los cuáles hay que conocer la incidencia del efecto). El problema es que son algo menos precisas, por lo que se prefieren los RR y los NNT, cuando es posible utilizarlos. De todas formas, la OR es cada vez más popular por otro motivo, y es su utilización en los modelos de regresión logística, que nos permiten obtener estimadores ajustados por las diferentes variables de confusión. Pero esa es otra historia…

Una de romanos

¡Qué tíos esos romanos!. Iban, veían y vencían. Con esas legiones, cada una con sus diez cohortes, cada cohorte con sus casi quinientos romanos con su falda y sus sandalias de correas. Las cohortes eran grupos de soldados que estaban al alcance de la arenga de un mismo jefe y siempre avanzaban, nunca retrocedían. Así se puede conquistar la Galia (aunque no en su totalidad, como es bien sabido).

En epidemiología, una cohorte es también un grupo de personas que comparten algo, pero en lugar de ser la arenga de su jefe es la exposición a un factor que se estudia a lo largo del tiempo (tampoco son imprescindibles ni la falda ni las sandalias). Así, un estudio de cohortes es un tipo de diseño observacional, analítico y longitudinal que compara la frecuencia con la que ocurre un determinado efecto (generalmente una enfermedad) en dos grupos diferentes (las cohortes), uno de ellos expuesto a un factor y otro no expuesto al mismo factor. Ambas cohortes se estudian a lo largo del tiempo, por lo que la mayor parte de los estudios de cohortes son prospectivos (van hacia delante, como las cohortes romanas). Sin embargo, es posible hacer estudios de cohortes retrospectivos una vez ocurridos tanto la exposición como el efecto, identificándose los dos grupos en un momento atrás en el tiempo lo suficientemente alejado como para permitir que el efecto se haya desarrollado.

Como curiosidad, también podemos hacer un estudio con una sola cohorte si queremos estudiar la incidencia o la evolución de una determinada enfermedad, pero en realidad este tipo de diseños se engloba en los estudios descriptivos longitudinales.

Al realizarse un seguimiento a lo largo del tiempo, los estudios de cohortes permiten calcular la incidencia del efecto entre expuestos y no expuestos, calculando a partir de ellas una serie de medidas de asociación y de medidas de impacto características.

La medida de asociación es el riesgo relativo (RR), que es la proporción entre la incidencia de expuestos (Ie) y no expuestos (I0): RR = Ie/I0. Esta medida nos permite estimar la fuerza de la asociación entre la exposición al factor y el efecto, pero no nos informa sobre el impacto potencial que tiene la exposición sobre la salud de la población. Para esto debemos recurrir a las medidas de impacto, fundamentalmente la diferencia de incidencias (DI) y la proporción atribuible al factor en el grupo expuesto (PAE) o en la población (PAP).

La DI sería, como su nombre indica, la diferencia entre la incidencia de expuestos y no expuestos (Ie-I0). Esta medida, que es el equivalente a la reducción absoluta del riesgo de los ensayos clínicos, nos cuantifica la diferencia de incidencia que puede atribuirse al factor estudiado. Aunque puede sonar parecido al RR, en realidad son dos medidas bien diferentes. Veámoslo con un ejemplo. Supongamos dos estudios E1 y E2. Aunque el RR es igual a 3 en los dos estudios, la DI en E1 es del 40% mientras que en E2 es del 2%, con lo que el exceso de riesgo en los expuestos es mucho mayor en el primer estudio que en el segundo, a pesar de que los RR sean iguales en ambos. Digamos que el RR es más informativo para determinar posibles causas de un efecto, mientras que la DI, que depende también de la incidencia, es más útil desde el punto de vista epidemiológico para calcular los efectos sobre grupos de población.

La PAE es la DI respecto al grupo de expuestos y nos indica el riesgo de presentar el efecto en los expuestos que se debe específicamente a eso, a haber estado expuesto. Esta medida puede calcularse también a partir del RR entre expuestos y no expuestos.

Por su parte, la PAP nos da una idea del efecto que se produciría en la población (cuánto disminuiría la enfermedad) si pudiésemos eliminar totalmente la exposición al factor estudiado.

Como vemos, pues, los estudios de cohortes son muy útiles para calcular la asociación y el impacto entre efecto y exposición pero, cuidado, no sirven para establecer relaciones causales. Para eso son necesarios otros tipos de estudios.

El problema con los estudios de cohortes es que son difíciles (y costosos) de realizar de forma adecuada, suelen requerir muestran grandes y, a veces, periodos de seguimiento prolongados (con el consiguiente riesgo de pérdidas). Además, son poco útiles para enfermedades raras. Y no debemos olvidar que no nos permiten establecer relaciones de causalidad con la seguridad suficiente, aunque para ello sean mejores que sus primos los estudios de casos y controles, pero esa es otra historia…