Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasTasa de incidencia
image_pdf

La tabla

Existen gran cantidad de tablas. Y tienen un gran papel a lo largo de nuestra vida. Quizás la que primero nos asalta en nuestra más tierna infancia es la tabla de multiplicar. ¿Quién no recuerda con nostalgia, al menos los más mayorcitos, como  repetíamos como loros aquello del dos por uno es dos, dos por… hasta que lo aprendíamos de memoria?. Pero no hicimos más que dominar las múltiples tablas de multiplicar cuando nos topamos con la tabla periódica de los elementos. Otra vez a aprender de memoria, esta vez ayudados de reglas nemotécnicas imposiblemente idiotas sobre Indios que Ganaban Buena Altura y no sé qué.

Pero es con los años cuando llega una de las peores de todas: la tabla de composición de alimentos, con su celda llena de calorías. Esta tabla nos persigue hasta en sueños. Y todo porque comer mucho tiene gran número de inconvenientes, demostrados la mayor parte de ellos gracias a la ayuda de otro tipo de tabla: la tabla de contingencia.

Las tablas de contingencia son usadas muy frecuentemente en Epidemiología para analizar la relación entre dos o más variables. Están formadas por filas y columnas. En las filas se suelen colocar los grupos por nivel de exposición al factor de estudio y en las columnas las diferentes categorías que tienen que ver con el estado de enfermedad o daño que investigamos. Filas y columnas se cruzan para formar celdas donde se representa la frecuencia de esa determinada combinación de variables.

Lo más habitual es que se representen dos variables (nuestra querida tabla 2×2), una dependiente y otra independiente, pero esto no siempre es así. Puede haber más de dos variables y, en ocasiones, puede no existir una dirección de dependencia entre las variables antes de realizar el análisis.

Las tablas 2×2 simples permiten analizar la relación entre dos variables dicotómicas. Según su contenido y el diseño del estudio al que pertenezcan, sus celdas pueden tener significados ligeramente diferentes, lo mismo que ocurre con las medidas que podemos calcular a partir de los datos de la tabla.

contingencia_transversalLas primeras serían las tablas de estudios transversales. En este tipo de estudios se representa una especie de foto fija de nuestra muestra que nos permite estudiar la relación entre las variables. Son, pues, estudios de prevalencia y, aunque los datos se recojan a lo largo de un periodo de tiempo, los resultados representan esa foto fija a la que ya nos hemos referido. En las columnas se coloca la variable dependiente (enfermedad o daño producido) y en las filas la independiente (el grado de exposición), con lo que podemos calcular una serie de medidas de frecuencia, de asociación y de significación estadística.

Las medidas de frecuencia son la prevalencia de enfermedad entre expuestos (EXP) y no expuestos (NEXP) y la prevalencia de exposición entre enfermos (ENF) y no enfermos (NENF). Estas prevalencias representan el número de personas enfermas, sanas, expuestas y no expuestas en relación con el total de cada grupo, por lo que son tasas estimadas en un momento puntual.

Las medidas de asociación son las razones de las prevalencias que acabamos de mencionar según enfermedad y exposición y la odds ratio, que nos dice cuánto más probable es que se produzca la enfermedad respecto a que no se produzca en EXP frente a NEXP. Un valor de estas medidas mayor de uno indica que el factor es de riesgo para que se produzca la enfermedad. Si vale de cero a uno querrá decir que el factor es de protección. Y si vale uno, pues que ni carne ni pescado.

Por último, como en todos los tipos de tablas que vamos a mencionar, se pueden calcular medidas de asociación estadística, fundamentalmente la chi-cuadrado con o sin corrección, la prueba exacta de Fisher y el valor de la p, uni o bilateral.

Muy parecidas a estas que hemos visto son las tablas de los estudios de casos y controles. En estos se trata de ver si diferentes grados de la exposición explican diferentes grados de enfermedad. En la columnas se colocan los casos y los controles y en las filas los EXP y NEXP.

contingencia_casos_controlesLas medidas de frecuencia que podemos calcular son la proporción de casos expuestos (respecto al total de casos) y la proporción de controles expuestos (respecto al total de controles). Lógicamente, podemos calcular también las proporciones de NEXP calculando los complementarios de los anteriores.

La medida de asociación fundamental es la odds ratio, que ya conocemos y en la que no nos vamos a detener mucho. Ya sabéis que, de forma simplificada, podemos calcularla como el cociente de los productos cruzados de la tabla y que nos indica cuánto es más probable contraer la enfermedad en EXP que en NEXP. La otra medida sería la fracción atribuible en los expuestos (FAExp), que nos indica el número de enfermos que son debidos a la acción directa de la exposición.

Podemos, en este tipo de tablas, calcular, además, una medida de impacto: la fracción atribuible en la población (FAPob), que sería el impacto potencial que tendría sobre la población el eliminar el factor de exposición. Si es un factor de riesgo sería un impacto positivo y, a la inversa, si es protector, negativo.

Comentar que las medidas de significación estadística dependerán de que los datos sean pareados (utilizaremos la prueba de McNemar) o no pareados (chi-cuadrado, prueba exacta de Fisher y valor de p).

contingencia_cohortes_acumulada

El tercer tipo de tablas de contingencia es el que corresponde a los estudios de cohortes, aunque la estructura difiere un poco si son estudios de casos nuevos producidos durante todo el periodo de estudio (incidencia acumulada) o si consideran el periodo de tiempo del estudio, el momento de aparición de la enfermedad y el diferente seguimiento de los grupos (tasa de incidencia o densidad de incidencia).

Las tablas de los estudios de incidencia acumulada (IA) son similares a las que hemos visto hasta ahora. En las columnas se representa el estado de enfermedad y en las filas el de exposición. Por otra parte, las de densidad o tasa de incidencia (TI) representan en una de las columnas el número de enfermos y en la otra el seguimiento en personas-año, de forma que los que tienen un seguimiento más prolongado tienen un mayor peso a la hora de calcular las medidas de frecuencia, asociación, etc.

contingencia_cohortes_densidadLas medidas de frecuencia serían los riesgos en EXP (Re) y en NEXP (Ro) para los casos de IA y las tasas de incidencia en EXP (TIe) y NEXP (TIo) en los de TI.

Los cocientes de las medidas anteriores nos permiten calcular las medidas de asociación: riesgos relativos (RR), reducción absoluta de riesgo (RAR) y reducción relativa de riesgo (RRR) para los estudios de IA y reducciones absolutas y relativas de las TI para los estudios de densidad. Podemos calcular también la FAExp como hacíamos con los estudios de casos y controles, al igual que la FAPob como medida de impacto.

En teoría pueden calcularse también las odds ratios, pero suelen ser menos utilizadas en este tipo de tablas. En cualquier caso, ya sabemos que odds ratio y RR se parecerán cuando la prevalencia de la enfermedad sea baja.

Para terminar con este tipo de tablas, podemos calcular las medidas de asociación estadística: chi-cuadrado, Fisher y p para estudios de IA y otras pruebas de asociación para los estudios de densidad de incidencia.

Como siempre, todos estos cálculos pueden realizarse a mano, aunque os recomiendo utilizar calculadoras, como la disponible en la Red CASPe. Es más sencillo, más rápido y, además, nos proporcionan todos estos parámetros con sus correspondientes intervalos de confianza, con lo que podemos estimar también su precisión.

Y con esto hemos llegado al final. Existen más tipos de tablas, con múltiples niveles por tratar más de dos variables, estratificadas según diferentes factores, etc. Pero esa es otra historia…

Doctor, ¿es grave?

Me pregunto cuántas veces habré escuchado esta pregunta o alguna de sus muchas variantes. Porque resulta que siempre estamos pensando en ensayos clínicos y en preguntas sobre diagnóstico y tratamiento, pero pensad si algún paciente os preguntó alguna vez si el tratamiento que le proponíais estaba refrendado por un ensayo clínico aleatorizado y controlado. A mí, al menos, no me ha pasado nunca. Pero sí que a diario me preguntan qué les va a ocurrir en el futuro.

Y de aquí deriva la importancia de los estudios sobre pronóstico. Tened en cuenta que no siempre se puede curar y que, por desgracia, muchas veces lo único que podemos hacer es acompañar y aliviar lo que podamos ante el anuncio de graves secuelas o de la muerte. Pero para esto es fundamental disponer de información de buena calidad sobre el futuro de la enfermedad de nuestro paciente. Esta información nos servirá también para calibrar los esfuerzos terapéuticos en cada situación en función de los riesgos y los beneficios. Y, además, los estudios sobre pronóstico sirven para comparar resultados entre servicios u hospitales diferentes. A nadie se le ocurre decir que un hospital es peor que otro porque su mortalidad es mayor sin comprobar antes que el pronóstico de sus pacientes sea semejante.

Antes de meternos con la lectura crítica de los artículos sobre pronóstico aclaremos la diferencia entre factor de riesgo y factor pronóstico. El factor de riesgo es una característica del ambiente o del sujeto que favorece el desarrollo de la enfermedad, mientras que el factor pronóstico es aquél que, una vez que se produce la enfermedad, influye sobre su evolución. Factor de riesgo y factor pronóstico son cosas diferentes, aunque a veces pueden coincidir. Lo que sí comparten los dos son el mismo diseño de tipo de estudio. Lo ideal sería utilizar ensayos clínicos, pero la mayor parte de las veces no podemos o no es ético aleatorizar los factores pronóstico o de riesgo, por lo que lo habitual es que se usen estudios de cohortes. En los casos que precisan seguimientos muy largos o en los que el efecto que queremos medir es muy raro se pueden usar estudios de casos y controles, pero siempre serán menos potentes por tener más riesgo de sesgo.

Un estudio de pronóstico nos debe informar de tres aspectos: qué resultado queremos valorar, qué probabilidad hay de que suceda y en qué periodo de tiempo esperamos que pase. Y para valorarlo, como siempre, nos asentaremos sobre nuestros tres pilares: validez, importancia y aplicabilidad.

Para valorar la VALIDEZ tendremos primero en cuenta si cumple una serie de criterios primarios o de eliminación. Si la respuesta es no, tirad el artículo y mirad a ver qué chorrada nueva han escrito vuestros amigos en Facebook.

¿Está bien definida la muestra de estudio y es representativa de pacientes en un momento similar de la enfermedad?. La muestra, que se suele denominar cohorte incipiente o cohorte de inicio, debe estar formada por un grupo amplio de pacientes en el mismo momento de la enfermedad, idealmente al inicio, y que se sigue de forma prospectiva. Debe estar bien especificado el tipo de pacientes incluidos, los criterios para diagnosticarlos y el método de selección. Además, debemos comprobar que el seguimiento haya sido lo suficientemente largo y completo como para observar el evento que estudiamos. Cada participante debe seguirse desde el inicio hasta que sale del estudio, ya sea porque se cure, porque presenta el evento o porque el estudio se acaba. Es muy importante tener en cuenta las pérdidas durante el estudio, muy habituales en diseños con seguimiento largo. El estudio debe proporcionar las características de los pacientes perdidos y los motivos para la pérdida. Si son similares a los que no se pierden, probablemente los resultados sean válidos. Si las pérdidas son de más de un 20% se suele hacer un análisis de sensibilidad utilizando el escenario de “el peor de los casos”: consideramos que todas las pérdidas han tenido mal pronóstico y recalculamos los resultados para ver si se modifican, en cuyo caso quedaría invalidado el estudio.

Una vez vistos estos dos aspectos, pasamos a los criterios secundarios de validez interna o rigor científico.

¿Se han medido los resultados de forma objetiva y no sesgada?. Debe especificarse con claridad qué se va a medir y cómo antes de iniciar el estudio. Además, lo ideal es que la medición de los resultados se haga de forma ciega para el experimentador, que debe desconocer si el sujeto en cuestión está sometido a alguno de los factores pronósticos para evitar el sesgo de información.

¿Se han ajustado los resultados según todos los valores pronósticos relevantes?. Hay que tener en cuenta todas las variables confusoras y los factores pronósticos que puedan influir en los resultados. En el caso de que se conozcan por estudios previos pueden tenerse en cuenta los factores conocidos. En caso contrario, los autores determinarán los efectos mediante análisis estratificado de los datos (el método más sencillo) o mediante el análisis multivariante (más potente y complejo), habitualmente mediante un modelo de riesgos proporcionales o de regresión de Cox. Aunque no vamos a entrar ahora en los modelos de regresión, sí que hay dos cosas sencillas que podemos tener en cuenta. La primera, estos modelos necesitan de un número determinado de eventos por cada variable incluida en el modelo, así que desconfiad cuando se analicen muchas variables, sobre todo con muestras pequeñas. La segunda, las variables las decide el autor y son diferentes de un trabajo a otro, por lo que tendremos que valorar si no se ha incluido alguna que pueda ser relevante para el resultado final.

¿Se han validado los resultados en otros grupos de pacientes?. Cuando hacemos grupos de variables y empezamos a comparar unos con otros corremos el riesgo de que el azar nos juegue una mala pasada y nos muestre asociaciones que realmente no existen. Por eso, cuando se describe un factor de riesgo en un grupo (grupo de entrenamiento o derivación), conviene replicar los resultados en un grupo independiente (grupo de validación) para estar seguros de la relación.

A continuación, debemos fijarnos en cuáles son los resultados para determinar su IMPORTANCIA. Para esto comprobaremos si se proporciona la estimación de la probabilidad de que suceda el desenlace de estudio, la precisión de esta estimación y el riesgo asociado a los factores que modifican el pronóstico.

¿Se especifica la probabilidad del suceso en un periodo de tiempo determinado?. Hay varias formas de presentar el número de sucesos que se producen durante el periodo de seguimiento. La más sencilla sería dar una tasa de incidencia (sucesos/persona/unidad de tiempo) o la frecuencia acumulada en un momento dado. Otra forma es dar la mediana de supervivencia, que no es más que el momento del seguimiento en el cuál el suceso se ha producido en la mitad de la cohorte (recordad que aunque hablemos de supervivencia, el suceso no tiene que ser obligatoriamente la muerte).

Para determinar la probabilidad de que se produzca el suceso en cada periodo y el ritmo al cual se va presentando pueden utilizarse curvas de supervivencia de varios tipos. Las tablas actuariales o de vida se utilizan para muestras grandes, cuando no sabemos el momento exacto del evento y con periodos de tiempo fijos. Sin embargo, probablemente nos encontremos con más frecuencia con las curvas de Kaplan-Meier, que miden mejor la probabilidad del suceso para cada momento concreto con muestras más pequeñas. Con este método se pueden proporcionar los cocientes de riesgos instantáneos en cada momento (los hazard ratios) y la mediana de supervivencia, además de otros parámetros según el modelo de regresión utilizado.

Para valorar la precisión de los resultados buscaremos, como siempre, los intervalos de confianza. Cuanto mayor sea el intervalo, menos precisa será la estimación de la probabilidad del suceso en la población general, que es lo que realmente nos interesa saber. Hay que tener en cuenta que el número de pacientes suele ser menor según pasa el tiempo, por lo que es habitual que las curvas de supervivencia sean más precisas al comienzo que al final del seguimiento. Por último, valoraremos cuáles son los factores que modifican el pronóstico. Lo correcto es representar todas las variables que puedan influir sobre el pronóstico con sus correspondientes riesgos relativos, que serán los que nos permitan evaluar la importancia clínica de la asociación.

Por último, tendremos que considerar la APLICABILIDAD de los resultados. ¿Son aplicables a mis pacientes?. Buscaremos las similitudes entre los pacientes del estudio y los nuestros y evaluaremos si las diferencias que encontremos nos permiten extrapolar los resultados a nuestra práctica. Pero además, ¿son útiles los resultados?. El que sean aplicables no quiere decir que tengamos que ponerlos en práctica obligatoriamente, sino que tendremos que valorar cuidadosamente si nos van a ayudar a decidir qué tratamiento aplicar o a cómo informar a nuestro paciente o a sus familiares.

Como siempre, os recomiendo que uséis alguna plantilla, como las que proporciona CASPe, para realizar la lectura crítica de forma sistemática y no dejar ningún aspecto importante sin valorar.

Ya veis que los trabajos sobre pronóstico tienen mucha miga. Y eso que no hemos comentado prácticamente sobre modelos de regresión y curvas de supervivencia, que muchas veces son el núcleo del estudio estadístico de este tipo de trabajos. Pero esa es otra historia…