Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Guardado porfebrero 2014
image_pdf

Ni tanto ni tan calvos

¿Os habéis preguntado alguna vez por qué la gente se queda calva, especialmente los varones a determinada edad?. Creo que tiene algo que ver con las hormonas. El caso es que es algo que suele gustar poco al afectado, y eso que hay una creencia popular que dice que los calvos son más inteligentes. A mí me parece que no tiene nada de malo ser calvo (es mucho peor ser gilipollas), claro que yo tengo todo mi pelo en la cabeza.

Siguiendo el hilo de la calvicie, supongamos que queremos saber si el color de pelo tiene algo que ver con quedarse calvo antes o después. Montamos un ensayo absurdo en el que reunimos 50 rubios y 50 morenos para estudiar cuántos se quedan calvos y en qué momento lo hacen.

Este ejemplo nos sirve para ilustrar los diferentes tipos de variables que podemos encontrarnos en un ensayo clínico y los diferentes métodos que debemos utilizar para comparar cada una de ellas.

Algunas variables son de tipo cuantitativo continuo. Por ejemplo, el peso de los participantes, su talla, su sueldo, el número de pelos por centímetro cuadrado, etc. Otras son de tipo cualitativo, como el color de pelo. En nuestro caso lo simplificaríamos a una variable binaria: rubio o moreno. Por último, encontramos variables llamadas de tiempo a evento, que nos muestran el tiempo que tardan los participantes en sufrir el evento en estudio, en nuestro caso, la calvicie.

Pues bien, a la hora de comparar si existen diferencias entre estas variables entre los dos grupos el método que elijamos vendrá determinado por el tipo de variable que estemos considerando.

Si queremos comparar una variable continua como la edad o el peso entre calvos y peludos, o entre rubios y morenos, tendremos que utilizar la prueba de la t de Student, siempre que nuestros datos se ajusten a una distribución normal. En el caso de que no sea así, la prueba no paramétrica que tendríamos que utilizar es la de Mann-Withney.

¿Y qué pasa si queremos comparar varias variables continuas a la vez?. Pues que podremos utilizar la regresión lineal múltiple para hacer las comparaciones entre variables.

En el caso de las variables cualitativas el enfoque es diferente. Para saber si existe dependencia estadísticamente significativa entre dos variables tendremos que construir la tabla de contingencia y recurrir a la prueba de la chi-cuadrado o a la prueba exacta de Fisher, según la naturaleza de los datos. Ante la duda podemos hacer siempre la prueba de Fisher. Aunque implica un cálculo más complejo, esto no es problema para cualquiera de los paquetes estadísticos disponibles hoy en día.

Otra posibilidad es calcular una medida de asociación como el riesgo relativo o la odds ratio con sus correspondientes intervalos de confianza. Si los intervalos no cruzan la línea de efecto nulo (el uno), consideraremos que la asociación es estadísticamente significativa.

Pero puede ocurrir que lo que queramos comparar sean varias variables cualitativas. En estos casos podremos utilizar un modelo de regresión logística.

Por último, vamos a hablar de las variables de tiempo a evento, algo más complicadas de comparar. Si utilizamos una variable como puede ser el tiempo que tardan en quedarse calvos nuestros sujetos podemos construir una curva de supervivencia o de Kaplan-Meier, que nos muestra de forma gráfica que porcentaje de sujetos queda en cada momento sin presentar el evento (o que porcentaje ya lo ha presentado, según como la leamos). Ahora bien, podemos comparar las curvas de supervivencia de rubios y morenos y ver si existen diferencias en la velocidad a la que se quedan calvos los dos grupos. Para esto utilizamos la prueba de los rangos logarítmicos, más conocida por su nombre en inglés: log rank test.

Este método se basa en la comparación entre las dos curvas en base a las diferencias entre los valores observados y los esperados si la supervivencia (la producción del evento en estudio, que no tiene porqué ser muerte) fuese igual en los dos grupos. Con este método podemos obtener un valor de p que nos indica si la diferencia entre las dos curvas de supervivencia es o no estadísticamente significativa, aunque no nos dice nada de la magnitud de la diferencia.

El caso de cálculo más complejo sería el supuesto de que queramos comparar más de dos variables. Para el análisis multivariado hay que servirse de un modelo de regresión de riesgos proporcionales de Cox. Este modelo es más complejo que los anteriores pero, una vez más, los programas informáticos lo llevan a cabo sin la menor dificultad si les introducimos los datos adecuados.

Y vamos a dejar a los calvos tranquilos de una vez. Podríamos hablar más acerca de las variables de tiempo a evento. Las curvas de Kaplan-Meier nos dan una idea de quién va presentando el evento a lo largo del tiempo, pero no nos dicen nada del riesgo de presentarlo en cada momento. Para eso necesitamos otro indicador, que es el cociente de riesgos instantáneos o hazard ratio. Pero esa es otra historia…

Unos vienen y otros van

Decía Forrest Gump que la vida es como una caja de bombones. A mí me parece que se parece más a una sala de cine. Ahí estamos nosotros, viendo la película, mientras hay gente que entra y gente que sale. Algunos están mucho tiempo viendo la película, otros se van rápido. Hay quien está desde el principio, incluso desde antes que nosotros, hay quien llega después. En fin, como la vida misma.

Pues lo mismo pasa a veces con los estudios de cohortes o los ensayos clínicos. A veces el número de participantes es el mismo durante toda la duración del estudio, salvo las pérdidas durante el seguimiento, que casi siempre se producen. Pero otras veces los participantes, como si de nuestra vida se tratase, entran y salen del estudio.

Pensemos en un estudio que dura desde enero hasta diciembre. Si se trata de una cohorte abierta, los participantes pueden entrar en el estudio desde el principio o hacerlo más tarde. Por ejemplo, imaginemos un sujeto A que entra desde el principio, uno B que entra en Marzo y otro C que entra en octubre. Una vez que entran en el estudio ocurre una cosa parecida; pueden estar en él hasta el final o abandonarlo antes por tres razones: presentan el evento de estudio, se mueren (los pobres) o se pierden durante el seguimiento por la razón que sea.

Como es fácil de entender, cada paciente contribuye al seguimiento con un número de días determinado y diferente. Si nos limitamos a calcular la incidencia acumulada al final del estudio dividiendo el número de eventos por el número de participantes tendremos una idea aproximada del riesgo de presentar el evento, pero no de cómo de rápido se presenta este riesgo. Para mejorar esta medida tenemos que calcular otra que se llama densidad de incidencia y que refleja el número de eventos por unidad de tiempo-población.

Esta densidad de incidencia sería el equivalente a la incidencia acumulada en los estudios cerrados, donde los participantes tienen todos unos seguimientos similares. Pero, a diferencia de la incidencia acumulada, que es una proporción, la densidad de incidencia es una tasa, ya que incorpora el paso del tiempo en el denominador.

La forma de calcular la densidad de incidencia es dividir el número de eventos nuevos durante el periodo de estudio entre el tiempo total observado para todas las personas del estudio. Por ejemplo, un caso por cada 100 personas-año sería el resultado de encontrar un caso en 100 personas seguidas durante un año o en diez seguidas durante diez años. Para comprender mejor su significado, sería lo mismo que decir que hemos visto un evento por cada 100 personas en cada año de seguimiento.

Como podéis ver, el denominador de esta tasa representa el tiempo total que la población ha estado sometida al riesgo de desarrollar el evento que estemos estudiando. Un problema que tiene este método es que asume que el riesgo es constante durante todo el periodo, lo cual a veces puede no ser reflejo de la realidad. Por ejemplo, en muchas enfermedades crónicas el riesgo va aumentando con el tiempo.

Para terminar, deciros que esta medida puede servir para comparar el riesgo de dos poblaciones, aun cuando el tiempo de seguimiento o de participantes no sea el mismo en los dos grupos. De la misma forma que calculamos el cociente de riesgo en los estudios de incidencia acumulada (el riesgo relativo), podemos calcular el cociente de las densidades de incidencia de dos grupos para calcular la razón de densidades de incidencia, que tiene una interpretación similar a la del riesgo relativo.

Y con esto esto terminado. No hemos hablado nada de cómo consideramos a los que se pierden del estudio. ¿Presentan el evento o no?, ¿enferman o no enferman?. Pues lo que se suele hacer es considerar que han estado bien durante la mitad del periodo durante el que se pierden, sacándose después del estudio. De aquí viene el asunto de los datos censurados de los estudios en los que la variable de resultado es de tipo tiempo hasta producción del evento. Pero esa es otra historia…

De huevos y castañas

En muchas ocasiones nos encontramos con cosas que la gente se empeña en mezclar y confundir a pesar de que son manifiestamente diferentes. Es entonces cuando solemos recurrir al refrán y decir que se parecen como un huevo a una castaña, lo que en realidad quiere decir que son claramente dispares.

Pues bien, en epidemiología tenemos un claro ejemplo de huevos y castañas en el caso de los tipos de medidas de frecuencia más utilizadas. Y me estoy refiriendo al lío que nos formamos con los términos razón, proporción y tasa.

Aunque las tres son cosas bien distintas, hay mucha tendencia a confundir unas con otras, y no solo entre aficionados: existen ejemplos en los libros de epidemiología de tasas que no lo son, de razones que son proporciones y de lo que queramos imaginar.

Vamos a verlas una a una y veremos cómo, en realidad, se parecen como un huevo a una castaña.

Entrando en materia, diremos que una razón representa la magnitud relativa de dos cantidades de dos variables cualesquiera. Se calcula dividiendo una de las magnitudes (numerador) entre la otra (denominador), de tal forma que compara las dos. La clave en la razón es que numerador y denominador no tienen por qué estar relacionados. Ni siquiera tienen que ser de la misma categoría de cosas. Podemos comparar huevos con castañas o huevos con personas que tienen un piso en Albacete (perdonadme si no se me ocurre un ejemplo en el que esta comparación pueda ser de utilidad).

Las razones pueden usarse con fines descriptivos o analíticos. Con fines descriptivos pueden compararse los hombres/mujeres que participan en un estudio, o la razón de casos y controles, etc. Con fines analíticos pueden servir para estudiar la enfermedad entre casos y controles, la mortalidad entre dos grupos, etc. Los ejemplos típicos de razón son el riesgo relativo y la odds ratio o razón de prevalencia.

Por otra parte, una proporción es la comparación de una parte respecto a un todo y puede expresarse como una fracción, un número decimal o un porcentaje. Por definición, el numerador debe estar incluido en el denominador. Por ejemplo, el número de obesos que juran que comen poquito dividido por el número total de obesos nos dará la proporción de obesos que juran comer poquito (que suele ser llamativamente más alta de lo esperable). Si la multiplicamos por cien, obtendremos el porcentaje.

La proporción representa también la probabilidad de que un suceso ocurra, por lo que sus valores oscilan de cero a uno, o de cero a cien si empleamos porcentajes. Un ejemplo sería el de la incidencia, que representa el riesgo de enfermar en una población en un periodo de tiempo dado.

Una proporción puede convertirse en una razón. Solo hay que restar el numerador del denominador y volver a dividir. Por ejemplo, si en un estudio participan 35 hombres y 25 mujeres, la proporción de participantes varones sería de 35/60 = 0,58. Pero si queremos saber la razón de hombres a mujeres sería de 35/(60-35) = 1,4.

El tercer concepto en discordia es el de tasa. Una tasa es una medida de la frecuencia con la que ocurre un evento en una población específica durante un periodo de tiempo determinado. Al basarse la medida en la frecuencia según el tamaño de la población, las tasas son muy útiles para comparar frecuencias de eventos en diferentes momentos, localizaciones, etc., al igual que entre poblaciones de distinto tamaño.

Quiero llamaros aquí la atención sobre la frecuentemente mal llamada tasa de prevalencia. La prevalencia mide el número de individuos de una población que presentan la enfermedad en un momento dado. Pero, si lo pensáis, los enfermos (numerador) están incluidos en el denominador, así que la prevalencia en realidad es una proporción y no una tasa.

Ejemplos de tasas reales serían las tasa de mortalidad infantil, de mortalidad específica, la tasa cruda de natalidad, etc.

Y con esto terminamos por hoy. No quiero liar más la cosa con otros indicadores epidemiológicos relacionados y de nombre parecido. Porque hay más, como la proporción de incidencia, la tasa de incidencia, etc. Pero esa es otra historia…