Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Los siguientes artculos han sido escritos pormmolina
image_pdf

Aquiles y el bosque de los efectos

Aquiles. ¡Qué tío! Sin duda, uno de los más famosos de todo el follón que armaron en Troya por culpa de Helena la guapa. Ya sabéis su historia. El tío era la leche porque su madre, que era nada menos que la ninfa Tetis, lo bañó en ambrosía y lo sumergió en la laguna Estigia para que fuese invulnerable. Pero cometió un error que una ninfa no debiera haberse permitido: lo agarró por el talón derecho, que no se mojó en la laguna. Así que de ahí le viene a Aquiles su punto débil. Héctor no se dio cuenta a tiempo pero Paris, bastante más espabilado, le metió un flechazo en el talón y lo mandó otra vez a la laguna, pero no al agua, sino al otro lado. Y sin barquero.

Este cuento es el origen de la expresión “talón de Aquiles”, que suele referirse al punto más débil o vulnerable de alguien o algo que, por lo demás, suele ser conocido por su fortaleza.

Por ejemplo, algo tan robusto y formidable como el metanálisis tiene su talón de Aquiles: el sesgo de publicación. Y eso se debe a que en el mundo de la ciencia no hay justicia social.

Todos los trabajos científicos deberían tener las mismas oportunidades de ser publicados y alcanzar la fama, pero la realidad no es en absoluto así y los trabajos pueden verse discriminados por cuatro razones: significación estadística, popularidad del tema que tratan, el tener alguien que los apadrine y el idioma en que están escritos.

Estos son los principales factores que pueden contribuir a este sesgo de publicación. En primer lugar, es más probable que se publiquen los estudios con resultados significativos y, dentro de estos, es más probable que se publiquen cuando el efecto es mayor. Esto hace que los estudios con resultados negativos o con efectos de pequeña magnitud puedan no llegar a ser publicados, con lo que sacaremos una conclusión sesgada del análisis solo de los estudios grandes con resultado positivo. De igual manera, los trabajos sobre temas de interés público tienen más probabilidad de ser publicados con independencia de la importancia de sus resultados. Además, el padrino también influye: una casa comercial que financie un estudio de un producto suyo y le salga mal, encima no va a publicarlo para que todos sepamos que su producto no es útil.

En segundo lugar, como es lógico, los estudios publicados tienen más probabilidad de llegar a nuestras manos que los que no se publican en revistas científicas. Es el caso de tesis doctorales, comunicaciones a congresos, informes de agencias gubernamentales o, incluso, estudios pendientes de publicar realizados por investigadores del tema que estemos tratando. Por este motivo es tan importante hacer una búsqueda que incluya este tipo de trabajos, que se engloban dentro del término de literatura gris.

Por último, pueden enumerarse una serie de sesgos que influyen en la probabilidad de que un trabajo sea publicado o recuperado por el investigador que realiza la revisión sistemática tales como el sesgo de lenguaje (limitamos la búsqueda por idioma), el sesgo de disponibilidad (se incluyen solo los estudios que son fáciles de recuperar por parte del investigador), el sesgo de coste (se incluyen estudios que son gratis o baratos), el sesgo de familiaridad (solo se incluyen los de la disciplina del investigador), el sesgo de duplicación (los que tienen resultados significativos tienen más probabilidad de ser publicados más de una vez) y el sesgo de citación (los estudios con resultado significativo tienen más probabilidad de ser citados por otros autores).

Uno puede pensar que esto de perder trabajos durante la revisión no puede ser tan grave, ya que podría argumentarse, por ejemplo, que los estudios no publicados en revistas con revisión por pares suelen ser de peor calidad, por lo que no merecen ser incluidos en el metanálisis. Sin embargo, no está claro ni que las revistas científicas aseguren la calidad metodológica del trabajo ni que este sea el único método para hacerlo. Hay investigadores, como los de las agencias gubernamentales, que no están interesados en publicar en revistas científicas, sino en elaborar informes para quienes los encargan. Además, la revisión por pares no es garantía de calidad ya que, con demasiada frecuencia, ni el investigador que realiza el trabajo ni los encargados de revisarlo tienen una formación en metodología que asegure la calidad del producto final.

Todo esto puede verse empeorado por el hecho de que estos mismos factores pueden influir en los criterios de inclusión y exclusión de los estudios primarios del metanálisis, de tal forma que obtenemos una muestra de trabajos que puede no ser representativa del conocimiento global sobre el tema del que trate la revisión sistemática y el metanálisis.

Si tenemos un sesgo de publicación la aplicabilidad de los resultados se verá seriamente comprometida. Por esto decimos que el sesgo de publicación es el verdadero talón de Aquiles del metanálisis.

Si delimitamos correctamente los criterios de inclusión y exclusión de los estudios y hacemos una búsqueda global y sin restricciones de la literatura habremos hecho todo lo posible para minimizar el riesgo de sesgo, pero nunca podremos estar seguros de haberlo evitado. Por eso se han ideado técnicas y herramientas para su detección.

La más usada tiene el simpático nombre de gráfico en embudo, aunque es más conocido por su nombre en inglés: funnel plot. En él se representa la magnitud del efecto medido (eje X) frente a una medida de precisión (eje Y), que suele ser el tamaño muestral, pero que puede también ser el inverso de la varianza o el error estándar. Representamos cada estudio primario con un punto y observamos la nube de puntos.

En la forma más habitual, con el tamaño de la muestra en el eje Y, la precisión de los resultados será mayor en los estudios de muestra más grande, con lo que los puntos estarán más juntos en la parte alta del eje y se irán dispersando al acercarnos al origen del eje Y. De esta forma, se observa una nube de puntos en forma de embudo, con la parte ancha hacia abajo. Este gráfico debe ser simétrico y, en caso de que no sea así, debemos sospechar siempre un sesgo de publicación. En el segundo ejemplo que os pongo podéis ver como “faltan” los estudios que están hacia el lado de falta de efecto: esto puede significar que solo se publican los estudios con resultado positivo.

Este método es muy sencillo de utilizar pero, en ocasiones, podemos tener dudas acerca de la asimetría de nuestro embudo, sobre todo si el número de estudios es pequeño. Además, el embudo puede ser asimétrico por defectos de la calidad de los estudios o porque estemos tratando con intervenciones cuyo efecto varíe según el tamaño de la muestra de cada estudio.  Para estos casos se han ideado otros métodos más objetivos como la prueba de correlación de rangos de Begg y la prueba de regresión lineal de Egger.

La prueba de Begg estudia la presencia de asociación entre las estimaciones de los efectos y sus varianzas. Si existe correlación entre ellos, mal asunto. El problema de esta prueba es que tiene poca potencia estadística, por lo que es poco de fiar cuando el número de estudios primarios es pequeño.

La prueba de Egger, más específica que la de Begg, consiste en representar gráficamente la recta de regresión entre la precisión de los estudios (variable independiente) y el efecto estandarizado (variable dependiente). Esta regresión hay que ponderarla por el inverso de la varianza, así que no os recomiendo que la hagáis por vuestra cuenta, salvo que seáis estadísticos consumados. Cuando no hay sesgo de publicación la recta de regresión se origina en el cero del eje Y. Cuánto más se aleje del cero, mayor evidencia de sesgo de publicación.

Como siempre, existen programas informáticos que hacen estas pruebas con rapidez sin que tengamos que quemarnos el cerebro con sus cálculos.

¿Y si después de hacer el trabajo vemos que hay sesgo de publicación? ¿Podemos hacer algo para ajustarlo? Como siempre, podemos.

La forma más sencilla es utilizar un método gráfico que se llama de ajuste y relleno (trim and fill para los amantes del inglés). Consiste en lo siguiente: a) dibujamos el funnel plot; b) quitamos los estudios pequeños para que el embudo sea simétrico; c) se determina el nuevo centro del gráfico; d) se vuelven a poner los estudios quitados y añadimos su reflejo al otro lado de la línea central; e) reestimamos el efecto.Otra actitud muy conservadora que podemos adoptar es dar por hecho que existe un sesgo de publicación y preguntarnos cuánto afecta nuestros resultados, dando por hecho que nos hemos dejado estudios sin incluir en el análisis.

La única forma de saber si el sesgo de publicación afecta a nuestras estimaciones sería comparar el efecto en los estudios recuperados y en los no recuperados pero, claro está, entonces no tendríamos que preocuparnos por el sesgo de publicación.

Para saber si el resultado observado es robusto o, por el contrario, es susceptible de estar sesgado por un sesgo de publicación, se han ideado dos métodos de la N de seguridad, los conocidos en inglés como los métodos fail-safe N.

El primero es el método de la N de seguridad de Rosenthal. Supongamos que tenemos un metanálisis con un efecto que es estadísticamente significativo, por ejemplo, un riesgo relativo mayor que uno con una p < 0,05 (o un intervalo de confianza del 95% que no incluye el valor nulo, el uno). Entonces nos hacemos una pregunta: ¿cuántos estudios con RR = 1 (valor nulo) tendremos que incluir hasta que la p no sea significativa? Si necesitamos pocos estudios (menos de 10) para hacer nulo el valor del efecto, podemos preocuparnos porque puede que el efecto sea nulo en realidad y nuestra significación sea producto de un sesgo de publicación. Por el contrario, si hacen falta muchos estudios, probablemente el efecto sea significativo de verdad. Este número de estudios es lo que significa la letra N del nombre del método.

El problema de este método es que se centra en la significación estadística y no en la importancia de los resultados. Lo correcto sería buscar cuántos estudios hacen falta para que el resultado pierda importancia clínica, no significación estadística. Además, asume que los efectos de los estudios faltantes es nulo (uno en caso de riesgos relativos y odds ratios, cero en casos de diferencias de medias), cuando el efecto de los estudios faltantes puede ir en sentido contrario que el efecto que detectamos o en el mismo sentido pero de menor magnitud.

Para evitar estos inconvenientes existe una variación de la fórmula anterior que valora la significación estadística y la importancia clínica. Con este método, que se denomina el de la N de seguridad de Orwin, se calcula cuántos estudios hacen falta para llevar el valor del efecto a un valor específico, que será generalmente el menor efecto que sea clínicamente importante. Este método permite también especificar el efecto medio de los estudios faltantes.

Para terminar con el metanálisis, veamos cuál es la forma correcta de expresar los resultados del análisis de los datos. Para hacerlo bien, podemos seguir las recomendaciones de la declaración PRISMA, que dedica siete de sus 27 ítems a darnos consejos de cómo presentar los resultados de un metanálisis.

Primero debemos informar sobre el proceso de selección de estudios: cuántos hemos encontrado y evaluado, cuántos hemos seleccionado y cuántos rechazado, explicando además las razones para hacerlo. Para esto resulta muy útil el diagrama de flujo que debe incluir la revisión sistemática de la que procede el metanálisis si se acoge a la declaración PRISMA.

En segundo lugar deben especificarse las características de los estudios primarios, detallando qué datos sacamos de cada uno de ellos y sus correspondientes citas bibliográficas para facilitar que cualquier lector del trabajo pueda comprobar los datos si no se fía de nosotros. En este sentido va también el tercer apartado, que se refiere a la evaluación del riesgo de sesgos de los estudios y su validez interna.

Cuarto, debemos presentar los resultados de cada estudio individual con un dato resumen de cada grupo de intervención analizado junto con los estimadores calculados y sus intervalos de confianza. Estos datos nos servirán para confeccionar la información que PRISMA nos pide en su quinto punto referente a la presentación de resultados y no es otro que la síntesis de todos los estudios del metanálisis, sus intervalos de confianza, resultados del estudio de homogeneidad, etc.

Esto suele hacerse de forma gráfica mediante un diagrama de efectos, una herramienta gráfica popularmente más conocida por su nombre en inglés: el forest plot. Este gráfico es una especie de bosque donde los árboles serían los estudios primarios del metanálisis y donde se resumen todos los resultados relevantes de la síntesis cuantitativa.

La Cochrane Collaboration recomienda estructurar el forest plot en cinco columnas bien diferenciadas. En la columna 1 se listan los estudios primarios o los grupos o subgrupos de pacientes incluidos en el metanálisis. Habitualmente se representan por un identificador compuesto por el nombre del primer autor y la fecha de publicación.La columna 2 nos muestra los resultados de las medidas de efecto de cada estudio tal como las refieren sus respectivos autores.

La columna 3 es el forest plot propiamente dicho, la parte gráfica del asunto. En él se representan las medidas de efecto de cada estudio a ambos lados de la línea de efecto nulo, que ya sabemos que es el cero para diferencias de media y el uno para odds ratios, riesgos relativos, hazard ratios, etc. Cada estudio se representa por un cuadrado cuya área suele ser proporcional a la contribución de cada uno al resultado global. Además, el cuadrado está dentro de un segmento que representa los extremos de su intervalo de confianza.

Estos intervalos de confianza nos informan sobre la precisión de los estudios y nos dicen cuáles son estadísticamente significativos: aquellos cuyo intervalo no cruza la línea de efecto nulo. De todas formas, no olvidéis que, aunque crucen la línea de efecto nulo y no sean estadísticamente significativos, los límites del intervalo pueden darnos mucha información sobre la importancia clínica de los resultados de cada estudio. Por último, en el fondo del gráfico encontraremos un diamante que representa el resultado global del metanálisis. Su posición respecto a la línea de efecto nulo nos informará sobre la significación estadística del resultado global, mientras que su anchura nos dará una idea de su precisión (su intervalo de confianza). Además, en la parte superior de esta columna encontraremos el tipo de medida de efecto, el modelo de análisis de datos que se ha utilizados (efectos fijos o efectos aleatorios) y el valor de significación de los intervalos de confianza (habitualmente 95%).

Suele completar este gráfico una cuarta columna con la estimación del peso de cada estudio en tantos por cien y una quinta columna con las estimaciones del efecto ponderado de cada uno. Y en algún rinconcillo de todo este bosque estará la medida de heterogeneidad que se ha utilizado, junto con su significación estadística en los casos en que sea pertinente.

Para finalizar la exposición de los resultados, PRISMA recomienda un sexto apartado con la evaluación que se haya hecho de los riesgos de sesgo del estudio y un séptimo con todos los análisis adicionales que haya sido necesario realizar: estratificación, análisis de sensibilidad, metarregresión, etc.

Como veis, nada es fácil en esto de los metanálisis. Por eso, la Cochrane recomienda seguir una serie de pasos para interpretar correctamente los resultados. A saber:

  1. Verificar qué variable se compara y cómo. Suele verse en la parte superior del forest plot.
  2. Localizar la medida de efecto utilizada. Esto es lógico y necesario para saber interpretar los resultados. No es lo mismo una hazard ratio que una diferencia de medias o lo que sea que se haya usado.
  3. Localizar el diamante, su posición y su amplitud. Conviene también fijarse en el valor numérico del estimador global y en su intervalo de confianza.
  4. Comprobar que se ha estudiado la heterogeneidad. Esto puede verse a ojo mirando si los segmentos que representan los estudios primarios están o no muy dispersos y si se solapan o no. En cualquier caso, siempre habrá un estadístico que valore el grado de heterogeneidad. Si vemos que existe heterogeneidad, lo siguiente será buscar qué explicación dan los autores sobre su existencia.
  5. Sacar nuestras conclusiones. Nos fijaremos en qué lado de la línea de efecto nulo están el efecto global y su intervalo de confianza. Ya sabéis que, aunque sea significativo, el límite inferior del intervalo conviene que esté lo más lejos posible de la línea, por aquello de la importancia clínica, que no siempre coincide con la significación estadística. Por último, volved a mirar el estudio de homogeneidad. Si hay mucha heterogeneidad los resultados no serán tan fiables.

Y con esto damos por finalizado el tema del metanálisis. En realidad, el forest plot no es exclusivo de los metanálisis y puede usarse siempre que queramos comparar estudios para dilucidar su significación estadística o clínica, o en casos como los estudios de equivalencia, en los que a la línea de efecto nulo se le unen las de los umbrales de equivalencia. Pero aún tiene una utilidad más. Una variante del forest plot sirve también para valorar si existe sesgo de publicación en la revisión sistemática aunque, como ya sabemos, en estos casos le cambiamos el nombre por el de gráfico en embudo. Pero esa es otra historia…

Churras y merinas

Todos conoceréis el cuento chino del pobre grano de arroz solitario que se cae al suelo y no lo oye nadie. Claro que si en lugar de caerse un grano se cae un saco lleno de arroz eso ya será otra cosa. Hay muchos ejemplos de que la unión hace la fuerza. Una hormiga roja es inofensiva, salvo que te muerda en alguna zona blanda y noble, que suelen ser las más sensibles. Pero ¿qué me decís de una marabunta de millones de hormigas rojas? Eso sí que acojona, porque si se juntan todas y vienen a por ti, poco podrás hacer para parar su empuje. Sí, la unión hace la fuerza.

Y esto también pasa en estadística. Con una muestra relativamente pequeña de votantes bien elegidos podemos estimar quién va a ganar unas elecciones en las que votan millones. Así que, ¿qué no podríamos hacer con un montón de esas muestras? Seguro que la estimación sería más fiable y más generalizable.

Pues bien, esta es precisamente una de las finalidades del metanálisis, que utiliza diversas técnicas estadísticas para hacer una síntesis cuantitativa de los resultados de un conjunto de estudios que, aunque tratan de responder a la misma pregunta, no llegan exactamente al mismo resultado. Pero cuidado, no podemos ponernos a juntar estudios para sacar conclusiones sobre la suma de ellos sin antes tomar una serie de precauciones. Esto sería como mezclar churras con merinas que, no sé muy bien porqué, debe ser algo terriblemente peligroso porque todo el mundo sabe que es algo a evitar.

Pensad que tenemos un conjunto de ensayos clínicos sobre un mismo tema y queremos hacer un metanálisis para obtener un resultado global. Es más que conveniente que exista la menor variabilidad posible entre los estudios si queremos combinarlos. Porque, señoras y señores, aquí también impera aquello de juntos, pero no revueltos.

Antes de pensar en combinar los resultados de los estudios de una revisión sistemática para hacer un metanálisis debemos hacer siempre un estudio previo de la heterogeneidad de los estudios primarios, que no es más que la variabilidad que existe entre los estimadores que se han obtenido en cada uno de esos estudios.

En primer lugar, investigaremos posibles causas de heterogeneidad, como pueden ser diferencias en los tratamientos, variabilidad de las poblaciones de los diferentes estudios y diferencias en los diseños de los ensayos. Si existe mucha heterogeneidad desde el punto de vista clínico, quizás lo más idóneo sea no hacer metanálisis y limitarnos a realizar un análisis de síntesis cualitativa de los resultados de la revisión.

Una vez que llegamos a la conclusión de que los estudios se parecen lo suficiente como para intentar combinarlos debemos tratar de medir esta heterogeneidad para tener un dato objetivo. Para esto, diversos cerebros privilegiados han creado una serie de estadísticos que contribuyen a nuestra cotidiana selva de siglas y letras.

Hasta hace poco el más famoso era la Q de Cochran, que no tiene nada que ver ni con el amigo de James Bond ni con nuestro amigo Archie Cochrane. Su cálculo tiene en cuenta la suma de las desviaciones entre el resultado del estudio y el resultado global (elevados al cuadrado por aquello de que no se anulen positivas con negativas), ponderando cada estudio según su contribución al resultados global. Parece impresionante pero, en realidad, no es para tanto. En el fondo no es más que una prima aristócrata de la ji-cuadrado. En efecto, la Q sigue una distribución ji-cuadrado con k-1 grados de libertad (k es el número de estudios primarios). Calculamos su valor, buscamos en la distribución de frecuencias la probabilidad de que la diferencia no se deba al azar y tratamos de rechazar nuestra hipótesis nula (que asume que las diferencias entre estudios son debidas al azar). Pero la Q, a pesar de sus apariencias, tiene una serie de debilidades.

En primer lugar, es un parámetro conservador y debemos siempre tener en cuenta que no significativo no es sinónimo obligatoriamente de ausencia de heterogeneidad: simplemente, no podemos rechazar la hipótesis nula, así que la damos como buena, pero siempre con el riesgo de cometer un error de tipo II y columpiarnos. Por esto, algunos proponen utilizar un nivel de significación de p<0,1 en lugar de la p<0,05 habitual. Otro fallo que tiene la Q es que no cuantifica el grado de heterogeneidad y, por supuesto, tampoco da razones de las causas que la producen. Y, por si fuera poco, pierde potencia cuando el número de estudios es pequeño y no permite comparar diferentes metanálisis entre sí si el número de estudios es diferente.

Por estos motivos se ha desarrollado otro estadístico que es mucho más celebre en la actualidad: la I2. Este parámetro proporciona una estimación de la variabilidad total entre los estudios respecto a la variabilidad total lo que, dicho de otro modo, es la proporción de la variabilidad debida a diferencias reales entre los estimadores respecto a la variabilidad debida al azar (dicho de forma aún más sencilla, la proporción de variabilidad no debida al azar). Además, es  menos sensible a la magnitud del efecto y al número de estudios. También parece impresionante, pero en realidad es otra prima aventajada del coeficiente de correlación intraclase.

Su valor va de 0 a 100%, considerándose habitualmente los límites de 25%, 50% y 75% para delimitar cuando existe una heterogeneidad baja, moderada y alta, respectivamente. La I2 no depende de las unidades de medida de los efectos ni del número de estudios, por lo que sí permite comparaciones con distintas medidas de efecto y entre diferentes metanálisis con diferente número de estudios.

Si encontráis algún estudio con Q pero sin I2, o viceversa, y queréis calcular el que no tenéis, podéis utilizar la siguiente formulilla, donde k es el número de estudios primarios:

I^{2}= \frac{Q-k+1}{Q}

Existe un tercer parámetro menos conocido, pero no por ello menos digno de mención: la H2. Esta H2 mide el exceso del valor de Q respecto del valor que esperaríamos obtener si no existiese heterogeneidad. Por tanto, un valor de 1 significa que no hay heterogeneidad y su valor aumenta cuando aumenta la heterogeneidad entre los estudios. Pero su verdadero interés es que permite el cálculo de intervalos de confianza para la I2.

Otras veces los autores realizan un contraste de hipótesis con una hipótesis nula de no heterogeneidad y utilizan una chi ji-cuadrado o algún estadístico similar. En estos casos, lo que proporcionan es un valor de significación estadística. Si la p es < 0,05 se puede rechazar la hipótesis nula y decir que hay heterogeneidad. En caso contrario diremos que no podemos rechazar la hipótesis nula de no heterogeneidad.

En resumen, siempre que veamos un indicador de homogeneidad que represente un porcentaje nos indicará la proporción de variabilidad que no es debida al azar. Por su parte, cuando nos den una “p” habrá heterogeneidad significativa cuando la “p” sea menor de 0,05.

No os preocupéis por los cálculos de Q, I2 y H2. Para eso se usan programas específicos como RevMan o módulos que hacen la misma función dentro de los programas de estadística habituales.

Un punto de atención: recordad siempre que no poder demostrar heterogeneidad no siempre quiere decir que los estudios sean homogéneos. El problema es que la hipótesis nula asume que son homogéneos y las diferencias se deben al azar. Si podemos rechazarla podemos asegurar que hay heterogeneidad (siempre con un pequeño grado de incertidumbre). Pero esto no funciona al revés: si no podemos rechazarla quiere decir simplemente eso, que no podemos rechazar que no haya heterogeneidad, pero siempre habrá una probabilidad de cometer un error de tipo II si asumimos directamente que los estudios son homogéneos.

Por este motivo se han ideado una serie de métodos gráficos para inspeccionar los estudios y comprobar que no hay datos de heterogeneidad aunque los parámetros numéricos digan otra cosa.

Quizás el más utilizado sea el gráfico de Galbraith, que puede emplearse tanto para ensayos como para metanálisis de estudios observacionales. Este gráfico, que podéis ver en la primera figura, representa la precisión de cada estudio frente a su efecto estandarizado junto con la línea de la ecuación de regresión ajustada y unas bandas de confianza. La posición de cada estudio respecto al eje de la precisión indica el peso de su contribución al resultado global, mientras que su localización fuera de las bandas de confianza indica su contribución a la heterogeneidad.

El gráfico de Galbraith puede resultar útil también para detectar fuentes de heterogeneidad, ya que se pueden etiquetar los estudios según diferentes variables y ver como contribuyen a la heterogeneidad global.

Otra herramienta que puede utilizarse para metanálisis de ensayos clínicos es el gráfico de L’Abbé (segunda figura), que representa las tasas de respuesta de los grupos de tratamiento y de control y su posición respecto a la diagonal. Por encima de la diagonal quedan los estudios con resultado favorable al tratamiento, mientras que por debajo están aquellos con resultado favorable al control. Los estudios suelen representarse con un área proporcional a su precisión y su dispersión indica heterogeneidad. Además, en ocasiones pueden dar información adicional. Por ejemplo, en el gráfico que os adjunto podéis ver que a riesgos bajos los estudios están en el área del control, mientras que en riesgos altos van hacia la zona favorable al tratamiento. Esta distribución, además de ser sugestiva de heterogeneidad, puede sugerirnos que la eficacia del tratamiento depende del nivel de riesgo o, dicho de otro modo, que tenemos alguna variable modificadora de efecto en nuestro estudio. Una pequeña pega de esta herramienta es que solo es aplicable a metanálisis de ensayos clínicos y cuando la variable dependiente es dicotómica.

Bien, supongamos que hacemos el estudio de heterogeneidad y decidimos que vamos a combinar los estudios para hacer el metanálisis. El siguiente paso es analizar los estimadores del tamaño de efecto de los estudios, ponderándolos según la contribución que cada estudio va a tener sobre el resultado global. Esto es lógico, no puede contribuir lo mismo al resultado final un ensayo con pocos participantes y un resultado poco preciso que otro con miles de participantes y una medida de resultado más precisa.

La forma más habitual de tener en cuenta estas diferencias es ponderar la estimación del tamaño del efecto por la inversa de la varianza de los resultados, realizando posteriormente el análisis para obtener el efecto medio. Para estos hay varias posibilidades, algunas de ellas muy complejas desde el punto de vista estadístico, aunque los dos métodos que se utilizan con más frecuencia son el modelo de efecto fijo y el modelo de efectos aleatorios. Ambos modelos difieren en la concepción que hacen de la población de partida de la que proceden los estudios primarios del metanálisis.

El modelo de efecto fijo considera que no existe heterogeneidad y que todos los estudios estiman el mismo tamaño de efecto de la población (todos miden el mismo efecto, por eso se llama de efecto fijo), por lo que se asume que la variabilidad que se observa entre los estudios individuales se debe únicamente al error que se produce al realizar el muestreo aleatorio en cada estudio. Este error se cuantifica estimando la varianza intraestudios, asumiendo que las diferencias en los tamaños de efecto estimados se deben solo a que se han utilizado muestras de sujetos diferentes.

Por otro lado, en el modelo de efectos aleatorios se parte de la base de que el tamaño de efecto varía en cada estudio y sigue una distribución de frecuencias normal dentro de la población, por lo que cada estudio estima un tamaño de efecto diferente. Por lo tanto, además de la varianza intraestudios debida al error del muestreo aleatorio, el modelo incluye también la variabilidad entre estudios, que representaría la desviación de cada estudio respecto del tamaño de efecto medio. Estos dos términos de error son independientes entre sí, contribuyendo ambos a la varianza del estimador de los estudios.

En resumen, el modelo de efecto fijo incorpora solo un término de error por la variabilidad de cada estudio, mientras que el de efectos aleatorios añade, además, otro término de error debido a la variabilidad entre los estudios.

Veis que no he escrito ni una sola fórmula. En realidad no nos hace falta conocerlas y son bastante antipáticas, llenas de letras griegas que no hay quien las entienda. Pero no os preocupéis. Como siempre, los programas estadísticos como RevMan de la Cochrane Collaboration permiten hacer los cálculos de forma sencilla, quitando y sacando estudios del análisis y cambiando de modelo según nos apetezca.

El tipo de modelo a elegir tiene su importancia. Si en el análisis previo de homogeneidad vemos que los estudios son homogéneos podremos utilizar el modelo de efecto fijo. Pero si detectamos que existe heterogeneidad, dentro de los límites que nos permitan combinar los estudios, será preferible usar el modelo de efectos aleatorios.

Otra consideración a realizar es la de la aplicabilidad o validez externa de los resultados del metanálisis. Si hemos utilizado el modelo de efecto fijo será comprometido generalizar los resultados fuera de las poblaciones con características similares a las de los estudios incluidos. Esto no ocurre con los resultados obtenidos utilizando el modelo de efectos aleatorios, cuya validez externa es mayor por provenir de poblaciones de diferentes estudios.

En cualquier caso, obtendremos una medida de efecto medio junto con su intervalo de confianza. Este intervalo de confianza será estadísticamente significativo cuando no cruce la línea de efecto nulo, que ya sabemos que es cero para diferencias de medias y uno para odds ratios y riesgos relativos. Además, la amplitud del intervalo nos informará sobre la precisión de la estimación del efecto medio en la población: cuánto más ancho, menos preciso, y viceversa.

Si pensáis un poco comprenderéis en seguida porqué el modelo de efectos aleatorios es más conservador que el de efecto fijo en el sentido de que los intervalos de confianza que se obtienen son menos precisos, ya que incorpora más variabilidad en su análisis. En algún caso puede ocurrir que el estimador sea significativo si usamos el de efecto fijo y no lo sea si usamos el de efectos aleatorios, pero esto no debe condicionarnos a la hora de escoger el modelo a utilizar. Siempre debemos basarnos en la medida previa de heterogeneidad aunque, si tenemos dudas, también podemos utilizar los dos y comparar los diferentes resultados.

Una vez estudiada la homogeneidad de los estudios primarios podemos llegar a la desoladora conclusión de que la heterogeneidad es la reina de la situación. ¿Podemos hacer algo? Claro, podemos. Siempre podemos no combinar los estudios o combinarlos a pesar de la heterogeneidad y obtener una medida resumen, pero habrá que calcular también medidas de variabilidad entre estudios y, aun así, no podremos estar seguros de nuestros resultados.

Otra posibilidad es hacer un análisis estratificado según la variable que cause la heterogeneidad, siempre que seamos capaces de identificarla. Para esto podemos hacer un análisis de sensibilidad, repitiendo los cálculos extrayendo uno a uno cada uno de los subgrupos y ver cómo influyen en el resultado global. El problema es que esto deja de lado el verdadero objetivo del metanálisis, que no es otro que el de obtener un valor global de estudios homogéneos.

Los más sesudos en estos temas pueden, por último, recurrir a la metarregresión. Esta técnica es similar a un modelo de regresión multivariante en el que las características de los estudios se usan como variables explicativas y la variable de efecto o alguna medida de la desviación de cada estudio respecto al global se usa como variable dependiente. Hay que hacer, además, una ponderación según la contribución de cada estudio al resultado global y procurar no meter muchos coeficientes al modelo de regresión si el número de estudios primarios no es muy grande. No os aconsejo que hagáis una metarregresión en vuestra casa si no es acompañados de personas mayores.

Y ya solo nos quedaría comprobar que no nos faltan estudios sin recoger y presentar los resultados de forma correcta. Los datos de los metanálisis suelen representarse en un gráfico específico que se suele conocer por su nombre en inglés: el forest plot. Pero esa es otra historia…

El todo es mayor que la suma de las partes

Esta es otra de esas frases famosas que están hasta en la sopa. Al parecer, el primero que tuvo esta ocurrente idea fue Aristóteles, que resumió con ella el principio general del holismo en sus escritos sobre metafísica. ¿Quién hubiese dicho que la frasecita encierra tanta sabiduría? Y es que el holismo insiste en que el todo debe ser considerado de una forma global, ya que sus componentes pueden actuar de una forma sinérgica, permitiendo que el conjunto tenga más significado que el aportado por cada parte de forma individual.

No temáis, seguís en el blog del seso y no en uno de filosofía. Y tampoco he cambiado la temática del blog, pero es que este principio me viene al pelo para introducir esa fiera corrupia del método científico que es la revisión sistemática, con o sin metanálisis.

Vivimos en la era de la información. Desde finales del pasado siglo XX hemos sido testigos de una verdadera explosión de las fuentes de información disponibles, accesibles desde múltiples fuentes y plataformas. El resultado final es que nos vemos desbordados cada vez que necesitamos una información sobre un punto concreto, no sabemos dónde buscar ni cómo podemos encontrar lo que queremos. Por este motivo empezaron a desarrollarse sistemas que sintetizasen la información disponible para hacerla más abarcable cuando se necesitase.

Nacen así las primeras revisiones, llamadas revisiones narrativas o de autor. Para elaborarlas, uno o varios autores, habitualmente expertos en un tema concreto, hacían una revisión general sobre dicho tema, aunque sin ningún criterio estricto sobre la estrategia de búsqueda ni de selección de la información. Siguiendo con total libertad, los autores analizaban los resultados tal como les mandaba su entendimiento y terminaban sacando sus conclusiones a partir de una síntesis cualitativa de los resultados obtenidos.

Estas revisiones narrativas son muy útiles para adquirir una visión general del tema, especialmente cuando uno sabe poco sobre la materia, pero son poco útiles para el que ya conoce el tema y necesita respuesta a una pregunta más concreta. Además, como todo el procedimiento se hace según el gusto de los autores, las conclusiones son poco reproducibles.

Por estos motivos, una serie de mentes privilegiadas inventan el otro tipo de revisión en el que nos vamos a centrar en esta entrada: la revisión sistemática. En lugar de revisar un tema general, las revisiones sistemáticas sí se centran en un tema concreto para poder solucionar dudas concretas de la práctica clínica. Además, emplean una estrategia de búsqueda claramente especificada y unos criterios de inclusión de trabajos explícitos y rigurosos, lo que las hace altamente reproducibles si a otro grupo de autores se les ocurre repetir la revisión sobre el mismo tema. Y, por si fuera poco, siempre que es posible van más allá del análisis de síntesis cualitativa, completándola con una síntesis cuantitativa que recibe el simpático nombre de metanálisis.

La elaboración de una revisión sistemática consta de seis pasos: formulación del problema o pregunta que quiere responderse, búsqueda y selección de los trabajos existentes, evaluación de la calidad de estos estudios, extracción de los datos, análisis de los resultados y, finalmente, interpretación y conclusión. Vamos a detallar un poco todo este proceso.

Toda revisión sistemática que se precie debe tratar de responder a una pregunta concreta que debe ser relevante desde el punto de vista clínico. La pregunta se hará habitualmente de forma estructurada con los componentes habituales de población, intervención, comparación y resultado (PICO), de forma que el análisis de estos componentes nos permitirá saber si la revisión es de nuestro interés.

Además, los componentes de la pregunta clínica estructurada nos ayudarán a realizar la búsqueda de los trabajos relevantes que existan sobre el tema. Esta búsqueda debe ser global y no sesgada, por lo que evitaremos los posibles sesgos de procedencia excluyendo fuentes por su idioma, revista, etc. Lo habitual es utilizar un mínimo de dos bases de datos electrónicas importantes de uso general, como Pubmed, Embase o la de la Cochrane, junto con las específicas del tema que se esté tratando. Es importante que esta búsqueda se complemente con una búsqueda manual en registros no electrónicos y consultando las referencias bibliográficas de los trabajos encontrados, además de otras fuentes de la llamada literatura gris, como tesis, y documentos de congresos, además de documentos de agencias financiadoras, registros e, incluso, establecer contacto con otros investigadores para saber si existen trabajos aún no publicados.

Es muy importante que esta estrategia se especifique claramente en el apartado de métodos de la revisión, de forma que cualquiera pueda reproducirla con posterioridad, si se le antoja. Además, habrá que especificar claramente los criterios de inclusión y exclusión de los estudios primarios de la revisión, el tipo de diseño que se busca y sus componentes principales (otra vez en referencia al PICO, los componentes de la pregunta clínica estructurada).

El tercer paso es la evaluación de la calidad de los estudios encontrados, que debe hacerse por un mínimo de dos personas de forma independiente, ayudándose de un tercero (que seguramente será el jefe) para desempatar en los casos en que no haya consenso entre los extractores. Para esta tarea suelen utilizarse herramientas o listas de verificación diseñadas para tal efecto, siendo una de las más utilizadas la herramienta de control de sesgos de la Colaboración Cochrane. Esta herramienta valora cinco criterios de los estudios primarios para determinar su riesgo de sesgo: secuencia de aleatorización adecuada (previene el sesgo de selección), enmascaramiento adecuado (previene los sesgos de realización y detección, ambos sesgos de información), ocultamiento de la asignación (previene el sesgo de selección), las pérdidas durante el seguimiento (previene el sesgo de desgaste) y la información de datos selectiva (previene el sesgo de información). Los estudios se clasifican como de alto, bajo o indeterminado riesgo de sesgo. Es frecuente utilizar los colores del semáforo, marcando en verde los estudios con bajo riesgo de sesgo, en rojo los que tienen alto riesgo de sesgo y en amarillo los que se quedan en tierra de nadie. Cuanto más verde veamos, mejor será la calidad de los estudios primarios de la revisión.

Para la extracción de los datos suelen diseñarse también formularios al uso que suelen recoger datos como fecha, ámbito del estudio, tipo de diseño, etc, además de los componentes de la pregunta clínica estructurada. Como en el caso del paso anterior, conviene que esto se haga por más de una persona, estableciendo el método para llegar a un acuerdo en los casos en que no haya consenso entre los revisores.

Y aquí entramos en la parte más interesante de la revisión, el análisis de los resultados. El papel fundamental de los autores será explicar las diferencias que existan entre los estudios primarios que no sean debidas al azar, prestando especial atención a las variaciones en el diseño, población de estudio, exposición o intervención y resultados medidos. Siempre se podrá hacer un análisis de síntesis cualitativa, aunque la verdadera magia de la revisión sistemática es que, cuando las características de los estudios primarios lo permiten, puede realizarse también una síntesis cuantitativa, llamada metanálisis.

Un metanálisis es un análisis estadístico que combina los resultados de varios estudios independientes pero que tratan de responder a una misma pregunta. Aunque el metanálisis puede considerarse como un trabajo de investigación por derecho propio, lo habitual es que sea parte de una revisión sistemática.

Los estudios primarios pueden combinarse empleando una metodología estadística desarrollada para tal fin, lo que tiene una serie de ventajas. La primera, al combinar todos los resultados de los estudios primarios puede obtenerse una visión global más completa (ya sabéis, el todo es mayor…). La segunda, al combinar aumentamos el tamaño de la muestra, lo que aumenta la potencia del estudio en comparación con la de los estudios individuales, mejorando la estimación del efecto que queremos medir. En tercer lugar, al extraerse las conclusiones de un número mayor de estudios aumenta su validez externa, ya que al haber implicadas poblaciones diferentes es más fácil generalizar los resultados. Por último, puede permitirnos resolver controversias entre las conclusiones de los diferentes estudios primarios de la revisión e, incluso, contestar a preguntas que no se habían planteado en esos estudios.

Una vez hecho el metanálisis habrá que hacer una síntesis final que integre los resultados de las síntesis cualitativa y cuantitativa con el objetivo de dar respuesta a la pregunta que motivó la revisión sistemática o, cuando esto no sea posible, plantear los estudios adicionales que deben realizarse para poder contestarla.

Pero para que un metanálisis merezca todos nuestros respetos debe cumplir una serie de requisitos que son, básicamente, los que ya le hemos exigido a la revisión sistemática de la que forma parte: el metanálisis debe tratar de contestar una pregunta concreta y debe basarse en toda la información relevante disponible, sin sesgo de recuperación ni sesgo de publicación. Además, deben valorarse los estudios primarios para asegurarnos de que tienen la calidad suficiente y que son lo suficientemente homogéneos como para poder combinarlos. Por supuesto, lo datos deben analizarse y presentarse de la forma apropiada. Y, por último, debe tener sentido el que queramos combinar los resultados. El que podamos hacerlo no siempre significa que tengamos que hacerlo si el contexto clínico no lo hace necesario.

¿Y cómo se combinan los estudios?, preguntaréis algunos. Pues esa es la madre del cordero del metanálisis (o una de las madres, que tiene varias), porque hay varias formas posibles de hacerlo.

A cualquiera se le ocurre que la forma más sencilla sería tipo Festival de Eurovisión. Contabilizamos los estudios primarios en los que el efecto positivo obtuvo significación estadística y, sin son mayoría, decimos que hay consenso a favor del resultado positivo. Este enfoque es bastante sencillo pero, no me lo negaréis, también bastante chapucerillo y se me ocurren una serie de inconvenientes a la hora de usarlo. Por un lado, implica que no significativo es sinónimo de falta de efecto, lo cual no siempre tiene porqué ser verdad. Además, no tiene en cuenta la dirección y fuerza del efecto en cada estudio, ni la precisión de los estimadores empleados ni la calidad o las peculiaridades de diseño de cada estudio primario. Así que este tipo de abordaje no parece muy recomendable, aunque nadie nos va a poner una multa si lo usamos de forma informal como primera aproximación antes de decidir cuál es la mejor forma de combinar los resultados de los estudios.

Otra posibilidad es utilizar una especie de prueba de los signos, similar a la de algunas técnicas de estadística no paramétrica. Se cuentan los positivos a favor del efecto, les restamos los negativos y obtenemos nuestra conclusión. La verdad es que este método también parece demasiado simple. No tiene en cuenta los estudios sin significación estadística ni la precisión de los estimadores. Así que tampoco utilizaremos mucho este tipo de abordaje, a no ser que solo sepamos la dirección del efecto de los estudios primarios. También podríamos utilizarlo cuando los estudios primarios son muy heterogéneos para obtener una aproximación, aunque yo no me fiaría mucho de los resultados.

El tercer método es combinar las “pes” (nuestras amadas y sacrosantas p). Esto podría pasársenos por la cabeza si tuviésemos una revisión sistemática cuyos estudios primarios usaran diferentes medidas de resultado, aunque todos tratasen de contestar a una misma pregunta. Pensad, por ejemplo, un estudio sobre osteoporosis donde unos miden densitometría ultrasónica, otros DEXA en columna, otros en fémur, etc. El problema de este método es que no tiene en cuenta la intensidad del efecto, sino solo su dirección y su nivel de significación estadística, y todos conocemos las deficiencias de nuestras santas “pes”. Para utilizarlo tendremos que utilizar programas informáticos que combinarán los datos siguiendo una distribución de ji-cuadrado o una normal, dándonos el estimador global con su intervalo de confianza.

El cuarto y último método, que yo me sé, es también el más elegante: hacer una combinación ponderada del efecto estimado en los diferentes estudios primarios. La forma más sencilla sería calcular la media aritmética, pero no hemos llegado hasta aquí para hacer otra chapuza. La media aritmética otorga el mismo énfasis a todos los estudios, con lo que si tenemos algún estudio muy impreciso con resultados extremos nos distorsionará enormemente los resultados. Recordad que la media sigue siempre las colas de la distribución, viéndose muy influenciada por los valores extremos (lo que no le ocurre a su prima, la mediana).

Por esto tenemos que ponderar los estimadores de los distintos estudios. Esto podemos hacerlo de dos formas, teniendo en cuenta el número de sujetos de cada estudio, o bien, realizando una ponderación en base a los inversos de las varianzas de cada uno (ya sabéis, los cuadrados de los errores estándar).  Esta última forma es la más compleja, así que es la que más gusta y más se utiliza. Claro que, como la matemática necesaria es cosa fina, se suelen utilizar programas especiales, ya sean módulos que funcionan dentro de los programas estadísticos como Stata, SPSS, SAS o R, o utilizando programas específicos como el famoso RevMan de la Colaboración Cochrane.

Como podéis ver, no me he quedado corto al tildar a la revisión sistemática con metanálisis como la fiera corrupia de los diseños epidemiológicos. No obstante, tiene sus detractores. Todos conocemos a alguien que afirma no gustarle las revisiones sistemáticas porque casi todas acaban de la misma forma: “hacen falta más estudios de calidad para poder realizar recomendaciones con un grado de evidencia razonable”. Claro que, en estos casos, la culpa no es de las revisiones, sino de que no nos esmeramos lo suficiente con nuestros trabajos y la gran mayoría merecerían acabar en la máquina destructora de papel.

Otra polémica es la que tienen los que debaten sobre si es mejor una buena revisión sistemática o un buen ensayo clínico (pueden hacerse revisiones sobre otros tipos de diseños, incluyendo estudios observacionales). A mí esto me recuerda a la polémica sobre si deben hacer calimochos con buen vino o si es un pecado mezclar un buen vino con Coca-Cola. Polémicas aparte, si hay que tomar calimocho, os aseguro que con un buen vino estará mucho más rico, y algo parecido les pasa a las revisiones con la calidad de sus estudios primarios.

El problema de las revisiones sistemáticas es que, para que sean realmente útiles, hay que ser muy riguroso en su elaboración. Para que no se nos olvide nada, existen listas de recomendaciones y de verificación que nos permitan ordenar todo el procedimiento de creación y difusión de trabajos científicos sin que cometamos errores metodológicos u omisiones en el procedimiento.

Todo comenzó con un programa del Servicio de Salud del Reino Unido que terminó con la fundación de una iniciativa internacional para promover la transparencia y precisión de los trabajos de investigación biomédicos: la red EQUATOR (Enhancing the QUAlity and Transparency Of health Research). Esta red se compone de expertos en metodología, comunicación y publicación, por lo que incluye profesionales implicados en la calidad de todo el proceso de producción y difusión de los resultados de investigación. Entre otros muchos objetivos, que podéis consultar en su página web, está el de diseñar un conjunto de recomendaciones para la realización y publicación de los diferentes tipos de estudios, lo que da lugar a las diferentes listas de verificación o declaraciones.

La lista de verificación diseñada para aplicar a las revisiones sistemáticas es la declaración PRISMA (Preferred Reporting Items for Systematic reviews and Meta-Analyses), que viene a sustituir a la declaración QUOROM (QUality Of Reporting Of Meta-analyses). Basándose en la definición de revisión sistemática de la Colaboración Cochrane, PRISMA nos ayuda a seleccionar, identificar y valorar los estudios incluidos en una revisión. Consta también de una lista de verificación y de un diagrama de flujo en el que se describe el paso de todos los trabajos considerados durante la realización de la revisión. Existe también una declaración menos conocida para la valoración de metanálisis de estudios observacionales, la declaración MOOSE (Meta-analyses Of Observational Studies in Epidemiology).

La Colaboración Cochrane tiene también una metodología muy bien estructurada y definida, que podéis consultar en su página web. Esta es la razón por la que tienen tanto prestigio dentro del mundo de las revisiones sistemáticas, por estar hechas por profesionales que se dedican a ello siguiendo una metodología contrastada y rigurosa. De todas formas, incluso las revisiones Cochrane deben leerse de forma crítica y no darles nada por asegurado.

Y con esto hemos llegado al final por hoy. Quiero insistir en que el metanálisis debe hacerse siempre que sea posible y nos interese, pero asegurándonos previamente de que es correcto combinar los resultados. Si los estudios son muy heterogéneos no deberemos combinar nada, ya que los resultados que podríamos obtener tendrían una validez muy comprometida. Hay toda una serie de métodos y estadísticos para medir la homogeneidad o heterogeneidad de los estudios primarios, que influyen también en la forma en que analizaremos los datos combinados. Pero esa es otra historia…

El dilema del vigilante

El mundo de la medicina es un mundo de incertidumbre. Nunca podemos estar seguros de nada al 100%, por muy evidente que parezca un diagnóstico, pero no podemos dar palos a diestro y siniestro con técnicas diagnósticas o tratamientos ultramodernos (y nunca inocuos) a la hora de tomar las decisiones que continuamente nos persiguen en nuestra práctica diaria.

Es por esto que siempre estamos inmersos en un mundo de probabilidades, donde las certezas son casi tan infrecuentes como el mal llamado sentido común que, como casi todo el mundo sabe, es el menos común de los sentidos.

Imaginemos que estamos en la consulta y acude un paciente que viene porque le han dado una patada en el culo, bastante fuerte, eso sí. Como buenos médicos que somos le preguntamos aquello de ¿qué le pasa?, ¿desde cuándo? y ¿a qué lo atribuye? Y procedemos a una exploración física completa, descubriendo con horror que tiene un hematoma en la nalga derecha.

Aquí, amigos míos, las posibilidades diagnósticas son numerosas, así que lo primero que vamos a hacer es un diagnóstico diferencial exhaustivo.  Para ello, podremos adoptar cuatro enfoques diferentes. El primero es el enfoque posibilista, que enumerará todos los posibles diagnósticos y tratará de descartar todos ellos de forma simultánea solicitando las pruebas diagnósticas pertinentes. El segundo es el enfoque probabilístico, que ordenará los diagnósticos según su probabilidad relativa y actuará en consecuencia. Parece un hematoma postraumático (el conocido como síndrome de la patada en el culo), pero alguien podría pensar que la patada no ha sido tan fuerte, así que igual el pobre paciente tiene algún trastorno de coagulación o una discrasia sanguínea con una trombopenia secundaria o, incluso, una enfermedad inflamatoria intestinal con manifestaciones extraintestinales atípicas y fragilidad vascular glútea. También podríamos utilizar un enfoque pronóstico y tratar de demostrar o descartar la existencia de los diagnósticos posibles con peor pronóstico, con lo que el diagnóstico de síndrome de la patada en el culo perdería interés y nos iríamos a descartar una leucemia crónica. Por último, podría utilizarse un enfoque pragmático, prestando especial interés en descartar primero aquellos diagnósticos que tienen un tratamiento más eficaz (volveríamos a la patada).

Parece que lo más correcto es utilizar una combinación juiciosa de los enfoques probabilístico, pronóstico y pragmático. En nuestro caso indagaríamos si la intensidad del traumatismo justifica la magnitud del hematoma y, en ese caso, indicaríamos unos paños calientes y nos abstendríamos de realizar más pruebas diagnósticas. Y este ejemplo parece un delirio mío, pero os puedo asegurar que conozco gente que hace la lista completa y tira de prueba diagnóstica ante cualquier sintomatología, sin reparar en gastos ni riesgos. Y, además, alguno que yo me sé pensaría en alguna otra posibilidad más exótica que no acabo de imaginar y aún el paciente tendría que estar agradecido si su diagnóstico no precisa de la realización de una esfinterotomía anal forzada. Y es que, como ya hemos comentado, la lista de espera para obtener un poco de sentido común supera en muchas ocasiones a la lista de espera quirúrgica.

Imaginad ahora otro paciente con un complejo sintomático menos estúpido y absurdo que el del ejemplo previo. Por ejemplo, un niño con síntomas de enfermedad celiaca. Antes de que realicemos ninguna prueba diagnóstica, nuestro paciente ya tiene una probabilidad de padecer la enfermedad. Esta probabilidad vendrá condicionada por la prevalencia de la enfermedad en la población de la que procede y es lo que se denomina probabilidad preprueba. Esta probabilidad se encontrará en algún punto en relación con dos umbrales que os muestro en la figura 1: el umbral de diagnóstico y el umbral terapéutico.

Lo habitual es que la probabilidad preprueba de nuestro paciente no nos permita ni descartar la enfermedad con una seguridad razonable (tendría que ser muy baja, por debajo del umbral diagnóstico) ni confirmarla con la seguridad suficiente como para iniciar el tratamiento (tendría que estar por encima del umbral terapéutico).

Realizaremos entonces la prueba que consideremos indicada, obteniendo una nueva probabilidad de enfermedad según el resultado que nos dé, la llamada probabilidad postprueba. Si esta probabilidad es tan alta como para realizar el diagnóstico e iniciar el tratamiento habremos cruzado el umbral terapéutico. Ya no hará falta realizar pruebas adicionales, ya que tendremos la certeza suficiente para asegurar el diagnóstico y tratar al paciente, siempre dentro de los rangos de incertidumbre de nuestro oficio.

¿Y de qué depende nuestro umbral de tratamiento? Pues hay varios factores implicados. Cuánto mayor riesgo, coste o efectos adversos tenga el tratamiento en cuestión, mayor será el umbral que exigiremos para tratar. Por otra parte, cuanta mayor gravedad comporte omitir el diagnóstico, menor será el umbral terapéutico que aceptaremos.

Pero puede ocurrir que la probabilidad postprueba sea tan baja que nos permita descartar la enfermedad con una seguridad razonable. Habremos cruzado entonces el umbral de diagnóstico, también llamado umbral negativo de prueba. Es evidente que, en esta situación, no estará indicado realizar más pruebas diagnósticas y, mucho menos, iniciar el tratamiento.

Sin embargo, en muchas ocasiones el cambio de probabilidad de preprueba a postprueba nos sigue dejando en tierra de nadie, sin alcanzar ninguno de los dos umbrales, por lo que nos veremos obligados a realizar pruebas adicionales hasta que alcancemos uno de los dos límites.

Y esta es nuestra necesidad de todos los días: conocer la probabilidad postprueba de nuestros pacientes para saber si descartamos o confirmamos el diagnóstico, si dejamos al paciente tranquilo o le fustigamos con nuestros tratamientos. Y es que el planteamiento simplista de que un paciente está enfermo si la prueba diagnóstica es positiva y sano si es negativa es totalmente erróneo, por más que sea la creencia generalizada entre aquellos que indican las pruebas. Tendremos que buscar, pues, algún parámetro que nos indique qué utilidad puede tener una prueba diagnóstica determinada para servir para el fin que necesitamos: saber la probabilidad de que el paciente tenga la enfermedad.

Y esto me recuerda el enorme problema que me consultó el otro día un cuñado. El pobre hombre está muy preocupado con un dilema que le ha surgido. Resulta que va a montar un pequeño comercio y quiere contratar un vigilante para ponerlo en la puerta y que detecte a los que se llevan algo sin pagar. Y el problema es que tiene dos candidatos y no sabe por cuál decidirse. Uno de ellos para a casi todo el mundo, con lo que no se le escapa ningún chorizo. Eso sí, mucha gente honrada se ofende cuando se le pide que abra el bolso antes de salir y lo mismo la próxima vez se va a comprar a otro sitio. El otro es todo lo contrario: no para a casi nadie pero, eso sí, si para a uno, seguro que lleva algo robado. Este ofende a pocos honrados, pero se le escapan demasiados chorizos. Difícil decisión…

¿Y por qué me viene a mí mi cuñado con este cuento? Pues porque sabe que yo me enfrento a diario con un dilema similar cada vez que tengo que elegir una prueba diagnóstica para saber si un paciente está enfermo y le tengo que tratar. Ya hemos dicho que el positivo de una prueba no nos asegura el diagnóstico, al igual que la pinta de chorizo no asegura que el pobre cliente nos haya robado.

Veámoslo con un ejemplo. Cuando queremos saber el valor de una prueba diagnóstica, habitualmente comparamos sus resultados con los de un patrón de referencia o patrón oro (el gold standard de los que saben inglés), que es una prueba que, idealmente, es siempre positiva en los enfermos y negativa en los sanos. Ahora supongamos que yo hago un estudio en mi consulta del hospital con una prueba diagnóstica nueva para detectar una determinada enfermedad y obtengo los resultados de la tabla adjunta (los enfermos son los que tienen la prueba de referencia positiva y los sanos, negativa).

Empecemos por lo fácil. Tenemos 1598 sujetos, 520 de ellos enfermos y 1078 sanos. La prueba nos da 446 positivos, 428 verdaderos (VP) y 18 falsos (FP). Además, nos da 1152 negativos, 1060 verdaderos (VN) y 92 falsos (FN). Lo primero que podemos determinar es la capacidad de la prueba para distinguir entre sanos y enfermos, lo que me da pie para introducir los dos primeros conceptos: sensibilidad (S) y especificidad (E). La S es la probabilidad de que la prueba clasifique correctamente a los enfermos o, dicho de otro modo, la probabilidad de que el enfermo sea positivo. Se calcula dividiendo los VP por el número de enfermos. En nuestro caso es de 0,82 (voy a emplear tantos por uno, pero si a alguien le gustan más los porcentajes ya sabe: a multiplicar por 100). Por otra parte, la E es la probabilidad de que se clasifique correctamente a los sanos o, dicho de otro modo, de que los sanos tengan un resultado negativo. Se calcula dividiendo los VN entre el número de sanos. En nuestro ejemplo, 0,98.

Alguien podrá pensar que ya tenemos medido el valor de la nueva prueba, pero no hemos hecho nada más que empezar. Y esto es así porque S y E nos miden de alguna manera la capacidad de la prueba para discriminar sanos de enfermos, pero nosotros lo que en realidad necesitamos saber es la probabilidad de que un positivo sea enfermo y de que un negativo sea sano y, aunque puedan parecer conceptos similares, en realidad son bien diferentes.

La posibilidad de que un positivo sea enfermo se conoce como valor predictivo positivo (VPP) y se calcula dividiendo el número de enfermos con prueba positiva entre el número total de positivos. En nuestro caso es de 0,96. Esto sí quiere decir que un positivo tiene un 96% de probabilidad de estar enfermo. Por otra parte, la probabilidad de que un negativo sea sano se expresa mediante el valor predictivo negativo (VPN), que es el cociente de sanos con resultado negativo entre el número total de negativos. En nuestro ejemplo vale 0,92 (un negativo tiene una probabilidad del 92% de estar sano). Esto ya se va pareciendo más a lo que dijimos al principio que necesitábamos: la probabilidad postprueba de que el paciente esté realmente enfermo.

Y ahora es cuando las neuronas empiezan a recalentarse. Resulta que S y E son dos características intrínsecas de la prueba diagnóstica. Los resultados serán los mismos siempre que hagamos la prueba en unas condiciones similares, con independencia de a quién se la hagamos. Pero esto no es así con los valores predictivos, que varían según la prevalencia de la enfermedad en la población en la que hacemos la prueba. Esto quiere decir que la probabilidad de que un positivo esté enfermo depende de lo frecuente o rara que sea la enfermedad en su población. Sí, sí, habéis leído bien: la misma prueba positiva expresa diferente riesgo de estar enfermo, y, para los incrédulos, os pongo otro ejemplo. Supongamos que esta misma prueba la hace un coleguilla mío en su consulta del Centro de Salud, donde la población es proporcionalmente más sana (esto es lógico, todavía no han pasado por el hospital). Si veis los resultados de la tabla, y os molestáis en calcular, veréis que obtiene una S de 0,82 y una E de 0,98, lo mismo que me salía a mí en mi consulta. Sin embargo, si calculáis los valores predictivos, veréis que el VPP es de 0,9 y el VPN de 0,95. Y esto es así porque las prevalencias de la enfermedad (enfermos/totales) son distintas en las dos poblaciones: 0,32 en mi consulta de hospital y 0,19 en la suya. O sea, que en los casos de prevalencia más alta un positivo ayuda más para confirmar la enfermedad y un negativo ayuda menos para descartarla. Y al revés, si la enfermedad es muy rara un negativo permitirá descartar la enfermedad con una seguridad razonable, pero un positivo nos ayudará mucho menos a la hora de confirmarla.

Vemos pues que, como pasa casi siempre en medicina, nos movemos en el poco firme terreno de las probabilidades, ya que todas (absolutamente todas) las pruebas diagnósticas son imperfectas y cometen errores a la hora de clasificar sanos y enfermos. Entonces, ¿cuándo merece la pena utilizar una prueba determinada? Pues si pensamos que un determinado sujeto tiene ya una probabilidad de estar enfermo antes de hacerle la prueba (la prevalencia de la enfermedad en su población), solo nos interesará utilizar pruebas que aumenten esa probabilidad lo suficiente como para justificar el inicio del tratamiento pertinente (en otro caso tendríamos que hacer otra prueba hasta alcanzar el nivel umbral de probabilidad que justifique el tratamiento).

Y aquí es donde el tema se empieza a poner antipático. El cociente de probabilidad positivo (CPP) o razón de verosimilitud positiva nos indica cuánto más probable es tener un positivo en un enfermo que en un sano. La proporción de positivos en los enfermos es la S. La proporción de los positivos en sanos son los FP, que serían aquellos sanos que no dan negativo o, lo que es lo mismo, 1-E. Así, el CPP = S / (1-E). En nuestro caso (del hospital) vale 41 (el mismo aunque utilicemos porcentajes para S y E). Esto puede interpretarse como que es 41 veces más probable encontrar un resultado positivo en un enfermo que en un sano.
Puede calcularse también el CPN (el negativo), que expresa cuánto más probable es encontrar un negativo en un enfermo que en un sano. Los enfermos negativos son aquellos que no dan positivo (1-S) y los sanos negativos son los VN (la E de la prueba). Luego el CPN = (1-S)/E. En nuestro ejemplo 0,18.

Un cociente de probabilidad igual a 1 indica que el resultado de la prueba no modifica la probabilidad de estar enfermo. Si es mayor que 1 aumenta esta probabilidad y, si es menor, la disminuye. Este parámetro es el que usamos para determinar la potencia diagnóstica de la prueba. Valores  >10 para CPP (o <0,1 pata CPN) indican que se trata de una prueba muy potente que apoya (o contradice) fuertemente el diagnóstico; de 5-10 (o de 0,1-0,2) indican poca potencia de la prueba para apoyar (o descartar) el diagnóstico; de 2-5 (o de 0,2-0,5) indican que la aportación de la prueba es dudosa; y, por último, de 1-2 (o de 0,5-1) indican que la prueba no tiene utilidad diagnóstica.

El cociente de probabilidad no expresa una probabilidad directa, pero nos sirve para calcular las probabilidades de ser enfermo antes y después de dar positivo en la prueba diagnóstica por medio de la regla de Bayes, que dice que la odds postprueba es igual al producto de la odds preprueba por el cociente de probabilidad. Para transformar la prevalencia en odds preprueba usamos la fórmula odds = p/(1-p). En nuestro caso valdría 0,47. Ahora ya podemos calcular la odds posprueba (OPos) multiplicando la preprueba por el cociente de probabilidad. En nuestro caso, la odds postprueba positiva vale 19,27. Y por último, transformamos la odds postprueba en probabilidad postprueba usando la fórmula p = odds/(odds+1). En nuestro ejemplo vale 0,95, lo que quiere decir que si nuestra prueba es positiva la probabilidad de estar enfermo pasa de 0,32 (la prevalencia o probabilidad preprueba) a 0,95 (probabilidad posprueba).

Si todavía queda alguien leyendo a estas alturas, le diré que no hace falta saberse todo este galimatías de fórmulas. Existen en Internet múltiples páginas con calculadoras para obtener todos estos parámetros a partir de la tabla 2×2 inicial con un esfuerzo miserable. Además, la probabilidad postprueba puede calcularse de forma sencilla utilizando el nomograma de Fagan (ver figura). Este gráfico representa en tres líneas verticales de izquierda a derecha la probabilidad preprueba (se representa invertida), el cociente de probabilidades y la probabilidad postprueba resultante.

Para calcular la probabilidad postprueba tras un resultado po­sitivo, trazamos una línea desde la prevalencia (probabilidad preprueba) hasta el CPP y la prolongamos hasta el eje de la probabilidad postprueba. De modo similar, para calcular la pro­babilidad postprueba tras un resultado negativo, prolongaría­mos la línea que une la prevalencia con el valor del CPN.

De esta manera, con esta herramienta podemos calcular de modo directo la probabilidad postprueba conociendo los co­cientes de probabilidades y la prevalencia. Además, podremos utilizarlo en poblaciones con distintas prevalencias, simple­mente modificando el origen de la línea en el eje de la proba­bilidad preprueba.

Hasta aquí ya hemos definido los parámetros que nos sirven para cuantificar la potencia de una prueba diagnóstica y hemos visto las limitaciones de sensibilidad, especificidad y valores predictivos y como los más útiles de forma general son los cocientes de probabilidades. Pero, os preguntaréis, ¿qué es bueno?, ¿qué sea sensible?, ¿Qué sea específica?, ¿las dos cosas?.

Aquí vamos a volver al dilema del vigilante que se le ha planteado a mi pobre cuñado, que le hemos dejado abandonado, porque todavía no hemos respondido cuál de los dos vigilantes le aconsejamos que contrate, el que para a casi todo el mundo para mirarle el bolso y ofende a mucha gente que no roba nada, o el que no para a casi nadie pero tampoco falla con el que para, aunque se escapen muchos ladrones.

¿Y cuál creéis que es mejor de los dos? La respuesta es muy sencilla: depende. Los que todavía estéis despiertos a estas alturas ya os habréis dado cuenta de que el primer vigilante (el que registra a muchos) es, sin ánimo de ofender, el sensible, mientras que el segundo es el específico. ¿Qué nos interesa más, que el vigilante sea sensible o específico? Pues depende, por ejemplo, de donde tengamos el comercio. Si lo hemos abierto en un barrio de gente bien, no nos interesará mucho el primero, ya que, en realidad, poca gente robará y nos interesa más no ofender a los clientes para que no se vayan. Pero si ponemos la tienda en frente de la Cueva de Alí-Babá sí que nos traerá más cuenta contratarle para que nos detecte el mayor número posible de clientes que se llevan género robado. Pero también puede depender de lo que vendamos en la tienda. Si tenemos un “todo a un euro” (o un “todo a cien” para los nostálgicos) podemos contratar al vigilante específico, aunque se nos escape alguno (total, perderemos poco dinero). Pero si vendemos joyería fina no querremos que se escape ningún ladrón y contrataremos al sensible (preferiremos que alguien inocente se moleste por ser registrado a que se nos escape uno con un diamante de los gordos).

Pues esto mismo ocurre en medicina con la elección de las pruebas diagnósticas: tendremos que decidir en cada caso si nos interesa más una sensible o una específica, porque no siempre las pruebas disponibles tienen un alto valor de estos dos parámetros.

En general, se prefiere una prueba sensible cuando los inconvenientes de obtener falsos positivos (FP) son menores que los de los falsos negativos (FN). Por ejemplo, supongamos que vamos a vacunar a un grupo de enfermos y sabemos que la vacuna es letal en los que tienen determinado error metabólico. Es claro que nos interesará que no se escape ningún enfermo sin diagnosticar (que no haya FN), aunque no pasa nada si a algún sano le etiquetamos de tener el error metabólico (un FP): será preferible no vacunar a un sano por pensar que tiene la metabolopatía (aunque no la tenga) que cargarnos a uno con la vacuna por pensar que no la tenía. Otro ejemplo menos dramático: en medio de una epidemia nos interesará una prueba muy sensible para poder aislar al mayor número posible de enfermos. El problema aquí es el de los desgraciados sanos positivos (FP) que meteríamos con los infectados, a los cuáles haríamos un flaco favor con la maniobra. Claro que bien podríamos hacer, a todos los positivos de la primera prueba, una segunda de confirmación que sea muy específica para evitar este calvario a los FP.

Por otra parte, se prefiere una prueba específica cuando es mejor tener FN que FP, como cuando queremos estar seguros de que un enfermo realmente lo está. Imaginemos que el resultado positivo de una prueba conlleva un tratamiento consistente en una operación quirúrgica: nos convendrá bastante estar seguros de que no vamos a operar a ningún sano.

Otro ejemplo es el de las enfermedades cuyo diagnóstico puede ser muy traumático para el paciente y que encima son prácticamente incurables o no tienen tratamiento. Aquí primaremos la especificidad para no darle un disgusto innecesario a ningún sano. Por el contrario, si la enfermedad es muy grave pero tiene tratamiento, probablemente prefiramos una prueba sensible.

Hasta aquí hemos hablado de pruebas con resultado dicotómico: positivo o negativo. Pero, ¿qué pasa cuando el resultado es cuantitativo? Imaginemos que medimos la glucemia en ayunas. Debemos decidir hasta qué valor de glucemia consideramos normal y por encima de cuál nos parecerá patológico. Y esta es una decisión crucial, porque S y E dependerán del punto de corte que elijamos.

Para ayudarnos a elegir disponemos de la curva de características operativas para el receptor, mundialmente conocida como curva ROC (receiver operating characteristic). Representamos en ordenadas (eje y) la S y en abscisas el complementario de la E (1-E) y trazamos una curva en la que cada punto de corte representa la probabilidad de que la prueba clasifique correctamente a una pareja sano-enfermo tomada al azar. La diagonal del gráfico representaría la “curva” si la prueba no tuviese capacidad ninguna de discriminar sanos de enfermos.

Como veis en la figura, la curva suele tener un segmento de gran pendiente donde aumenta rápidamente la S sin que apenas varíe la E: si nos desplazamos hacia arriba podemos aumentar la S sin que prácticamente nos aumenten los FP. Pero llega un momento en que llegamos a la parte plana. Si seguimos desplazándonos hacia la derecha llegará un punto a partir del cual la S ya no aumentará más, pero comenzarán a aumentar los FP. Si nos interesa una prueba sensible, nos quedaremos en la primera parte de la curva. Si queremos especificidad tendremos que irnos más hacia la derecha. Y, por último, si no tenemos predilección por ninguna de las dos (nos preocupa igual obtener FP que FN), el mejor punto de corte será el más próximo al ángulo superior izquierdo. Para esto, algunos utilizan el denominado índice de Youden, que es el que optimiza al máximo los dos parámetros y que se calcula sumando S y E y restando 1. Cuanto más alto, menos pacientes mal clasificados por la prueba diagnóstica.

Un parámetro de interés es el área bajo la curva (ABC), que nos representa la probabilidad de que la prueba diagnóstica clasifique correctamente al paciente al que se le practique (figura 4). Una prueba ideal con S y E del 100% tiene un área bajo la curva de 1: siempre acierta. En clínica, una prueba cuya curva ROC tenga un ABC > 0,9 se considera muy exacta, entre 0,7-0,9 de exactitud moderada y entre 0,5-0,7 de exactitud baja. En la diagonal el ABC es igual a 0,5 e indica que da igual hacer la prueba que tirar una moneda al aire para decidir si el paciente está enfermo o no. Valores por debajo de 0,5 indican que la prueba es incluso peor que el azar, ya que clasificará sistemáticamente a enfermos como sanos y viceversa.

Curiosas las curvas ROC, ¿verdad?. Pues su utilidad no se limita a la valoración de la bondad de las pruebas diagnósticas con resultado cuantitativo. Las curvas ROC sirven también para determinar la bondad del ajuste de un modelo de regresión logística para predecir resultados dicotómicos, pero esa es otra historia…

Rey de reyes

No cabe duda de que a la hora de realizar un trabajo de investigación en biomedicina podemos elegir entre un gran número de diseños posibles, todos ellos con sus ventajas e inconvenientes. Pero en esta corte tan diversa y poblada, entre malabaristas, sabios, jardineros y flautistas púrpuras, reina por encima de todos el verdadero Rey Carmesí de la epidemiología: el ensayo clínico aleatorizado.

El ensayo clínico es un estudio de intervención, analítico, de dirección anterógrada y temporalidad concurrente, con muestreo de cohorte cerrada con control de la exposición. En un ensayo se selecciona una muestra de una población y se divide al azar en dos grupos. Uno de los grupos (grupo de intervención) sufre la intervención que queremos estudiar, mientras que el otro (grupo de control) nos sirve de referencia para comparar los resultados. Tras un periodo de seguimiento determinado se analizan los resultados y se comparan las diferencias entre los dos grupos. Podemos así evaluar los beneficios de los tratamientos o intervenciones al mismo tiempo que controlamos los sesgos de otros tipos de estudios: la aleatorización favorece que los posibles factores de confusión, conocidos o no, se repartan de forma uniforme entre los dos grupos, de forma que si al final detectamos alguna diferencia, esta tiene que ser debida a la intervención en estudio. Esto es lo que nos permite establecer una relación causal entre exposición y efecto.

Por lo dicho hasta ahora, se comprende fácilmente que el ensayo clínico aleatorizado sea el diseño más adecuado para valorar la eficacia de cualquier intervención en medicina y es el que proporciona, como ya hemos comentado, una evidencia de mayor calidad para demostrar la relación de causalidad entre la intervención y los resultados observados.

Pero para disfrutar de todos estos beneficios es necesario ser escrupuloso en el planteamiento y metodología de los ensayos. Existen listas de verificación publicadas por sabios que entienden mucho de estos temas, como es el caso de la lista CONSORT, que nos pueden ayudar a valorar la calidad del diseño del ensayo. Pero entre todos estos aspectos, reflexionemos un poco sobre aquellos que son cruciales para la validez del ensayo clínico.

Todo empieza con una laguna de conocimiento que nos lleva a formular una pregunta clínica estructurada. El único objetivo del ensayo debe ser responder a esta pregunta y basta con que se responda de forma adecuada a una sola pregunta. Desconfiad de los ensayos clínicos que tratan de responder a muchas preguntas, ya que, en muchas ocasiones, al final no responden bien a ninguna. Además, el planteamiento debe basarse en lo que los inventores de jerga metodológica llaman el principio de incertidumbre (la equipoise de los que hablan inglés), que no quiere decir más que, en el fondo de nuestro corazón, desconocemos de verdad cuál de las dos intervenciones es más beneficiosa para el paciente (habría que ser un poco perro desde el punto de vista ético para realizar una comparación si ya sabemos con seguridad cuál de las dos intervenciones es mejor). Es curioso en este sentido cómo los ensayos patrocinados por la industria farmacéutica tienen más tendencia a incumplir el principio de incertidumbre, ya que tienen preferencia por comparar con placebo o con “no intervención” para poder demostrar con más facilidad la eficacia de sus productos.A continuación debemos elegir cuidadosamente la muestra sobre la que realizaremos el ensayo. Idealmente, todos los miembros de la población deberían tener la misma probabilidad no solo de ser elegidos, sino también de acabar en cualquiera de las dos ramas del ensayo. Aquí nos encontramos con un pequeño dilema. Si somos muy estrictos con los criterios de inclusión y exclusión la muestra será muy homogénea y la validez interna del estudio saldrá fortalecida, pero será más difícil extender los resultados a la población general (esta es la actitud explicativa de selección de la muestra). Por otra parte, si no somos tan rígidos los resultados se parecerán más a los de la población general, pero puede verse comprometida la validez interna del estudio (esta es la actitud pragmática).

La aleatorización (¿quién ha dicho randomización?) es uno de los puntos clave del ensayo clínico. Es la que nos asegura que podemos comparar los dos grupos, ya que tiende a distribuir por igual las variables conocidas y, más importante, también las desconocidas entre los dos grupos. Pero no nos relajemos demasiado: este reparto no está en absoluto garantizado, solo es más probable que ocurra si aleatorizamos de forma correcta, así que siempre deberemos comprobar la homogeneidad de los dos grupos, sobre todo con muestras pequeñas.

Además, la aleatorización nos permite realizar de forma adecuada el enmascaramiento, con lo que realizamos una medición no sesgada de la variable de respuesta, evitando los sesgos de información. Estos resultados del grupo de intervención los podemos comparar con los del grupo control de tres formas. Una de ellas es comparar con un placebo. El placebo debe ser un preparado de características físicas indistinguibles del fármaco de intervención pero sin sus efectos farmacológicos. Esto sirve para controlar el efecto placebo (que depende de la personalidad del paciente, de sus sentimientos hacia a la intervención, de su cariño por el equipo investigador, etc), pero también los efectos secundarios que son debidos a la intervención y no al efecto farmacológico (pensemos, por ejemplo, en el porcentaje de infecciones locales en un ensayo con medicación administrada por vía intramuscular).

La otra forma de comparar es con el tratamiento aceptado como más eficaz hasta el momento. Si existe un tratamiento que funciona, lo lógico (y más ético) es que lo usemos para investigar si el nuevo aporta beneficios. También suele ser el método de comparación habitual en los estudios de equivalencia o de no-inferioridad. Por último, la tercera posibilidad es comparar con la no intervención, aunque en realidad esto es una forma rebuscada de decir que solo se le aplican los cuidados habituales que recibiría cualquier paciente en su situación clínica.

Es imprescindible que todos los participantes en el ensayo sean sometidos a la misma pauta de seguimiento, que debe ser lo suficientemente prolongado como para permitir que se produzca la respuesta esperada. Deben detallarse y analizarse todas las pérdidas que se produzcan durante el seguimiento, ya que pueden comprometer la validez y la potencia del estudio para detectar diferencias significativas. ¿Y qué hacemos con los que se pierden o acaban en una rama diferente a la asignada?. Si son muchos, lo más razonable puede ser rechazar el estudio. Otra posibilidad es excluirlos y hacer como si no hubiesen existido nunca, pero podemos sesgar los resultados del ensayo. Una tercera posibilidad es incluirlos en el análisis en la rama del ensayo en la que han participado (siempre hay alguno que se confunde y se toma lo que no le toca), lo que se conoce como análisis por tratamiento o análisis por protocolo. Y la cuarta, y última opción que tenemos, es analizarlos en la rama que se les asignó inicialmente con independencia de lo que hayan hecho durante el estudio. Esto se denomina análisis por intención de tratar, y es la única de las cuatro posibilidades que nos permite conservar todos los beneficios que previamente nos había proporcionado la aleatorización.

Como fase final, nos quedaría el análisis y comparación de los datos para extraer las conclusiones del ensayo, utilizando para ello las medidas de asociación y medidas de impacto oportunas que, en el caso del ensayo clínico, suelen ser la tasa de respuesta, el riesgo relativo (RR), la reducción relativa del riesgo (RRR), la reducción absoluta del riesgo (RAR) y el número necesario a tratar (NNT). Vamos a verlos con un ejemplo.

Imaginemos que realizamos un ensayo clínico en el que probamos un antibiótico nuevo (llamémosle A para no calentarnos mucho la cabeza) para el tratamiento de una infección grave de la localización que nos interese estudiar. Aleatorizamos los pacientes seleccionados y les damos el fármaco nuevo o el tratamiento habitual (nuestro grupo de control), según les corresponda por azar. Al final, medimos en cuántos de nuestros pacientes fracasa el tratamiento (el evento que queremos evitar).

De los 100 pacientes que reciben el fármaco A, 36 presentan el evento a evitar. Por tanto, podemos concluir que el riesgo o incidencia del evento en los expuestos (Ie) es de 0,36 (36 de cada 100, en tanto por uno). Por otra parte, 60 de los 100 controles (los llamamos el grupo de no expuestos) han presentado el suceso, por lo que rápidamente calculamos que el riesgo o incidencia en los no expuestos (Io) es de 0,6.

A simple vista ya vemos que el riesgo es distinto en cada grupo, pero como en la ciencia hay que medirlo todo, podemos dividir los riesgos entre expuestos y no expuestos, obteniendo así el denominado riesgo relativo (RR = Ie/Io). Un RR = 1 significa que el riesgo es igual en los dos grupos. Si el RR > 1 el evento será más probable en el grupo de expuestos (la exposición que estemos estudiando será un factor de riesgo para la producción del evento) y si RR está entre 0 y 1, el riesgo será menor en los expuestos. En nuestro caso, RR = 0,36/0,6 = 0,6. Es más sencillo interpretar los RR > 1. Por ejemplo, un RR de 2 quiere decir que la probabilidad del evento es dos veces mayor en el grupo expuesto. Siguiendo el mismo razonamiento, un RR de 0,3 nos diría que el evento es una tercera parte menos frecuente en los expuestos que en los controles. Podéis ver en la tabla adjunta cómo se calculan estas medidas.

Pero lo que a nosotros nos interesa es saber cuánto disminuye el riesgo del evento con nuestra intervención para estimar cuánto esfuerzo hace falta para prevenir cada uno. Para ello podemos calcular la RRR y la RAR. La RRR es la diferencia de riesgo entre los dos grupos respecto del control (RRR = [Ie-Io]/Io). En nuestro caso es de 0,4, lo que quiere decir que la intervención probada disminuye el riesgo un 60% respecto al tratamiento habitual.

La RAR es más sencilla: es la resta entre los riesgos de expuestos y controles (RAR = Ie – Io). En nuestro caso es de 0,24 (prescindimos del signo negativo), lo que quiere decir que de cada 100 pacientes que tratemos con el nuevo fármaco se producirán 24 eventos menos que si hubiésemos utilizado el tratamiento control. Pero aún hay más: podemos saber cuántos tenemos que tratar con el fármaco nuevo para evitar un evento con solo hacer la regla de tres (24 es a 100 como 1 es a x) o, más fácil de recordar, calculando el inverso de la RAR. Así, el NNT = 1/RAR = 4,1. En nuestro caso tendríamos que tratar a cuatro pacientes para evitar un suceso adverso. El contexto nos dirá siempre la importancia clínica de esta cifra.

Como veis, la RRR, aunque es técnicamente correcta, tiende a magnificar el efecto y no nos cuantifica claramente el esfuerzo a realizar para obtener los resultados. Además, puede ser similar en situaciones diferentes con implicaciones clínicas totalmente distintas. Veámoslo con otro ejemplo que también os muestro en la tabla. Supongamos otro ensayo con un fármaco B en los que obtenemos tres eventos en los 100 tratados y cinco en los 100 controles. Si hacéis los cálculos, el RR es de 0,6 y la RRR de 0,4, igual que en el ejemplo anterior, pero si calculáis la RAR veréis que es muy diferente (RAR = 0,02), con un NNT de 50. Se ve claramente que el esfuerzo para evitar un evento es mucho mayor (cuatro frente a 50) a pesar de que coincidan el RR y la RRR.

Así que, llegados a este punto, permitidme un consejo. Dado que con los datos necesarios para calcular la RRR es incluso más sencillo calcular la RAR (y el NNT), si en un trabajo científico os lo ocultan y solo os ofrecen la RRR, desconfiad como del cuñado que os pone un queso curado para meteros el vino barato y preguntadle por qué no os pone mejor un pincho de jamón ibérico. Bueno, en realidad quería decir que os preguntéis por qué no os dan la RAR y la calculéis vosotros con los datos del trabajo.

Hasta ahora todo lo que hemos dicho hace referencia al diseño clásico de ensayo clínico en paralelo, pero el rey de los diseños tiene muchas caras y, con mucha frecuencia, podemos encontrar trabajos en los que se nos muestra de forma un poco diferente, lo que puede implicar que el análisis de los resultados tenga peculiaridades especiales.

Vamos a empezar con una de las variaciones más frecuentes. Si lo pensamos un momento, el diseño ideal sería aquel que nos permitiese experimentar en el mismo individuo el efecto de la intervención de estudio y de la de control (el placebo o el tratamiento estándar), ya que el ensayo en paralelo es una aproximación que supone que los dos grupos responden igual a las dos intervenciones, lo que siempre supone un riesgo de sesgo que tratamos de minimizar con la aleatorización. Si tuviésemos una máquina del tiempo podríamos probar la intervención en todos, anotar lo que pasa, dar marcha atrás en el tiempo y volver a repetir el experimento con la intervención de control. Así podríamos comparar los dos efectos. El problema, los más atentos ya lo habréis imaginado, es que la máquina del tiempo no se ha inventado todavía.

Pero lo que sí se ha inventado es el ensayo clínico cruzado (el cross-over, para los que sepan inglés), en el que cada sujeto es su propio control. Como podéis ver en la figura adjunta, en este tipo de ensayo cada sujeto es aleatorizado a un grupo, se le somete a la intervención, se deja pasar un periodo de lavado o blanqueo y se le somete a la otra intervención. Aunque esta solución no es tan elegante como la de la máquina del tiempo, los defensores de los ensayos cruzados se basan en que la variabilidad dentro de cada individuo es menor que la interindividual, con lo cual la estimación puede ser más precisa que la del ensayo en paralelo y, en general, se necesitan tamaños muestrales menores. Eso sí, antes de utilizar este diseño hay que hacer una serie de consideraciones. Lógicamente, el efecto de la primera intervención no debe producir cambios irreversibles ni ser muy prolongado, porque afectaría el efecto de la segunda. Además, el periodo de lavado tiene que ser lo suficientemente largo para evitar que quede ningún efecto residual de la primera intervención.

También hay que considerar si el orden de las intervenciones puede afectar el resultado final (efecto secuencia), con lo que solo serían válidos los resultados de la primera intervención. Otro problema es que, al tener mayor duración, las características del paciente pueden cambiar a lo largo del estudio y ser diferentes en los dos periodos (efecto periodo). Y, por último, ojo con las pérdidas durante el estudio, más frecuentes en estudios más largos y que tienen en los ensayos cruzados mayor repercusión sobre los resultados finales que en los ensayos en paralelo.

Imaginemos ahora que queremos probar dos intervenciones (A y B) en la misma población. ¿Podemos hacerlo con un mismo ensayo y ahorrar costes de todo tipo? Pues sí, sí que podemos, solo tenemos que diseñar un ensayo clínico factorial. En este tipo de ensayo, cada participante es sometido a dos aleatorizaciones consecutivas: primero se le asigna a la intervención A o al placebo (P) y, segundo, a la intervención B o al placebo, con lo que tendremos cuatro grupos de estudio: AB, AP, BP y PP. Como es lógico, las dos intervenciones deben actuar por mecanismos independientes para poder valorar los resultados de los dos efectos de forma independiente.

Habitualmente se estudian una intervención relacionada con una hipótesis más plausible y madura y otra con una hipótesis menos contrastada, asegurando que la evaluación de la segunda no influye sobre los criterios de inclusión y exclusión de la primera. Además, no es conveniente que ninguna de las dos opciones tenga muchos efectos molestos o sea mal tolerada, porque la falta de cumplimiento de un tratamiento suele condicionar el mal cumplimiento del otro. En casos en que las dos intervenciones no se muestren independientes, podrían estudiarse los efectos por separado (AP frente a PP y BP frente a PP), pero se pierden las ventajas del diseño y aumenta el tamaño de muestra necesario.

En otras ocasiones puede ocurrir que tengamos prisa por acabar el estudio cuanto antes. Imaginemos una enfermedad muy mala que mata la gente a montones y nosotros estamos probando un nuevo tratamiento. Querremos tenerlo disponible cuanto antes (si funciona, claro), así que cada cierto número de participantes nos pararemos y analizaremos y, en el caso de que podamos demostrar ya la utilidad del tratamiento, daremos el estudio por concluido. Este es el diseño que caracteriza al ensayo clínico secuencial. Recordad que en el ensayo en paralelo lo correcto es calcular previamente el tamaño de la muestra. En este diseño, de mentalidad más bayesiana, se establece un estadístico cuyo valor condiciona una regla de finalización explícita, con lo que el tamaño de la muestra depende de las observaciones previas. Cuando el estadístico alcanza el valor prefijado nos vemos con la suficiente confianza como para rechazar la hipótesis nula y finalizamos el estudio. El problema es que cada parón y análisis aumenta el error de rechazarla siendo cierta (error de tipo 1), por lo que no se recomienda hacer muchos análisis intermedios. Además, el análisis final de los resultados es complejo porque los métodos habituales no sirven, sino que hay utilizar otros que tengan en cuenta los análisis intermedios. Este tipo de ensayos es muy útil con intervenciones de efecto muy rápido, por lo que es frecuente verlos en estudios de titulación de dosis de opiáceos, hipnóticos y venenos semejantes.

Hay otras ocasiones en las que la aleatorización individual no tiene sentido. Pensemos que hemos enseñado a los médicos de un centro de salud una nueva técnica para informar mejor a sus pacientes y queremos compararla con la antigua. No podemos decir al mismo médico que informe a unos pacientes de una forma y a otros de otra, ya que habría muchas posibilidades de que las dos intervenciones se contaminaran una a otra. Sería más lógico enseñar a los médicos de un grupo de centros y no enseñar a los de otro grupo y comparar los resultados. Aquí lo que aleatorizaríamos son los centros de salud para formar o no a sus médicos. Este es el diseño de ensayo con asignación por grupos. El problema de este diseño es que no tenemos muchas garantías de que los participantes de los diferentes grupos se comporten de forma independiente, por lo que el tamaño de la muestra necesaria puede aumentar mucho si existe gran variabilidad entre los grupos y poca dentro de cada grupo. Además, hay que hacer un análisis agregado de los resultados, ya que si se hace individual los intervalos de confianza se estrechan de forma artefactada y podemos encontrar significaciones estadísticas falsas. Lo habitual es calcular un estadístico sintético ponderado para cada grupo y hacer las comparaciones finales con él.

El último de la serie que vamos a tratar es el ensayo comunitario, en el cual la intervención se aplica a grupos de población. Al realizarse en condiciones reales sobre poblaciones tienen gran validez externa y permiten muchas veces recomendar medidas coste-eficientes basadas en sus resultados. El problema es que muchas veces es complicado establecer grupos de control, puede ser más difícil determinar el tamaño muestral necesario y es más complejo realizar inferencia causal a partir de sus resultados. Es el diseño típico para evaluar medidas de salud pública como la fluoración del agua, las vacunaciones, etc.

Acabo ya. La verdad es que esta entrada me ha quedado un poco larga (y espero que no demasiado coñazo), pero es que el Rey se lo merece. De todas formas, si pensáis que está todo dicho sobre ensayos clínicos no tenéis ni idea de todo lo que queda por decir sobre tipos de muestreos, de aleatorización, etc, etc, etc. Pero esa es otra historia…

De la gallina al huevo

Seguro que alguna persona que rebosaba ingenio a raudales os ha preguntado en alguna ocasión, con mirada de suficiencia, ¿qué fue antes, el huevo o la gallina? Pues bien, la próxima vez que os encontréis con alguien así podéis responder con otra pregunta: ¿es qué tienen algo que ver el huevo y la gallina? Porque primero habrá que saber, no solo si para tener gallinas hay primero que tener huevos (con perdón), sino también qué probabilidad hay de acabar teniéndolas, con huevos o sin ellos (alguna mente retorcida dirá que la pregunta se podría plantear al revés, pero es que yo soy de los que piensan que lo primero que hay que tener, sin ánimo de ofender, son huevos).

Este planteamiento nos llevaría al diseño de un estudio de casos y controles, que es un estudio observacional y analítico en la que el muestreo se hace en base a presentar una determinada enfermedad o efecto (los casos) y se compara ese grupo con otro grupo que no lo presenta (los controles), con el objetivo de determinar si existe diferencia en la frecuencia de exposición a un determinado factor de riesgo entre los dos grupos. Estos estudios son de direccionalidad retrógrada y de temporalidad mixta, por lo que la mayor parte son de naturaleza retrospectiva aunque, al igual que ocurría con los estudios de cohortes, pueden ser también prospectivos (quizás la clave más útil para distinguir entre los dos sea el muestreo de cada uno, en base a la exposición en los estudios de cohortes y en base al efecto en los de casos y controles).

En la figura que os adjunto podéis ver el diseño típico de un estudio de casos y controles. En estos estudios se parte de una población determinada de la que se extrae una muestra de casos que habitualmente suele englobar todos los casos diagnosticados y disponibles, y se comparan con un grupo control formado por una muestra balanceada de sujetos sanos que proceden de la misma población que los sanos. Sin embargo, cada vez es más frecuente encontrarse con variaciones del diseño básico que combinan características de los estudios de cohortes y de casos y controles, comparando los casos que van apareciendo en una cohorte estable a lo largo del tiempo con controles de una muestra parcial extraída de esa misma cohorte.

El más conocido de este tipo de diseños mixto es el de casos y controles anidado en una cohorte. En estos casos partimos de una cohorte ya conocida en la que vamos identificando los casos que se van produciendo. Cada vez que aparece un caso, se empareja con uno o varios controles sacados también de la cohorte inicial. Si lo pensamos brevemente, es posible que un sujeto que sea seleccionado inicialmente como control se convierta en caso a lo largo del tiempo (desarrolle la enfermedad en estudio). Aunque pueda parecer que esto pueda sesgar los resultados, esto no debe ser así, ya que se trata de medir el efecto de la exposición en el momento de realizar el análisis. Este diseño puede hacerse con cohortes más pequeñas, por lo que puede ser más sencillo y económico. Además, es especialmente útil en cohortes muy dinámicas con muchas entradas y salidas a lo largo del tiempo, sobre todo si la incidencia de la enfermedad en estudio es baja.

Otra variante del diseño básico son los estudios de cohorte y casos. En este, inicialmente tenemos una cohorte muy grande de la que seleccionaremos una subcohorte más pequeña. Los casos serán los enfermos que se vayan produciendo en cualquiera de las dos cohortes, mientras que los controles serán los sujetos de la subcohorte más pequeña (y más manejable). Estos estudios tienen un método de análisis un poco más complicado que los diseños básicos, ya que tienen que compensar el hecho de que los casos se ven sobrerrepresentados al poder provenir de las dos cohortes. La gran ventaja de este diseño es que permite estudiar varias enfermedades a la vez, comparando las diversas cohortes de enfermos con la subcohorte elegida como control.

Por fin, una última variación que vamos a tratar es la de los polisémicos estudios de caso-cohorte, también llamados de casos y controles cruzados, también llamados de casos autocontrolados. En este diseño pareado, cada individuo sirve como su propio control, comparándose la exposición durante el periodo de tiempo más cercano a la aparición de la enfermedad (periodo caso) con la exposición durante el periodo de tiempo previo (periodo control). Este planteamiento de estudio es útil cuando la exposición es corta, con un tiempo de actuación previsible y produce una enfermedad de corta duración en el tiempo. Son muy utilizados, por ejemplo, para estudiar los efectos adversos de las vacunas.

Al igual que en los estudios de cohortes, los estudios de casos y controles permiten el cálculo de toda una serie de medidas de asociación e impacto. Claro que aquí nos encontramos con una diferencia fundamental con los estudios de cohortes. En estos partíamos de una cohorte sin enfermos en la que iban apareciendo los enfermos a lo largo del seguimiento, lo que nos permitía calcular el riesgo de enfermar a lo largo del tiempo (incidencia). Así, el cociente entre incidencias de expuestos y no expuestos nos proporcionaba el riesgo relativo, la principal medida de asociación.

Sin embargo, como puede deducirse del diseño de los estudios de casos y controles, en estos casos no podemos hacer una estimación directa ni de la incidencia ni de la prevalencia de la enfermedad, ya que la proporción de expuestos y enfermos viene determinada por los criterios de selección del investigador y no por la incidencia en la población (se seleccionan de entrada un número fijo de casos y de controles, pero no podemos calcular el riesgo de ser caso en la población). Así, ante la imposibilidad de calcular el riesgo relativo recurriremos al cálculo de la odds ratio (OR), tal como véis en la segunda figura.

La OR tiene una lectura similar a la del riesgo relativo, pudiendo valer desde cero hasta infinito. Una OR=1 quiere decir que no hay asociación entre exposición y efecto. Una OR<1 quiere decir que la exposición es un factor de protección frente al efecto. Por último, una OR>1 indica que la exposición es un factor de riesgo, tanto mayor cuanto mayor sea el valor de la OR.

De todos modos, y solo para los que gusten de meterse en complicaciones, os diré que es posible calcular las tasas de incidencia a partir de los resultados de un estudio de casos y controles. Si la incidencia de la enfermedad en estudio es baja (por debajo del 10%), pueden equipararse OR y riesgo relativo, así que podemos estimar la incidencia de forma aproximada. Si la incidencia de la enfermedad es mayor, la OR tiende a sobreestimar el riesgo relativo, así que no podemos equiparalos. De todas formas, en estos casos, si conocemos previamente la incidencia de la enfermedad en la población (obtenida de otro tipo de estudios), podemos calcular la incidencia utilizando las siguientes fórmulas:

I0 = It / (OR x Pe) + P0

Ie = I0 x OR,

donde It es la incidencia total, Ie la incidencia en expuestos, I0 la incidencia en no expuestos, Pe la proporción de expuestos y P0 la proporción de no expuestos.

Aunque la OR permite estimar la fuerza de la asociación entre la exposición y el efecto, no informa sobre el efecto potencial que tendría eliminar la exposición sobre la salud de la población. Para ello, tendremos que recurrir a las medidas de riesgo atribuible (tal como hacíamos con los estudios de cohortes), que pueden ser absolutas o relativas.

Las medidas absolutas de riesgo atribuible son dos. La primera es el riesgo atribuible en expuestos (RAE), que es la diferencia entre la incidencia en expuestos y no expuestos y representa la cantidad de incidencia que puede ser atribuida al factor de riesgo en los expuestos. La segunda es el riesgo atribuible poblacional (RAP), que representa la cantidad de incidencia que puede ser atribuida al factor de riesgo en la población general.

Por su parte, las medidas relativas de riesgo atribuible (también conocidas como proporciones o fracciones atribuibles o etiológicas) son también dos. La primera, la fracción atribuible en expuestos (FAE), que representa la diferencia de riesgo relativo a la incidencia en el grupo de expuestos al factor. La segunda, la fracción atribuible poblacional (FAP), que representa la diferencia de riesgo relativo a la incidencia en la población general.

En la tabla adjunta os muestro las fórmulas para el cálculo de estos parámetros, que es algo más complejo que en el caso de los estudios de cohortes.

El problema de estas medidas de impacto es que pueden ser, en ocasiones, difíciles de interpretar por parte del clínico. Por ese motivo, e inspirados en el cálculo del número necesario a tratar (NNT) de los ensayos clínicos, se han ideado una serie de medidas denominadas números de impacto, que nos dan una idea más directa del efecto del factor de exposición sobre la enfermedad en estudio. Estos números de impacto son el número de impacto en expuestos (NIE), el número de impacto en casos (NIC) y el número de impacto de los casos expuestos (NICE).

El NIE sería el equivalente al NNT y se calcularía como el inverso de la reducción absoluta de riesgos o de la diferencia de riesgos entre expuestos y no expuestos. El NNT es el número de personas que deben ser tratadas para prevenir un caso en comparación con el grupo control. El NIE representa el número medio de personas que tienen que exponerse al factor de riesgo para que se produzca un nuevo caso de enfermedad en comparación con las personas no expuestas. Por ejemplo, un NIE de 10 significa que de cada 10 expuestos se producirá un caso de enfermedad atribuible al factor de riesgo estudiado.

El NIC es el inverso de la FAP, así que define el número medio de personas enfermas entre las que un caso es debido al factor de riesgo. Un NIC de 10 quiere decir que por cada 10 enfermos de la población, uno es atribuible al factor de riesgo en estudio.

Por fin, el NICE es el inverso de la FAE. Es el número medio de enfermos entre los que un caso es atribuible al factor de riesgo.

En resumen, estas tres medidas miden el impacto de la exposición entre todos los expuestos (NIE), entre todos los enfermos (NIC) y entre todos los enfermos que han estado expuestos (NICE). Será de utilidad que intentemos calcularlos si los autores del estudio no lo hacen, ya que nos darán una idea del impacto real de la exposición sobre el efecto.

Como colofón a los tres anteriores, podríamos estimar el efecto de la exposición en toda la población calculando el número de impacto en la población (NIP), para lo cual no tenemos más que hacer el inverso del RAP. Así, un NIP de 3000 quiere decir que por cada 3000 sujetos de la población se producirá un caso de enfermedad debida a la exposición.

Además de la valoración de las medidas de asociación e impacto, cuando valoremos un estudio de casos y controles tendremos que prestar especial atención a la presencia de sesgos, ya que son los estudios observacionales que tienen más riesgo de presentarlos.

Los estudios de casos y controles son relativamente sencillos de hacer, generalmente tienen menor coste que otros estudios observacionales (como los estudios de cohortes), permiten estudiar varios factores de exposición al mismo tiempo y saber cómo interactúan entre ellos y son ideales para enfermedades o factores de exposición de frecuencia muy baja. El problema de este tipo de diseño es que hay que ser sumamente cuidadoso para seleccionar los casos y los controles, ya que, como ya hemos dicho, es muy fácil caer en una lista de sesgos que, a día de hoy, no tiene aún un final conocido.

En general, los criterios de selección deberían ser los mismos para casos y controles, pero, como para ser caso hay que estar diagnosticado de la enfermedad y estar disponible para el estudio, es muy probable que los casos no sean totalmente representativos de la población. Por ejemplo, si los criterios de diagnóstico son poco sensibles y específicos habrá muchos falsos positivos y negativos, con lo que el efecto de la exposición al factor se diluirá.

Otro posible problema depende de que elijamos casos incidentes (de nuevo diagnóstico) o prevalentes. Los estudios basados en prevalencia favorecen la selección de supervivientes (hasta ahora no se conoce ningún caso de un muerto que haya accedido a participar en ningún estudio) y, si la supervivencia está relacionada con la exposición, el riesgo detectado será menor que con casos incidentes. Este efecto es todavía más evidente cuando el factor de exposición es de buen pronóstico, situación en la que los estudios prevalentes producen una mayor sobreestimación de la asociación. Un ejemplo para comprender mejor estos aspectos:  supongamos que el riesgo de infarto es mayor cuanto más se fuma. Si solo incluimos casos prevalentes excluiremos a los muertos por infarto más grave, que presumiblemente deberían ser los que más fumasen, con lo cual el efecto del tabaco podría infraestimarse.

Pero si lo de los casos parece complicado, no es nada comparado con una buena selección de los controles. Lo ideal es que los controles hayan tenido la misma probabilidad de exposición que los casos o, dicho de otra forma más elegante, deben ser representativos de la población de la que proceden los casos. Además, esto hay que compatibilizarlo con la exclusión de aquéllos que tengan alguna enfermedad que se relacione de forma positiva o negativa con el factor de exposición. Por ejemplo, si nos sobra tiempo y queremos ver la asociación entre pasajeros de avión que tienen una tromboflebitis y la ingesta previa de aspirina, tendremos que excluir de los controles a los que tengan cualquier otra enfermedad que se trate con aspirina, aunque no la hubiesen tomado antes de emprender el viaje.

También hay que ser crítico con algunos hábitos de selección de controles. Por ejemplo, los pacientes que van al hospital por otro motivo distinto al estudiado están muy a mano, suelen ser muy colaboradores y, al ser enfermos, seguramente recordarán mejor las exposiciones pasadas a factores de riesgo. Pero el problema es ese, que son enfermos, por lo que pueden tener hábitos de exposición a factores de riesgo diferentes a los de la población general.

Otro recurso es reclutar a vecinos, amigos, familiares, etc. Éstos suelen ser muy comparables y colaboradores, pero tenemos el riesgo de que haya emparejamiento de hábitos de exposición que nos alteren los resultados del estudio. Todos estos problemas se evitan tomando los controles de la población general, pero esto es más costoso en esfuerzo y dinero, suelen ser menos colaboradores y, sobre todo, mucho más olvidadizos (los sanos recuerdan menos la exposición a factores de riesgo pasados), con lo que la calidad de la información que obtengamos de casos y controles puede ser muy diferente.

Solo una reflexión más para terminar con este tema tan ameno. Los estudios de casos y controles comparten una característica con el resto de los estudios observacionales: detectan la asociación entre la exposición y el efecto, pero no nos permiten establecer con seguridad relaciones de causalidad, para lo cual necesitamos otro tipo de estudios como los ensayos clínicos aleatorizados. Pero esa es otra historia…

Una de romanos

¡Qué tíos esos romanos!. Iban, veían y vencían. Con esas legiones, cada una con sus diez cohortes, cada cohorte con sus casi quinientos romanos con su falda y sus sandalias de correas. Las cohortes eran grupos de soldados que estaban al alcance de la arenga de un mismo jefe y siempre avanzaban, nunca retrocedían. Así se puede conquistar la Galia (aunque no en su totalidad, como es bien sabido).

En epidemiología, una cohorte es también un grupo de personas que comparten algo, pero en lugar de ser la arenga de su jefe es la exposición a un factor que se estudia a lo largo del tiempo (tampoco son imprescindibles ni la falda ni las sandalias). Así, un estudio de cohortes es un tipo de diseño observacional, analítico, de direccionalidad anterógrada y de temporalidad concurrente o mixta que compara la frecuencia con la que ocurre un determinado efecto (generalmente una enfermedad) en dos grupos diferentes (las cohortes), uno de ellos expuesto a un factor y otro no expuesto al mismo factor (ver figura adjunta). Por lo tanto, el muestreo está relacionado con la exposición al factor. Ambas cohortes se estudian a lo largo del tiempo, por lo que la mayor parte de los estudios de cohortes son prospectivos o de temporalidad concurrente (van hacia delante, como las cohortes romanas). Sin embargo, es posible hacer estudios de cohortes retrospectivos una vez ocurridos tanto la exposición como el efecto. En estos casos, el investigador identifica la exposición en el pasado, reconstruye la experiencia de la cohorte a lo largo del tiempo y asiste en el presente a la aparición del efecto, por lo que son estudios de temporalidad mixta.

Podemos clasificar también los estudios de cohortes según utilicen un grupo de comparación interno o externo. En ocasiones podemos utilizar dos cohortes internas pertenecientes a la misma población general, clasificando a los sujetos en una u otra cohorte según el nivel de exposición al factor. Sin embargo, otras veces la cohorte expuesta nos interesará por su alto nivel de exposición, por lo que preferiremos seleccionar una cohorte externa de sujetos no expuestos para realizar la comparación entre ambas.

Otro aspecto importante a la hora de clasificar los estudios de cohortes es el momento de inclusión de los sujetos en el estudio. Cuando solo seleccionamos los sujetos que cumplen los criterios de inclusión al comienzo del estudio hablamos de cohorte fija, mientras que hablaremos de cohorte abierta o dinámica cuando siguen entrando sujetos en el estudio a lo largo del seguimiento. Este aspecto tendrá importancia, como veremos después, a la hora de calcular las medidas de asociación entre exposición y efecto.

Por último, y como curiosidad, también podemos hacer un estudio con una sola cohorte si queremos estudiar la incidencia o la evolución de una determinada enfermedad. Aunque siempre podemos comparar los resultados con otros datos conocidos de la población general, este tipo de diseños carece de grupo de comparación en sentido estricto, por lo que se engloba dentro de los estudios descriptivos longitudinales.

Al realizarse un seguimiento a lo largo del tiempo, los estudios de cohortes permiten calcular la incidencia del efecto entre expuestos y no expuestos, calculando a partir de ellas una serie de medidas de asociación y de medidas de impacto características.

En los estudios con cohortes cerradas en las que el número de participantes es fijo, la medida de asociación es el riesgo relativo (RR), que es la proporción entre la incidencia de expuestos (Ie) y no expuestos (I0): RR = Ie/I0.

Como ya sabemos, el RR puede valer desde 0 a infinito. Un RR=1 quiere decir que no hay asociación entre exposición y efecto. Un RR<1 quiere decir que la exposición es un factor de protección frente al efecto. Por último, un RR>1 indica que la exposición es un factor de riesgo, tanto mayor cuanto mayor sea el valor del RR.

El caso de los estudios con cohortes abiertas en los que pueden entrar y salir participantes a lo largo del seguimiento es un poco más complejo, ya que en lugar de incidencias calcularemos densidades de incidencia, término que hace referencia al número de casos del efecto o enfermedad que se producen referidas al número de personas seguidas por tiempo de seguimiento de cada una (por ejemplo, número de casos por 100 personas-año). En estos casos, en lugar del RR calcularemos la razón de densidades de incidencia, que es el cociente de la densidad de incidencia en expuestos dividida por la densidad en no expuestos.

Estas medidas nos permiten estimar la fuerza de la asociación entre la exposición al factor y el efecto, pero no nos informan sobre el impacto potencial que tiene la exposición sobre la salud de la población (el efecto que tendría eliminar ese factor sobre la salud de la población). Para ello, tendremos que recurrir a las medidas de riesgo atribuible, que pueden ser absolutas o relativas.

Las medidas absolutas de riesgo atribuible son dos. La primera es el riesgo atribuible en expuestos (RAE), que es la diferencia entre la incidencia en expuestos y no expuestos y representa la cantidad de incidencia que puede ser atribuida al factor de riesgo en los expuestos. La segunda es el riesgo atribuible poblacional (RAP), que representa la cantidad de incidencia que puede ser atribuida al factor de riesgo en la población general.

Por su parte, las medidas relativas de riesgo atribuible (también conocidas como proporciones o fracciones atribuibles o etiológicas) son también dos. La primera, la fracción atribuible en expuestos (FAE), que representa la diferencia de riesgo relativo a la incidencia en el grupo de expuestos al factor. La segunda, la fracción atribuible poblacional (FAP), que representa la diferencia de riesgo relativo a la incidencia en la población general.

En la tabla que os adjunto podéis ver las fórmulas que se emplean para el cálculo de estas medidas de impacto.

El problema de estas medidas de impacto es que pueden ser, en ocasiones, difíciles de interpretar por parte del clínico. Por ese motivo, e inspirados en el cálculo del número necesario a tratar (NNT) de los ensayos clínicos, se han ideado una serie de medidas denominadas números de impacto, que nos dan una idea más directa del efecto del factor de exposición sobre la enfermedad en estudio. Estos números de impacto son el número de impacto en expuestos (NIE), el número de impacto en casos (NIC) y el número de impacto de los casos expuestos (NICE).

Empecemos por el más sencillo. El NIE sería el equivalente al NNT y se calcularía como el inverso de la reducción absoluta de riesgos o de la diferencia de riesgos entre expuestos y no expuestos. El NNT es el número de personas que deben ser tratadas para prevenir un caso en comparación con el grupo control. El NIE representa el número medio de personas que tienen que exponerse al factor de riesgo para que se produzca un nuevo caso de enfermedad en comparación con las personas no expuestas. Por ejemplo, un NIE de 10 significa que de cada 10 expuestos se producirá un caso de enfermedad atribuible al factor de riesgo estudiado.

El NIC es el inverso de la FAP, así que define el número medio de personas enfermas entre las que un caso es debido al factor de riesgo. Un NIC de 10 quiere decir que por cada 10 enfermos de la población, uno es atribuible al factor de riesgo en estudio.

Por fin, el NICE es el inverso de la FAE. Es el número medio de enfermos entre los que un caso es atribuible al factor de riesgo.

En resumen, estas tres medidas miden el impacto de la exposición entre todos los expuestos (NIE), entre todos los enfermos (NIC) y entre todos los enfermos que han estado expuestos (NICE). Será de utilidad que intentemos calcularlos si los autores del estudio no lo hacen, ya que nos darán una idea del impacto real de la exposición sobre el efecto. En la segunda tabla os pongo las fórmulas que podéis utilizar para obtenerlos.

Como colofón a los tres anteriores, podríamos estimar el efecto de la exposición en toda la población calculando el número de impacto en la población (NIP), para lo cual no tenemos más que hacer el inverso del RAP. Así, un NIP de 3000 quiere decir que por cada 3000 sujetos de la población se producirá un caso de enfermedad debida a la exposición.

Otro aspecto que debemos tener en cuenta al tratar de los estudios de cohortes es su riesgo de sesgos. En general, los estudios observacionales tienen mayor riesgo de sesgo que los experimentales, además de ser susceptibles a la influencia de factores de confusión y de variables modificadoras de efecto.

El sesgo de selección debe considerarse siempre, ya que puede comprometer la validez interna y externa de los resultados del estudio. La dos cohortes deben ser comparables en todos los aspectos, además de ser representativas de la población de la que proceden.

Otro sesgo muy típico de los estudios de cohortes es el sesgo de clasificación, que se produce cuando se realiza una clasificación errónea de los participantes en cuanto a su exposición o a la detección del efecto (en el fondo no es más que otro sesgo de información). El sesgo de clasificación puede ser no diferencial cuando el error se produce al azar de forma independiente de las variables de estudio. Este tipo de sesgo de clasificación va a favor de la hipótesis nula, o sea, que nos dificulta detectar la asociación entre exposición y efecto, si es que esta existe. Si, a pesar del sesgo, detectamos la asociación, pues no pasará nada malo, pero si no la detectamos no sabremos si es que no existe o si no la vemos por la mala clasificación de los participantes. Por otra parte, el sesgo de clasificación es diferencial cuando se realiza de forma diferente entre las dos cohortes y tiene que ver con alguna de las variables del estudio. En este caso no hay perdón ni posibilidad de enmienda: la dirección de este sesgo es impredecible y compromete de forma mortal la validez de los resultados.

Por último, siempre debemos estar atentos a la posibilidad de que haya sesgo de confusión (por variables de confusión) o sesgo de interacción (por variables modificadoras de efecto). Lo ideal es prevenirlos en la fase de diseño, pero no está de más controlar los factores de confusión en la fase de análisis, fundamentalmente mediante análisis estratificados y estudios multivariados.

Y con esto llegamos al final de esta entrada. Vemos, pues, que los estudios de cohortes son muy útiles para calcular la asociación y el impacto entre efecto y exposición pero, cuidado, no sirven para establecer relaciones causales. Para eso son necesarios otros tipos de estudios.

El problema con los estudios de cohortes es que son difíciles (y costosos) de realizar de forma adecuada, suelen requerir muestran grandes y, a veces, periodos de seguimiento prolongados (con el consiguiente riesgo de pérdidas). Además, son poco útiles para enfermedades raras. Y no debemos olvidar que no nos permiten establecer relaciones de causalidad con la seguridad suficiente, aunque para ello sean mejores que sus primos los estudios de casos y controles, pero esa es otra historia…

Y tú ¿de quién eres?

Como ya sabemos por entradas previas, la sistemática de la medicina basada en la evidencia comienza con una laguna de conocimiento que nos mueve a realizar una pregunta clínica estructurada. Una vez que tenemos elaborada la pregunta, utilizaremos sus componentes para hacer una búsqueda bibliográfica y obtener las mejores pruebas disponibles para solucionar nuestra duda.

Y aquí viene, quizás, la parte más temida de la medicina basada en la evidencia: la lectura crítica de los trabajos encontrados. En realidad, la cosa no es para tanto ya que, con un poco de práctica, la lectura crítica consiste únicamente en aplicar de forma sistemática una serie de preguntas sobre el trabajo que estamos analizando. El problema viene a veces en saber qué preguntas tenemos que hacer, ya que esta sistemática tiene diferencias según el diseño del estudio que estemos valorando.

Decir que por diseño entendemos el conjunto de procedimientos, métodos y técnicas utilizados con los participantes del estudio, durante la recopilación de los datos y durante el análisis e interpretación de los resultados para obtener las conclusiones del estudio. Y es que hay una miríada de diseños de estudios posibles, sobre todo en los últimos tiempos en que a los epidemiólogos les ha dado por hacer diseños mixtos de estudios observacionales. Además, la terminología puede a veces ser confusa y utilizar términos que no nos aclaran bien cuál es el diseño que tenemos delante. Es como cuando llegamos a una boda de alguien de una familia numerosa y nos encontramos con un primo que no sabemos de dónde sale. Aunque busquemos los parecidos físicos, lo más seguro serán acabar preguntándole: y tú, ¿de quién eres? Solo así sabremos si es de la parte del novio o de la novia.

Lo que vamos a hacer en esta entrada es algo parecido. Vamos a tratar de establecer una serie de criterios de clasificación de estudios para, finalmente, establecer una serie de preguntas cuyas respuestas nos permitan identificar a qué familia pertenece.

Para empezar, el tipo de pregunta clínica a la que trata de responder el trabajo puede darnos alguna orientación. Si la pregunta es de tipo diagnóstico, lo más probable es que nos encontremos ante lo que se denomina estudio de pruebas diagnósticas, que suele ser un diseño en el que a una serie de participantes se les somete, de forma sistemática e independiente, a la prueba en estudio y al patrón de referencia (el gold standard, para aquellos que sepan inglés). Es un tipo de diseño especialmente pensado para este tipo de preguntas pero no os confiéis: a veces podremos ver preguntas de diagnóstico que tratan de responderse con otros tipos de estudios.

Si la pregunta es de tratamiento, lo más probable es que nos encontremos ante un ensayo clínico o, a veces, ante una revisión sistemática de ensayos clínicos. Sin embargo, no siempre existen ensayos sobre todo lo que busquemos y puede ocurrir que tengamos que conformarnos con un estudio observacional, como los de casos y controles o los de cohortes.

En caso de preguntas de pronóstico y de etiología/daño podremos encontrarnos ante un ensayo clínico, pero lo más habitual es que no sea posible realizar ensayos y solo existan estudios observacionales.

Una vez analizado este aspecto es posible que nos queden dudas sobre el tipo de diseño al que nos enfrentamos. Será entonces la hora de recurrir a nuestras preguntas acerca de seis criterios relacionados con el diseño metodológico: objetivo general de la pregunta clínica, direccionalidad del estudio, tipo de muestreo de los participantes, temporalidad de los sucesos, asignación de los factores de estudio y unidades de estudio utilizadas. Veamos con detalle qué significa cada uno de estos seis criterios, que veis resumidos en la tabla que os adjunto.

Según el objetivo, los estudios pueden ser descriptivos o analíticos. Un estudio descriptivo es aquel que, como su nombre indica, solo tiene la finalidad descriptiva de relatar cómo están las cosas, pero sin intención de establecer relaciones causales entre el factor de riesgo o exposición y el efecto estudiado (una determinada enfermedad o suceso de salud, en la mayor parte de los casos). Estos estudios responden a preguntas no muy complejas como ¿a cuántos? ¿dónde? o ¿a quién?, por lo que suelen ser sencillos y sirven para elaborar hipótesis que posteriormente necesitarán de estudios más complejos para su demostración.

Por el contrario, los estudios analíticos sí que tratan de establecer este tipo de relaciones, respondiendo a preguntas más del tipo ¿por qué? ¿cómo tratar? o ¿cómo prevenir? Como es lógico, para poder establecer este tipo de relaciones necesitarán tener un grupo con el que comparar (el grupo control). Esta será una pista útil para distinguir entre analíticos y descriptivos si nos queda alguna duda: la presencia de grupo de comparación será propia de los estudios analíticos.

La direccionalidad del estudio se refiere al orden en que se investigan la exposición y el efecto de esa exposición. El estudio tendrá una direccionalidad anterógrada cuando la exposición se estudia antes que el efecto y una direccionalidad retrógrada cuando se haga al contrario. Por ejemplo, si queremos investigar el efecto del tabaco sobre la mortalidad coronaria, podemos tomar una conjunto de fumadores y ver cuántos se mueren del corazón (anterógrada) o, al revés, tomar un conjunto de fallecidos por enfermedad coronaria y mirar a ver cuántos fumaban (retrógrada). Como es lógico, solo los estudios con direccionalidad anterógrada pueden asegurar que la exposición precede en el tiempo al efecto (¡ojo! no estoy diciendo que una sea causa del otro). Por último, decir que a veces podremos encontrarnos con estudios en los que exposición y efecto se estudian a la vez, hablando entonces de direccionalidad simultánea.

El tipo de muestreo tiene que ver con la forma de seleccionar los participantes del estudio. Estos pueden ser elegidos por estar sometidos al factor de exposición que nos interese, por haber presentado el efecto o por una combinación de los dos o, incluso, otros criterios ajenos a exposición y efecto.

Nuestro cuarto criterio es la temporalidad, que hace referencia a la relación en el tiempo entre el investigador y el factor de exposición o el efecto que se estudie. Un estudio tendrá una temporalidad histórica cuando efecto y exposición ya hayan ocurrido cuando se inicia el estudio. Por otra parte, cuando estos hechos tienen lugar durante la realización del estudio, este tendrá una temporalidad concurrente. A veces la exposición puede ser histórica y el efecto concurrente, hablándose entonces de temporalidad mixta.

Aquí me gustaría hacer un inciso sobre dos términos empleados por muchos autores y que os resultarán más familiares: prospectivos y retrospectivos. Serían estudios prospectivos aquellos en los que exposición y efecto no se han producido al inicio del estudio, mientras que serían retrospectivos aquellos en los que los hechos ya se han producido en el momento de realizar el estudio. Para rizar el rizo, cuando se combinan ambas situaciones hablaríamos de estudios ambispectivos. El problema con estos términos es que a veces se emplean de forma indistinta para expresar direccionalidad o temporalidad, que son cosas diferentes. Además, suelen asociarse con diseños determinados: los prospectivos con los estudios de cohortes y los retrospectivos con los de casos y controles. Quizás sea mejor emplear los criterios específicos de direccionalidad y temporalidad, que expresan los aspectos del diseño de forma más precisa.

Otros dos términos relacionados con la temporalidad son los de estudios transversales y longitudinales. Los transversales son aquellos que nos proporcionan una instantánea de cómo están las cosas en un momento dado, por lo que no permiten establecer relaciones temporales ni de causalidad. Suelen ser estudios de prevalencia y siempre de naturaleza descriptiva.

Por otra parte, en los longitudinales las variables se miden a lo largo de un periodo de tiempo, por lo que sí permiten establecer relaciones temporales, aunque sin control de cómo se asigna la exposición a los participantes. Estos pueden tener una direccionalidad anterógrada (como en los estudios de cohortes) o retrógrada (como en los estudios de casos y controles).

El penúltimo de los seis criterios que vamos a tener en cuenta es la asignación de los factores de estudio. En este sentido, un estudio será observacional cuando los investigadores sean meros observadores que no actúan sobre la asignación de los factores de exposición. En estos casos, la relación entre exposición y efecto puede verse afectada por otros factores, denominados de confusión, por lo que no permiten extraer conclusiones de causalidad. Por otra parte, cuando el investigador asigna de una forma controlada el efecto según un protocolo previo establecido, hablaremos de estudios experimentales o de intervención. Estos estudios experimentales con aleatorización son los únicos que permiten establecer relaciones de causa-efecto y son, por definición, estudios analíticos.

El último de los criterios se refiere a las unidades de estudio. Los estudios pueden estar realizados sobre participantes individuales o sobre grupos de población. Estos últimos son los estudios ecológicos y los ensayos comunitarios, que tienen unas características de diseño específicas.En la figura adjunta podéis ver un esquema de cómo clasificar los diferentes diseños epidemiológicos según estos criterios. Cuando tengáis duda de qué diseño se corresponde con el trabajo que estéis valorando, seguid este esquema. Lo primero será decidir si el estudio es de carácter observacional o experimental. Esto suele ser sencillo, así que pasamos al siguiente punto. Un observacional descriptivo (sin grupo de comparación) se corresponderá con una serie de casos o con un estudio transversal.

Si el estudio observacional es analítico pasaremos a ver el tipo de muestreo, que podrá ser por la enfermedad o efecto de estudio (estudio de casos y controles) o por la exposición al factor de riesgo o protección (estudio de cohortes).

Por último, si el estudio es experimental buscaremos si la exposición o intervención ha sido asignada de forma aleatoria y con grupo de comparación. En caso afirmativo nos encontraremos ante un ensayo clínico aleatorizado y controlado. En caso negativo, probablemente se trate de un ensayo no controlado u otro tipo de diseño cuasiexperimental.

Y aquí lo vamos a dejar por hoy. Hemos visto cómo identificar los tipos de diseños metodológicos más habituales. Pero hay muchos más. Algunos con una finalidad muy específica y un diseño propio, como los estudios económicos. Y otros que combinan características de diseños básicos, como los estudio de caso-cohorte o los estudios anidados. Pero esa es otra historia…

El más allá

Ya hemos visto en entradas anteriores como buscar información en Pubmed de diferentes maneras, desde la más sencilla, que es la búsqueda simple, hasta los métodos de búsqueda avanzada y de filtrado de resultados. Pubmed es, en mi modesta opinión, una herramienta de gran utilidad para los profesionales que tenemos que buscar información biomédica entre la vorágine de trabajos que se publican a diario.

Sin embargo, Pubmed no debe ser nuestra única herramienta de búsqueda. Sí, señoras y señores, no solo resulta que hay vida más allá de Pubmed, sino que hay mucha y, además, interesante.

La primera herramienta que se me ocurre por la similitud con Pubmed es Embase. Este es un buscador de Elsevier que tiene unos 32 millones de registros de unas 8500 revistas de 95 países. Como Pubmed, tiene varias opciones de búsqueda que le convierten en una herramienta versátil, algo más específica para estudios europeos y sobre fármacos que Pubmed (o eso dicen). Lo habitual cuando se quiere hacer una búsqueda exhaustiva es utilizar dos bases de datos, siendo frecuente la combinación de Pubmed y Embase, ya que ambos buscadores nos proporcionarán registros que el otro buscador no tendrá indexados. El gran inconveniente de Embase, sobre todo si se le compara con Pubmed, es que su acceso no es gratuito. De todas formas, los que trabajéis en centros sanitarios grandes podéis tener la suerte de tener una suscripción pagada a través de la biblioteca del centro.

Otra herramienta de gran utilidad es la que nos brinda la Cochrane Library, que incluye múltiples recursos entre los que se encuentran la Cochrane Database of Systematic Reviews (CDSR), el Cochrane Central Register of Controlled Trials (CENTRAL), el Cochrane Methodology Register (CMR), la Database of Abstracts of Reviews of Effects (DARE), la Health Technology Assessment Database (HTA) y la NHS Economic Evaluation Database (EED). Además, los hispanoparlantes podemos recurrir a la Biblioteca Cochrane Plus, que traduce al castellano los trabajos de la Cochrane Library. La Cochrane Plus no es gratuita, pero en España disfrutamos de una suscripción que amablemente nos paga el Ministerio de Sanidad, Igualdad y Servicios Sociales.

Y ya que hablamos de recursos en español, dejadme que arrime el ascua a mi sardina y os hable de dos buscadores que me son muy queridos. El primero es Epistemonikos, que es una fuente de revisiones sistemáticas y de otros tipos de evidencia científica. El segundo es Pediaclic, una herramienta de búsqueda de recursos de información sanitaria infantojuvenil, que clasifica los resultados en una serie de categorías como revisiones sistemáticas, guías de práctica clínica, resúmenes basados en la evidencia, etc.

En realidad, Epistemonikos y Pediaclic son metabuscadores. Un metabuscador es una herramienta que busca en diferentes bases de datos y no en una sola base de datos propia indexada como hacen Pubmed o Embase.

Hay muchos metabuscadores pero, sin duda, el rey de todos y una herramienta más que recomendable es TRIP Database.

TRIP (Turning Research Into Practice) es un metabuscador de acceso libre que se creó en 1997 para facilitar la búsqueda de información de bases de datos de medicina basada en la evidencia, aunque ha ido evolucionando y hoy en día recupera también información de bancos de imágenes, documentos para pacientes, libros de texto electrónicos e, incluso, de Medline (la base de datos en la que busca Pubmed). Vamos a echar un vistazo a su funcionamiento.

En la primera figura podéis ver la parte superior de la pantalla de inicio de TRIP. En la forma más sencilla seleccionaremos el enlace “Search” (es el que funciona por defecto cuando abrimos la página), escribiremos en la ventana de búsqueda los términos en inglés sobre los que queramos buscar y pulsaremos la lupa que hay a la derecha, con lo que el buscador nos mostrará la lista de resultados.

Aunque la última versión de TRIP incluye un selector de idioma, probablemente lo más recomendable sea introducir los términos en inglés en la ventana de búsqueda, procurando no poner más de dos o tres palabras para obtener los mejores resultados. Aquí funcionan los operadores lógicos igual que vimos en Pubmed (AND, OR y NOT), al igual que el operador de truncamiento “*”. De hecho, si escribimos varias palabras seguidas, TRIP incluye automáticamente el operador AND entre ellas.

Al lado de “Search” podéis ver un enlace que dice “PICO”. Este nos abre un menú de búsqueda en el que podemos seleccionar los cuatro componentes de la pregunta clínica estructurada de forma separada: pacientes (P), intervención (I), comparación (C) y resultados (outcome, O).

A la derecha hay dos enlaces más. “Advanced” permite realizar búsquedas avanzadas por campos del registro como el nombre de la revista, el título, año, etc. “Recent” nos permite acceder al historial de búsqueda. El problema es que estos dos enlaces están reservados en las últimas versiones para usuarios con licencia de pago. Antes eran gratis, así que esperemos que este defectillo no se extienda a todo el buscador y que, dentro de poco, TRIP acabe siendo un recurso de pago.

En la web del buscador tenéis tutoriales en vídeo sobre el funcionamiento de las diversas modalidades de TRIP. Pero lo más atractivo de TRIP es su forma de ordenar los resultados de la búsqueda, ya que lo hace según la fuente y la calidad de los mismos y la frecuencia de aparición de los términos de búsqueda en los trabajos encontrados. A la derecha de la pantalla aparece la lista de resultados organizados en una serie de categorías, como revisiones sistemáticas, sinopsis de medicina basada en la evidencia, guías de práctica clínica, preguntas clínicas, artículos de Medline filtrados mediante Clinical Queries, etc.

Podemos hacer clic en una de las categorías y restringir así el listado de resultados. Una vez hecho esto, podemos aún restringir más en base a subcategorías. Por ejemplo, si seleccionamos revisiones sistemáticas podremos posteriormente quedarnos solo con las de la Cochrane. Las posibilidades son muchas, así que os invito a probarlas.Veamos un ejemplo. Si escribo “asthma obesity children” en la cadena de búsqueda, obtengo 1117 resultados y la lista de recursos ordenados a la derecha, según veis en la segunda figura. Si ahora hago click en el índice “sistematic review” y, posteriormente, en “Cochrane”, me quedo con un solo resultado, aunque tengo el resto a golpe de click con solo seleccionar otras categorías. ¿Habéis visto que combinación de sencillez y potencia? En mi humilde opinión, con un manejo decente de Pubmed y la ayuda de TRIP podréis buscar todo lo que necesitéis, por muy escondido que esté.

Y para ir terminando la entrada de hoy, me vais a permitir que os pida un favor: no uséis Google para hacer búsquedas médicas o, por lo menos, no dependáis exclusivamente de Google, ni siquiera de Google Académico. Este buscador es bueno para encontrar un restaurante o un hotel para las vacaciones, pero no para controlar una búsqueda de información médica fiable y relevante como podemos hacer con otras herramientas de las que hemos hablado. Claro que con los cambios y evoluciones a los que nos tiene acostumbrados Google esto puede cambiar con el tiempo y, quizás, alguna vez tenga que reescribir esta entrada para recomendarlo (Dios no lo quiera).

Y aquí vamos a dejar el tema de las búsquedas bibliográficas. Ni que decir tiene que existen infinidad de buscadores más, de los cuáles podéis usar el que más os guste o el que tengáis accesible en vuestro ordenador o lugar de trabajo. En algunas ocasiones, como ya hemos comentado, es casi obligatorio usar más de uno, como es el caso de las revisiones sistemáticas, en las que suelen emplearse los dos grandes (Pubmed y Embase) y combinarlos con el de la Cochrane y algunos de los específicos del tema en cuestión. Porque todos los buscadores que hemos vistos son de índole general, pero los hay específicos de enfermería, psicología, fisioterapia, etc, además de específicos de enfermedad. Por ejemplo, si hacéis una revisión sistemática sobre una enfermedad tropical es conveniente utilizar una base de datos específica del tema, como LILACS, además de buscadores de revistas locales, si existen. Pero esa es otra historia…

Buscando las pepitas de oro

Estaba pensando en la entrada de hoy y no puedo evitar acordarme de los buscadores de la fiebre del oro de Alaska de finales del siglo XIX. Viajaban a Yukon, buscaban un buen arroyo como el Bonanza y recogían toneladas de barro. Pero ese barro no era el último paso de la búsqueda. De entre los sedimentos tenían que sacar las ansiadas pepitas de oro, para lo cual filtraban los sedimentos de forma cuidadosa hasta quedarse solo con el oro, cuando  había.

Cuando nosotros buscamos las mejores pruebas científicas para resolver nuestras preguntas clínicas hacemos algo parecido. Normalmente elegimos uno de los buscadores de Internet (como Pubmed, nuestro arroyo Bonanza) y solemos obtener una larga lista de resultados (nuestro montón de barro) que, finalmente, tendremos que filtrar para quedarnos solo con las pepitas de oro, si es que las hay entre los resultados de la búsqueda.

Ya hemos visto en entradas previas cómo hacer una búsqueda simple (la menos específica y que más barro nos va a proporcionar) y cómo refinar las búsquedas mediante el uso de los términos MeSH o el formulario de búsqueda avanzada, con los que buscamos obtener menos fango y más pepitas.

Sin embargo, lo habitual es que, una vez que tenemos la lista de resultados, tengamos que filtrarla para quedarnos solo con lo que más nos interese. Pues bien, para eso existe una herramienta muy popular dentro de Pubmed que es, oh sorpresa, el uso de filtros.

Vamos a ver un ejemplo. Supongamos que queremos buscar información sobre la relación entre asma y obesidad en la infancia. Lo ideal sería plantear una pregunta clínica estructurada para realizar una búsqueda específica, pero para ver más claramente cómo funcionan los filtros vamos a hacer una búsqueda simple “mal” planteada con lenguaje natural, para obtener un número mayor de resultados.

Entramos en la página de inicio de Pubmed, escribimos asthma and obesity in children en la caja de búsqueda y pulsamos el botón “Search”. Yo obtengo 1169 resultados, aunque el número puede variar si vosotros hacéis la búsqueda en otro momento.

Podéis ver el resultado en la primera figura. Si os fijáis, en el margen izquierdo de la pantalla hay una lista de texto con encabezados como “Tipos de artículos” (Article types), “disponibilidad de texto” (Text availability), etc. Cada apartado es uno de los filtros que yo tengo seleccionados para que se muestren en mi pantalla de resultados. Veis que debajo hay dos enlaces. El primero dice “Clear all” y sirve para desmarcar todos los filtros que hayamos seleccionado (en este caso, todavía ninguno). El segundo dice “Show additional filters” y, si clicamos sobre él, aparece una pantalla con todos los filtros disponibles para que elijamos cuáles queremos que se muestren en la pantalla. Echad un vistazo a todas las posibilidades.

Cuando queremos aplicar un filtro, solo tenemos que hacer click sobre el texto que hay debajo de cada encabezado del filtro. En nuestro caso vamos a filtrar solo los ensayos clínicos publicados en los últimos cinco años y de los que esté disponible el texto completo libre (sin tener que pagar suscripción). Para ello, hacemos click sobre “Clinical Trial”, “Free full text” y “5 years”, tal como veis en la segunda figura. Podéis comprobar que la lista de resultados se ha reducido a 11, un número mucho más manejable que los 1169 originales.

Ahora podemos quitar filtros de uno en uno (pulsando en la palabra “clear” que aparece al lado de cada filtro), quitarlos todos (pulsando “Clear all”) o añadir nuevos (haciendo click en el filtro que deseemos).

Dos precauciones a tener en cuenta con el uso de filtros. Lo primero, los filtros van a seguir estando activos hasta que los desactivemos nosotros. Si no nos damos cuenta de desactivarlos, podemos aplicarlos a búsquedas que hagamos después y obtener menos resultados de los esperados. Lo segundo, los filtros funcionan en base a los términos MeSH que se hayan asignado a cada artículo a la hora de indexarlo, por lo que los artículos muy recientes, que no ha dado tiempo de indexar todavía y que no tienen, por tanto, asignados sus términos MeSH, se perderán al aplicar los filtros. Por eso es recomendable aplicar los filtros al final del proceso de búsqueda, que es mejor acotar con otras técnicas como el uso de los MeSH o la búsqueda avanzada.

Otra opción que tenemos con los índices es automatizarlos para todas las búsquedas pero sin que nos recorten el número de resultados. Para ello tenemos que abrir cuenta en Pubmed clicando en “Sign in to NCBI” en el extremo superior derecho de la pantalla. Una vez que usemos el buscador como usuario registrado, podremos hacer click en un enlace arriba a la derecha que dice “Manage filters” y seleccionar los filtros que queramos. En lo sucesivo, las búsquedas que hagamos serán sin filtros, pero arriba a la derecha veréis enlaces a los filtros que hayamos seleccionados con el número de resultados entre paréntesis (podéis verlo en las dos primeras figuras que os he mostrado). Haciendo click, filtraremos la lista de resultados de modo similar a como hacíamos con los otros filtros, los que están accesibles sin registrarnos.

No me gustaría dejar el tema de Pubmed y de los filtros sin hablaros de otro recurso de búsqueda: las Clinical Queries. Podéis acceder a ellas haciendo click en el enlace de las herramientas de Pubmed (Pubmed Tools) de la página de inicio del buscador. Las Clinical Queries son una especie de filtro construido por desarrolladores de Pubmed que filtran la búsqueda para que solo se muestren artículos relacionados con investigación clínica.

Escribimos la cadena de búsqueda en la caja de búsqueda y obtenemos los resultados distribuidos en tres columnas, como veis en la tercera figura que o adjunto. En la primera columna se ordenan según el tipo de estudio (etiología, diagnóstico, tratamiento, pronóstico y guías de predicción clínica) y el alcance de la búsqueda que puede ser más específico (“Narrow”) o menos (“Broad”). Si seleccionamos “tratamiento” y alcance estrecho (“Narrow”), vemos que la búsqueda queda limitada a 25 trabajos.

En la segunda columna se ordenan revisiones sistemáticas, metanálisis, revisiones de medicina basada en la evidencia, etc. Por último, la tercera se centra en trabajos sobre genética.

Si queremos ver el listado completo podemos pulsar en “See all” al fondo del listado. Veremos entonces una pantalla similar a la de los resultados de búsqueda simple o avanzada, como veis en la cuarta figura que os adjunto. Si os fijáis en la caja de búsqueda, la cadena de búsqueda se ha modificado un poco. Una vez que tenemos este listado podemos modificar la cadena de búsqueda y volver a pulsar “Search”, aplicar de nuevo los filtros que nos convenga, etc. Como veis, las posibilidades son muchas.

Y con esto creo que vamos a ir despidiéndonos de Pubmed. Os animo a investigar otras muchas opciones y herramientas que están explicadas en los tutoriales de la página web, para algunos de las cuáles será necesario que tengáis abierta una cuenta en NCBI (recordad que es gratis). Podréis así, por ejemplo, fijar alarmas para que el buscador os avise cuando se publique algo nuevo sobre la búsqueda relacionada, entre otras muchas posibilidades. Pero esa es otra historia…