Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasAleatorización
image_pdf

Clientes habituales

Vimos en una entrada anterior que el tamaño muestral es muy importante. La muestra debe ser del tamaño adecuado, ni más ni menos. Si es demasiado grande estaremos malgastando recursos, algo a tener muy en cuenta en los tiempos actuales. Si usamos una muestra pequeña ahorraremos dinero, pero perderemos potencia estadística. Esto quiere decir que puede ocurrir que exista una diferencia de efecto entre las dos intervenciones probadas en un ensayo clínico y no seamos capaces de reconocerla, con lo cual acabamos tirando dinero de igual forma.

El problema es que en algunas ocasiones puede ser muy difícil acceder al tamaño muestral adecuado, siendo necesarios periodos de tiempo excesivamente largos para alcanzar el tamaño deseado. Pues bien, para estos casos, alguien con mentalidad comercial ha ideado un método que consiste en incluir al mismo participante muchas veces en el ensayo. Es como en los bares. Es mejor tener una clientela habitual que acuda muchas veces al establecimiento, siempre más fácil que tener una parroquia muy concurrida (que también es deseable).

Existen ocasiones en que el mismo paciente necesita el mismo tratamiento en múltiples ocasiones repetidas. Pensemos, por ejemplo, en el asmático que necesita tratamiento broncodilatador en repetidas ocasiones, o en la pareja sometida a un proceso de fertilización in vitro, que requiere varios ciclos hasta tener éxito.

Aunque la norma habitual en los ensayos clínicos es aleatorizar participantes, en estos casos podemos aleatorizar cada participante de forma independiente cada vez que necesite tratamiento. Por ejemplo, si estamos probando dos broncodilatadores, podemos aleatorizar al mismo sujeto a uno de los dos cada vez que tenga una crisis asmática y necesite tratamiento. Este procedimiento se conoce con el nombre de realeatorización y consiste, como hemos visto, en aleatorizar situaciones en lugar de participantes.

Este truco es totalmente correcto desde el punto de vista metodológico, siempre que se cumplan algunas condiciones que veremos a continuación.

El participante entra en el ensayo la primera vez de la forma habitual, siendo asignado al azar a una de las dos ramas del ensayo. Posteriormente se realiza el seguimiento durante el periodo apropiado y se recogen los resultados de las variables en estudio. Una vez acabado el periodo de seguimiento, si el paciente precisa nuevo tratamiento y sigue cumpliendo los criterios de inclusión del ensayo es de nuevo aleatorizado, repitiéndose este ciclo las veces necesarias para alcanzar el tamaño muestral deseado.

Este modo de reclutar situaciones en lugar de participantes permite alcanzar el tamaño muestral con un número de participantes menor. Por ejemplo, si necesitamos 500 participantes, podemos aleatorizar 500 una vez, 250 dos veces o 200 una vez y 50 seis. Lo importante es que el número de aleatorizaciones de cada participante no se especifique previamente, sino que dependa de la necesidad de tratamiento de cada uno.

Para aplicar este método de manera correcta hace falta cumplir tres requisitos. El primero, solo puede realeatorizarse un paciente cuando haya finalizado completamente el periodo de seguimiento del procedimiento anterior. Esto es lógico, ya que, de no ser así, se solaparían los efectos de los dos tratamientos y se obtendría una medida sesgada del efecto de la intervención.

El segundo, cada nueva aleatorización en el mismo participante debe hacerse de manera independiente a las anteriores. Dicho de otro modo, la probabilidad de asignación a cada intervención no debe depender de las asignaciones previas. Hay autores que caen en la tentación de utilizar las reasignaciones para equilibrar los dos grupos, pero esto puede sesgar las comparaciones entre los dos grupos.

El tercero, el participante debe recibir el mismo beneficio de cada intervención. De lo contrario, obtendremos una estimación sesgada del efecto del tratamiento.

Vemos, pues, como este es un buen método para alcanzar con más facilidad el tamaño de la muestra que deseemos. El problema con este tipo de diseño es que el análisis de los resultados es algo más complejo que el del ensayo clínico convencional.

Básicamente y sin entrar en detalles, existen dos métodos de análisis de resultados. El más sencillo es el análisis no ajustado, en el que todas las intervenciones, incluso aunque pertenezcan al mismo participante, son tratadas de forma independiente. Este modelo, que se suele expresar mediante un modelo de regresión lineal, no tiene en cuenta el efecto que los participantes puedan tener sobre los resultados.

El otro método es el ajustado por el efecto de los pacientes, que sí tiene en cuenta la correlación existente entre observaciones de los mismos participantes.

Y aquí lo dejamos por hoy. No hemos hablado nada del tratamiento matemático del método ajustado para no quemar las neuronas de los lectores. Baste decir que existen varios modelos que tienen que ver con el uso de modelos lineales generalizados y modelos de efectos mixtos. Pero esa es otra historia…

La necesidad del azar

Ya decía Demócrito que todo lo que existe en este mundo es fruto del azar y la necesidad. Y lo mismo pensaba Monod, que utilizó la forma en que el azar se imbrica con nuestro destino para explicar que no somos más que máquinas genéticas. Pero hoy no vamos a hablar del azar y su necesidad para justificar nuestra mecanicista evolución, sino de algo muy diferente, aunque parezca un juego de palabras: de la necesidad del azar a la hora de diseñar los estudios científicos para controlar lo que está más allá de nuestro control.

Y es que, en efecto, la aleatorización es uno de los elementos clave de los estudios experimentales. Siempre que planteamos un ensayo clínico para comprobar la eficacia de una intervención necesitamos que los dos grupos, el de intervención y el de control, sean totalmente comparables, ya que es la forma de estar razonablemente seguros de que las diferencias que observemos sean debidas a la intervención. Pues bien, esta asignación de los participantes a uno de los dos grupos debe hacerse al azar, sin que intervengan en ella la voluntad del participante ni del investigador.

La gran ventaja de la aleatorización es que distribuye de forma homogénea todas aquellas variables que pueden influir en el resultado, tanto si son conocidas por el investigador como si son desconocidas. Así, podremos plantear nuestras hipótesis nula y alternativa y calcular la probabilidad de que las diferencias se deban al azar o al efecto de la intervención en estudio.

Sin embargo, todas las ventajas de la aleatorización pueden perderse si no la hacemos de forma correcta. Es muy importante que la secuencia de aleatorización sea imprevisible, de forma que sea imposible saber a qué grupo se va a asignar el siguiente participante, incluso antes de decidirse su intervención en el estudio (para evitar que el saber qué grupo le corresponde pueda influir en la decisión de participar en el estudio).

Es frecuente realizarla utilizando sobres cerrados con códigos que se asignan a los participantes. Otra posibilidad es utilizar secuencias de ordenador o tablas de números aleatorios. Para mayor seguridad, es además conveniente que la aleatorización la hagan personas ajenas al estudio, por vía centralizada o telefónica. En cualquier caso, debemos evitar técnicas que puedan ser previsibles, como el uso de los días de la semana, las iniciales del nombre, las fechas de nacimiento, etc.

Existen varias técnicas para realizar una aleatorización de forma correcta, teniendo todas en común el hecho de que los participantes tienen una probabilidad determinada de ser asignados a alguno de los grupos del ensayo.

Un método muy sencillo consiste en ir asignándolos de forma alternante y sistemática a un grupo o al otro, pero este método solo es aleatorio para el primero que se asigna. Por eso suelen preferirse cualquiera de las restantes modalidades de aleatorización.

La más sencilla de las técnicas aleatorias es (¡sorpresa!) la asignación aleatoria simple, que equivale a tirar una moneda al aire cuando los participantes tienen la misma probabilidad de asignación a los dos grupos. Claro que esto no tiene porqué ser así y podemos asignar una probabilidad diferente. El problema de este método es que crea grupos de distinto tamaño, por lo que pueden aparecer desequilibrios entre los grupos, sobre todo con muestras pequeñas.

Para evitar este problema podemos recurrir a la aleatorización por bloques de tamaño  prefijado (múltiplos de dos) y asignamos la mitad de los participantes a un grupo y el resto al otro. Así se garantiza que el número de participantes en cada grupo sea similar.

También puede dividirse la muestra en grupos en función de alguna variable pronóstica, haciéndose la asignación aleatoria dentro de cada grupo. Esta es la técnica de aleatorización estratificada. Es importante que los estratos sean excluyentes, lo más diferentes entre sí y lo más homogéneos posible en su interior. Hay quien aconseja utilizar una técnica de asignación por bloques dentro de cada estrato, pero esto puede depender del tipo de estudio.

También pueden asignarse por grupos diferentes funcional o geográficamente para evitar la contaminación de unos participantes por la intervención de la rama contraria. Pensemos que queremos valorar una técnica de cribado de cáncer. Quizás sea mejor cribar en unos centros y en otros no. Si en el mismo hacemos las dos cosas, los participantes del grupo control pueden modificar sus hábitos de vida o exigir el beneficio de la técnica de cribado también para ellos.

Finalmente, existen también una serie de técnicas de aleatorización adaptativas, que se van modificando a lo largo del estudio para adaptarse a desequilibrios que van surgiendo en el reparto de variables o en el número de sujetos de cada grupo. Esta técnica puede también utilizarse cuando nos interese minimizar el número de los que reciban la intervención menos eficaz, una vez que vamos conociendo los resultados del estudio.

Y con esto termino con la aleatorización. Antes de terminar solo me queda advertir que no debe confundirse ocultación de la secuencia de aleatorización con enmascaramiento. La ocultación previene el sesgo de selección y asegura (aunque no siempre) una distribución equilibrada de variables confusoras o modificadoras de efecto. El enmascaramiento se realiza una vez ya asignados los participantes a su rama de intervención o de control y sirve para prevenir los sesgos de información. Pero esa es otra historia…

Para ver bien hay que estar ciego

Dicen que no hay peor ciego que el que no quiere ver. Pero también es verdad que querer ver demasiado puede ser contraproducente. En ocasiones, es mejor ver solo lo justo e imprescindible.

Eso es lo que ocurre en los estudios científicos. Imaginad que queremos probar un nuevo tratamiento y planteamos un ensayo en el que a unos les damos el fármaco nuevo y a otros un placebo. Si todos saben qué recibe cada cual, puede ocurrir que las expectativas de los investigadores o de los participantes influyan, aun de forma involuntaria, en la forma en que valoren los resultados del estudio. Por eso hay que recurrir a técnicas de enmascaramiento, más conocidas como técnicas de ciego.

Vamos a suponer que queremos probar un fármaco nuevo contra una enfermedad muy grave. Si un participante sabe que le están dando el fármaco será mucho más permisivo con los efectos secundarios que si sabe que le dan placebo. Pero al investigador le puede ocurrir algo parecido. Cualquiera puede imaginar que pondríamos menos interés en preguntar por los signos de toxicidad del nuevo tratamiento a un individuo que sabemos está recibiendo un inocuo placebo.

Todos estos efectos pueden influir en la forma en que participantes e investigadores valoran los efectos del tratamiento, pudiendo producir un sesgo de interpretación de los resultados.

Las técnicas de enmascaramiento se pueden realizar a distintos niveles. El nivel más bajo es no enmascarar en absoluto, realizando lo que se denomina un ensayo abierto. Aunque lo ideal sea enmascarar, hay veces en que esto no interesa o es imposible. Por ejemplo, pensad que para cegar haya que causar molestias innecesarias, como la administración de placebos por vía parenteral durante periodos prolongados o la realización de procedimientos quirúrgicos. Otras veces es difícil encontrar un placebo que sea indistinguible galénicamente del tratamiento ensayado. Y, por último, otras veces no tendrá mucho sentido enmascarar si el tratamiento tiene efectos fácilmente reconocibles que no se producen con el placebo.

El siguiente nivel es el simple ciego cuando o bien los participantes, o bien los investigadores, desconocen qué tratamiento recibe cada uno. Un paso más allá está el doble ciego, en el que ni investigadores ni participantes saben a qué grupo pertenece cada uno. Y, por último, tenemos el triple ciego, cuando además de los ya mencionados, la persona que analiza los datos o la que tiene la responsabilidad de controlar y suspender el estudio desconoce también a qué grupo se ha asignado cada participante. Imaginad que aparece un efecto adverso grave y tenemos que decidir si suspendemos el estudio. No cabe duda que el conocer si esa persona recibe el fármaco en ensayo o el placebo nos puede condicionar a la hora de tomar esa decisión.

¿Y qué hacemos cuando no se puede o no interesa enmascarar?. Pues en esos casos no nos queda más remedio que hacer un estudio abierto, aunque podemos intentar recurrir a un evaluador ciego. Esto quiere decir que, aunque investigadores y participantes conozcan la asignación al grupo de intervención o de placebo, la persona que analiza las variables desconoce esta asignación. Esto es especialmente importante cuando la variable de resultado es subjetiva. Por otra parte, no resulta tan imprescindible cuando es una variable objetiva, como una determinación de laboratorio. Pensad que una radiografía puede no valorarse con la misma minuciosidad o criterio si sabemos que el individuo es del grupo placebo o del de intervención.

Para terminar, comentar otros dos posibles errores derivados de la falta de enmascaramiento. Si un participante sabe que recibe el fármaco en estudio puede experimentar una mejoría simplemente por efecto placebo. Por otra parte, el que sabe que le ha tocado el placebo puede modificar su comportamiento cuando sabe que “no está protegido” por el nuevo tratamiento. Esto se llama contaminación y es un verdadero problema en los estudios sobre hábitos de vida.

Y con esto acabamos. Solo aclarar un concepto antes de finalizar. Hemos visto que puede haber cierta relación entre la falta de enmascaramiento y la aparición de un efecto placebo. Pero no os confundáis, el enmascaramiento no sirve para controlar el efecto placebo. Para eso hay que recurrir a otra argucia: la aleatorización. Pero esa es otra historia…

Rey de reyes

No cabe duda de que a la hora de realizar un trabajo de investigación en biomedicina podemos elegir entre un gran número de diseños posibles, todos ellos con sus ventajas e inconvenientes. Pero en esta corte tan diversa y poblada, entre malabaristas, sabios, jardineros y flautistas púrpuras, reina por encima de todos el verdadero Rey Carmesí de la epidemiología: el ensayo clínico aleatorizado.

El ensayo clínico es un tipo de diseño analítico y experimental en el que se selecciona una muestra de una población y se divide al azar en dos grupos. Uno de los grupos (grupo de intervención) sufre la intervención que queremos estudiar, mientras que el otro (grupo de control) nos sirve de referencia para comparar los resultados. Tras un periodo de seguimiento determinado se analizan los resultados y se comparan las diferencias entre los dos grupos.

Como puede entenderse por su diseño, los ensayos clínicos son siempre prospectivos. Además, es el diseño más adecuado para valorar la eficacia de cualquier intervención en medicina y es el que proporciona una evidencia de mayor calidad para demostrar la relación de causalidad entre la intervención y los resultados observados.

Pero para disfrutar de todos estos beneficios es necesario ser escrupuloso en el planteamiento y metodología de los ensayos. Existen listas de verificación publicadas por sabios que entienden mucho de estos temas, como es el caso de la lista CONSORT, que nos pueden ayudar a valorar la calidad del diseño del ensayo. Pero entre todos estos aspectos, reflexionemos un poco sobre aquellos que son cruciales para la validez del ensayo clínico.

Todo empieza con una laguna de conocimiento que nos lleva a formular una pregunta clínica estructurada. El único objetivo del ensayo debe ser responder a esta pregunta y basta con que se responda de forma adecuada a una sola pregunta. Desconfiad de los ensayos clínicos que tratan de responder a muchas preguntas, ya que, en muchas ocasiones, al final no responden bien a ninguna. Además, el planteamiento debe basarse en lo que los inventores de jerga metodológica llaman el principio de incertidumbre, que no quiere decir más que, en el fondo de nuestro corazón, desconocemos de verdad cuál de las dos intervenciones es más beneficiosa para el paciente (habría que ser un poco perro desde el punto de vista ético para realizar una comparación si ya sabemos con seguridad cuál de las dos intervenciones es mejor). Es curioso en este sentido cómo los ensayos patrocinados por la industria farmacéutica tienen más tendencia a incumplir el principio de incertidumbre, ya que tienen preferencia por comparar con placebo o con “no intervención” para poder demostrar con más facilidad la eficacia de sus productos.

A continuación debemos elegir cuidadosamente la muestra sobre la que realizaremos el ensayo. Idealmente, todos los miembros de la población deberían tener la misma probabilidad no solo de ser elegidos, sino también de acabar en cualquiera de las dos ramas del ensayo. Aquí nos encontramos con un pequeño dilema. Si somos muy estrictos con los criterios de inclusión y exclusión la muestra será muy homogénea y la validez interna del estudio saldrá fortalecida, pero será más difícil extender los resultados a la población general (esta es la actitud explicativa de selección de la muestra). Por otra parte, si no somos tan rígidos los resultados se parecerán más a los de la población general, pero puede verse comprometida la validez interna del estudio (esta es la actitud pragmática).

La aleatorización (¿quién ha dicho ramdomización?) es uno de los puntos clave del ensayo clínico. Es la que nos asegura que podemos comparar los dos grupos, ya que distribuye por igual las variables conocidas y, más importante, también las desconocidas entre los dos grupos. Pero no nos relajemos demasiado: este reparto no está en absoluto garantizado, solo es más probable que ocurra si aleatorizamos de forma correcta, así que siempre deberemos comprobar la homogeneidad de los dos grupos, sobre todo con muestras pequeñas.

Además, la aleatorización nos permite realizar de forma adecuada el enmascaramiento, con lo que realizamos una medición no sesgada de la variable de respuesta. Estos resultados del grupo de intervención los podemos comparar con los del grupo control de tres formas. Una de ellas es comparar con un placebo. El placebo debe ser un preparado de características físicas indistinguibles del fármaco de intervención pero sin sus efectos farmacológicos. Esto sirve para controlar el efecto placebo (que depende de la personalidad del paciente, de sus sentimientos hacia a la intervención, de su cariño por el equipo investigador, etc), pero también los efectos secundarios que son debidos a la intervención y no al efecto farmacológico (pensemos, por ejemplo, en el porcentaje de infecciones locales en un ensayo con medicación administrada por vía intramuscular).

La otra forma de comparar es con el tratamiento aceptado como más eficaz hasta el momento. Si existe un tratamiento que funciona, lo lógico (y más ético) es que lo usemos para investigar si el nuevo aporta beneficios. También suele ser el método de comparación habitual en los estudios de equivalencia o de no-inferioridad. Por último, la tercera posibilidad es comparar con la no intervención, aunque en realidad esto es una forma rebuscada de decir que solo se le aplican los cuidados habituales que recibiría cualquier paciente en su situación clínica.

Es imprescindible que todos los participantes en el ensayo sean sometidos a la misma pauta de seguimiento, que debe ser lo suficientemente prolongado como para permitir que se produzca la respuesta esperada. Deben detallarse y analizarse todas las pérdidas que se produzcan durante el seguimiento, ya que pueden comprometer la validez y la potencia del estudio para detectar diferencias significativas. ¿Y qué hacemos con los que se pierden o acaban en una rama diferente a la asignada?. Si son muchos, lo más razonable puede ser rechazar el estudio. Otra posibilidad es excluirlos y hacer como si no hubiesen existido nunca, pero podemos sesgar los resultados del ensayo. Una tercera posibilidad es incluirlos en el análisis en la rama del ensayo en la que han participado (siempre hay alguno que se confunde y se toma lo que no le toca), lo que se conoce como análisis por tratamiento o análisis por protocolo. Y la cuarta, y última, opción que tenemos es analizarlos en la rama que se les asignó inicialmente con independencia de lo que hayan hecho durante el estudio. Esto se denomina análisis por intención de tratar, y es la única de las cuatro posibilidades que nos permite conservar todos los beneficios que previamente nos había proporcionado la aleatorización.

Como fase final, nos quedaría el análisis y comparación de los datos para extraer las conclusiones del ensayo, utilizando para ello las medidas de asociación y medidas de impacto oportunas, lo que constituye toda la metodología de lectura crítica de trabajos científicos.

Acabo ya. La verdad es que esta entrada me ha quedado un poco larga (y espero que no demasiado coñazo), pero es que el Rey se lo merece. De todas formas, si pensáis que está todo dicho sobre ensayos clínicos no tenéis ni idea de todo lo que queda por decir sobre tipos de ensayos, tipos de muestreos, de aleatorización, etc, etc, etc. Pero esa es otra historia…