Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasAleatorización

El rey a examen

Todos sabemos que el ensayo clínico aleatorizado es el rey de los diseños metodológicos de intervención. Es el tipo de estudio epidemiológico que permite un mejor control de los errores sistemáticos o sesgos, ya que el investigador controla las variables del estudio y los participantes son asignados al azar entre las intervenciones que se comparan.

De esta forma, si dos grupos homogéneos que difieren solo en la intervención presentan alguna diferencia de interés durante el seguimiento, podremos afirmar con cierta confianza que esta diferencia se debe a la intervención, lo único que no tienen en común los dos grupos. Por este motivo, el ensayo clínico es el diseño preferente para responder a preguntas clínicas sobre intervención o tratamiento, aunque siempre tendremos que ser prudentes con la evidencia generada por un solo ensayo clínico, por muy bien realizado que esté. Cuando realizamos una revisión sistemática sobre ensayos clínicos aleatorizados sobre la misma intervención y los combinamos en un metanálisis, las respuestas que obtenemos tendrán más fiabilidad que las obtenidas de un solo estudio. Por eso hay quien afirma que el diseño ideal para responder preguntas de tratamiento no es el ensayo clínico, sino el metanálisis de ensayos clínicos.

En cualquier caso, como las revisiones sistemáticas valoran sus estudios primarios de forma individual y como lo más habitual es que encontremos ensayos individuales y no revisiones sistemáticas, conviene saber hacer una buena lectura crítica para poder sacar conclusiones. En efecto, no podemos relajarnos cuando veamos que un artículo nos cuenta un ensayo clínico y darlo por bueno. El ensayo clínico puede también contener sus trampas y argucias, por lo que, como con cualquier otro tipo de trabajo, será buena práctica realizar la lectura crítica del mismo, basándonos en nuestros tres pilares habituales: validez, importancia y aplicabilidad.

Como siempre, a la hora de estudiar el rigor científico o VALIDEZ (validez interna), nos fijaremos primero en una serie de criterios primarios imprescindibles. Si estos no se cumplen, mejor no perder el tiempo con el trabajo y buscar otro más provechoso.

¿Existe una pregunta clínica claramente definida? En su origen, el ensayo debe estar diseñado para responder a una pregunta clínica estructurada sobre tratamiento, motivada por una de nuestras múltiples lagunas de conocimiento. Se debe plantear una hipótesis de trabajo con sus correspondientes hipótesis nula y alternativa, a ser posible sobre un tema relevante desde el punto de vista clínico. Es preferible que el estudio trate de responder solo a una pregunta. Cuando se quiere responder a varias suele complicarse el estudio en exceso para acabar no contestando ninguna de forma completa y adecuada.

¿Se realizó la asignación de forma aleatoria? Como ya hemos dicho, para poder afirmar que las diferencias entre los grupos se deben a la intervención es necesario que sean homogéneos. Esto se consigue asignando los pacientes al azar, única forma de controlar las variables confusoras conocidas y, más importante, también las que desconocemos. Si los grupos fueran distintos y atribuyésemos la diferencia únicamente a la intervención podríamos incurrir en un sesgo de confusión. El ensayo debe contener la habitual e imprescindible tabla 1 con la frecuencia de aparición de las variables demográficas y de confusión de ambas muestras para estar seguros de que los grupos son homogéneos. Un error frecuente es buscar las diferencias entre los dos grupos y valorarlas según su p, cuando sabemos que la p no mide homogeneidad. Si los hemos repartido al azar, cualquier diferencia que observemos se deberá obligatoriamente al azar (no necesitaremos una p para saberlo). El tamaño muestral no está pensado para discriminar entre las variables demográficas, por lo que una p no significativa puede indicar simplemente que la muestra es pequeña para verla. Por otro lado, cualquier mínima diferencia puede alcanzar significación estadística si la muestra es lo suficientemente grande. Así que olvidaos de la p: si hay alguna diferencia, lo que hay que hacer es valorar si tiene la relevancia clínica suficiente como para poder haber influido en los resultados o, dicho de forma más elegante, tendremos que controlar las covariables no equilibradas durante la aleatorización. Afortunadamente, cada vez es más raro encontrar las tablas de los grupos de estudio con las p de comparación entre los grupos de intervención y control.

Pero no basta con que el estudio esté aleatorizado (aprovecho para decir que randomizado es un barbarismo que no existe en lengua castellana), sino que hay que considerar también si la secuencia de aleatorización se hizo de forma correcta. El método utilizado debe garantizar que todos los componentes de la población seleccionada tengan la misma probabilidad de ser elegidos, por lo que se prefieren las tablas de números aleatorios o secuencias generadas por ordenador. La aleatorización debe ser oculta, de forma que no se pueda saber a qué grupo va a pertenecer el siguiente participante. Por eso gustan tanto los sistemas centralizados vía telefónica o a través de Internet. Y aquí pasa algo muy curioso: resulta que es bien conocido que la aleatorización produce muestras de diferente tamaño, sobre todo si las muestras son pequeñas, motivo por el que a veces se usan muestras aleatorizadas por bloques balanceados en tamaño. Y yo os pregunto, ¿cuántos estudios habéis leído con el mismo número de participantes en las dos ramas y que afirmaban ser aleatorizados? Desconfiad si veis grupos iguales, sobre todo si son pequeños, y no os dejéis engañar: siempre podéis utilizar una de las múltiples calculadoras de probabilidad binomial disponibles en la Red para saber cuál es la probabilidad de que el azar genere los grupos que los autores os presentan (hablamos siempre de aleatorización simple, no por bloques, conglomerados, minimización u otras técnicas). Os sorprenderá lo que encontraréis.

También es importante que el seguimiento haya sido lo suficientemente largo y completo, de forma que el estudio dure lo suficiente para poder observar la variable de resultado y que todo participante que entre en el estudio sea tenido en cuenta al finalizar. Como regla de andar por casa, si las pérdidas superan el 20%, se admite que la validez interna del estudio puede estar comprometida.

Siempre tendremos que analizar la naturaleza de las pérdidas durante el seguimiento, sobre todo si estas son elevadas. Hay que tratar de dilucidar si las pérdidas son aleatorias o si están en relación con alguna variable concreta (lo cual sería mal asunto) y estimar qué efecto han podido tener en los resultados del ensayo. Lo más habitual suele ser adoptar el llamado escenario del peor de los casos: se supone que todas las pérdidas del grupo control han ido bien y todas las del grupo de intervención han ido mal y se repite el análisis para comprobar si las conclusiones se modifican, en cuyo caso la validez del estudio quedaría seriamente comprometida. El último aspecto importante es considerar si los pacientes que no han recibido el tratamiento previamente asignado (siempre hay alguno que no se entera y mete la pata) se han analizado según la intención de tratamiento, ya que es la única forma de preservar todos los beneficios que se obtienen con la aleatorización. Todo aquello que ocurra después de la aleatorización (como un cambio del grupo de asignación) puede influir en la probabilidad de que el sujeto experimente el efecto que estemos estudiando, por lo que es importante respetar este análisis por intención de tratar y analizar cada uno en el grupo en el que se asignó inicialmente.

Una vez comprobados estos criterios primarios, nos fijaremos en tres criterios secundarios que influyen en la validez interna. Habrá que comprobar que los grupos fueran similares al inicio del estudio (ya hemos hablado de la tabla con los datos de los dos grupos), que se llevó a cabo el enmascaramiento de forma adecuada como forma de control de sesgos y que los dos grupos fueron manejados y controlados de forma similar a excepción, claro está, de la intervención en estudio. Sabemos que el enmascaramiento o cegamiento permite minimizar el riesgo de sesgos de información, por lo que lo habitual es que los investigadores y los participantes desconozcan a qué grupo está asignado cada uno, lo que se conoce como doble ciego. En ocasiones, dada la naturaleza de la intervención (pensemos un grupo que se opera y otro no) será imposible enmascarar a investigadores y participantes, pero siempre podremos darle los datos enmascarados a la persona que realice el análisis de los resultados (el llamado evaluador ciego), con lo que se trata de paliar este problema.

Para resumir este apartado de la validez del ensayo, podemos decir que tendremos que comprobar que exista una clara definición de la población de estudio, de la intervención y del resultado de interés, que la aleatorización se haya hecho de forma adecuada, que se han tratado de controlar los sesgos de información mediante el enmascaramiento, que ha habido un seguimiento adecuado con control de las pérdidas y que el análisis haya sido correcto (análisis por intención de tratamiento y control de covariables no equilibradas por la aleatorización).

Una herramienta muy sencilla que nos puede ayudar también a valorar la validez interna de un ensayo clínico es la escala de Jadad, también llamada sistema de puntuación de calidad de Oxford. Jadad, un médico colombiano, ideó un sistema de puntuación con 7 preguntas. En primer lugar, 5 preguntas cuya respuesta afirmativa suma 1 punto:

  1. ¿El estudio se describe como aleatorizado?
  2. ¿Se describe el método utilizado para generar la secuencia de aleatorización y este es adecuado?
  3. ¿El estudio se describe como doble ciego?
  4. ¿Se describe el método de enmascaramiento y este es adecuado?
  5. ¿Hay una descripción de las pérdidas durante el seguimiento?

Finalmente, dos preguntas cuya respuesta negativa resta 1 punto:

  1. ¿Es adecuado el método utilizado para generar la secuencia de aleatorización?
  2. ¿Es adecuado el método de enmascaramiento?

Como veis, la escala de Jadad valora los puntos clave que ya hemos mencionado: aleatorización, enmascaramiento y seguimiento. Se considera un estudio riguroso desde el punto de vista metodológico el que tiene una puntuación de 5 puntos. Si el estudio tiene 3 puntos o menos, mejor lo utilizamos para envolver el bocadillo.

Pasaremos a continuación a considerar cuáles son los resultados del estudio para calibrar su IMPORTANCIA clínica. Habrá que determinar las variables medidas para ver si el trabajo expresa de forma adecuada la magnitud y la precisión de los resultados. Es importante, una vez más, no conformarnos con que nos inunden con múltiples p llenas de ceros. Recordad que la p solo nos indica la probabilidad de que estemos dando como buenas diferencias que solo existen por azar (o, dicho con elegancia, de cometer un error de tipo 1), pero que significación estadística no tiene porqué ser sinónimo de relevancia clínica.

En el caso de variables continuas como tiempo de supervivencia, peso, tensión arterial, etc, lo habitual será expresar la magnitud de los resultados como diferencia de medias o de medianas, dependiendo de cuál sea la medida de centralización más adecuada. Sin embargo, en casos de variables dicotómicas (vivo o muerto, sano o enfermo, etc) se utilizarán el riesgo relativo, su reducción relativa y absoluta y el número necesario a tratar (NNT). De todas ellas, la que mejor expresa la eficiencia clínica es siempre el NNT. Cualquier trabajo digno de nuestra atención debe proporcionar estos datos o, en su defecto, la información necesaria para que podamos calcularlos.

Pero para permitir conocer una estimación más real de los resultados en la población necesitamos saber la precisión del estudio, y nada más fácil que recurrir a los intervalos de confianza. Estos intervalos, además de la precisión, nos informan también de la significación estadística. Será estadísticamente significativo si el intervalo del riesgo relativo no incluye el uno y el de la diferencia de medias, el cero. En el caso de que los autores no nos los proporcionen, podemos utilizar una calculadora para obtenerlos, como las disponibles en la web de CASPe.

Una buena forma de ordenar el estudio de la importancia clínica de un ensayo es estructurarlo en las cuatro Cs: valoración Cuantitativa (medidas de efecto y su precisión), valoración Cualitativa (relevancia desde el punto de vista clínico), valoración Comparativa (ver si los resultados son congruentes con los de otros estudios previos) y valoración de Coste-beneficio (este punto enlazaría con el siguiente apartado de la lectura crítica que tiene que ver con la aplicabilidad de los resultados del ensayo).

Para finalizar la lectura crítica de un artículo de tratamiento valoraremos su APLICABILIDAD (también llamada validez externa), para lo cual nos tendremos que preguntar si los resultados pueden generalizarse a nuestros pacientes o, dicho de otro modo, si existe alguna diferencia entre nuestros pacientes y los del estudio que impida la generalización de los resultados. Hay que tener en cuenta en este sentido que cuánto más estrictos sean los criterios de inclusión de un estudio, más difícil será generalizar sus resultados, comprometiéndose así su validez externa.

Pero, además, debemos considerar si se han tenido en cuenta todos los resultados clínicamente importantes, incluyendo efectos secundarios e indeseables. La variable de resultado medida debe ser importante para el médico y para el paciente. No hay que olvidar que el hecho de que demostrar que la intervención sea eficaz no significa obligatoriamente que sea beneficiosa para nuestros pacientes. Habrá que valorar también los efectos nocivos o molestos y estudiar el balance beneficios-costes-riesgos, así como las dificultades que puedan existir para aplicar el tratamiento en nuestro medio, las preferencias del paciente, etc.

Como es fácil de comprender, un estudio puede tener una gran validez metodológica y sus resultados tener gran importancia desde el punto de vista clínico y no ser aplicable a nuestros pacientes, ya sea porque nuestros pacientes sean diferentes a los del estudio, porque no se adapte a sus preferencias o porque sea irrealizable en nuestro medio. Sin embargo, lo contrario no suele ocurrir: si la validez es deficiente o los resultados carecen de importancia, difícilmente nos plantearemos aplicar las conclusiones del estudio a nuestros pacientes.

Para terminar, recomendaros que utilicéis alguna de las herramientas disponibles para lectura crítica, como las plantillas CASPe, o una lista de verificación, como la CONSORT, para no dejaros ninguno de estos puntos sin considerar. Eso sí, todo lo que hemos hablado se refiere a ensayos clínicos aleatorizados y controlados, ¿Y qué pasa si se trata de ensayos no aleatorizados o de otra clase de estudios cuasiexperimentales?. Pues para eso se siguen otra serie de normas, como pueden ser las de la declaración TREND. Pero esa es otra historia…

Clientes habituales

Vimos en una entrada anterior que el tamaño muestral es muy importante. La muestra debe ser del tamaño adecuado, ni más ni menos. Si es demasiado grande estaremos malgastando recursos, algo a tener muy en cuenta en los tiempos actuales. Si usamos una muestra pequeña ahorraremos dinero, pero perderemos potencia estadística. Esto quiere decir que puede ocurrir que exista una diferencia de efecto entre las dos intervenciones probadas en un ensayo clínico y no seamos capaces de reconocerla, con lo cual acabamos tirando dinero de igual forma.

El problema es que en algunas ocasiones puede ser muy difícil acceder al tamaño muestral adecuado, siendo necesarios periodos de tiempo excesivamente largos para alcanzar el tamaño deseado. Pues bien, para estos casos, alguien con mentalidad comercial ha ideado un método que consiste en incluir al mismo participante muchas veces en el ensayo. Es como en los bares. Es mejor tener una clientela habitual que acuda muchas veces al establecimiento, siempre más fácil que tener una parroquia muy concurrida (que también es deseable).

Existen ocasiones en que el mismo paciente necesita el mismo tratamiento en múltiples ocasiones repetidas. Pensemos, por ejemplo, en el asmático que necesita tratamiento broncodilatador en repetidas ocasiones, o en la pareja sometida a un proceso de fertilización in vitro, que requiere varios ciclos hasta tener éxito.

Aunque la norma habitual en los ensayos clínicos es aleatorizar participantes, en estos casos podemos aleatorizar cada participante de forma independiente cada vez que necesite tratamiento. Por ejemplo, si estamos probando dos broncodilatadores, podemos aleatorizar al mismo sujeto a uno de los dos cada vez que tenga una crisis asmática y necesite tratamiento. Este procedimiento se conoce con el nombre de realeatorización y consiste, como hemos visto, en aleatorizar situaciones en lugar de participantes.

Este truco es totalmente correcto desde el punto de vista metodológico, siempre que se cumplan algunas condiciones que veremos a continuación.

El participante entra en el ensayo la primera vez de la forma habitual, siendo asignado al azar a una de las dos ramas del ensayo. Posteriormente se realiza el seguimiento durante el periodo apropiado y se recogen los resultados de las variables en estudio. Una vez acabado el periodo de seguimiento, si el paciente precisa nuevo tratamiento y sigue cumpliendo los criterios de inclusión del ensayo es de nuevo aleatorizado, repitiéndose este ciclo las veces necesarias para alcanzar el tamaño muestral deseado.

Este modo de reclutar situaciones en lugar de participantes permite alcanzar el tamaño muestral con un número de participantes menor. Por ejemplo, si necesitamos 500 participantes, podemos aleatorizar 500 una vez, 250 dos veces o 200 una vez y 50 seis. Lo importante es que el número de aleatorizaciones de cada participante no se especifique previamente, sino que dependa de la necesidad de tratamiento de cada uno.

Para aplicar este método de manera correcta hace falta cumplir tres requisitos. El primero, solo puede realeatorizarse un paciente cuando haya finalizado completamente el periodo de seguimiento del procedimiento anterior. Esto es lógico, ya que, de no ser así, se solaparían los efectos de los dos tratamientos y se obtendría una medida sesgada del efecto de la intervención.

El segundo, cada nueva aleatorización en el mismo participante debe hacerse de manera independiente a las anteriores. Dicho de otro modo, la probabilidad de asignación a cada intervención no debe depender de las asignaciones previas. Hay autores que caen en la tentación de utilizar las reasignaciones para equilibrar los dos grupos, pero esto puede sesgar las comparaciones entre los dos grupos.

El tercero, el participante debe recibir el mismo beneficio de cada intervención. De lo contrario, obtendremos una estimación sesgada del efecto del tratamiento.

Vemos, pues, como este es un buen método para alcanzar con más facilidad el tamaño de la muestra que deseemos. El problema con este tipo de diseño es que el análisis de los resultados es algo más complejo que el del ensayo clínico convencional.

Básicamente y sin entrar en detalles, existen dos métodos de análisis de resultados. El más sencillo es el análisis no ajustado, en el que todas las intervenciones, incluso aunque pertenezcan al mismo participante, son tratadas de forma independiente. Este modelo, que se suele expresar mediante un modelo de regresión lineal, no tiene en cuenta el efecto que los participantes puedan tener sobre los resultados.

El otro método es el ajustado por el efecto de los pacientes, que sí tiene en cuenta la correlación existente entre observaciones de los mismos participantes.

Y aquí lo dejamos por hoy. No hemos hablado nada del tratamiento matemático del método ajustado para no quemar las neuronas de los lectores. Baste decir que existen varios modelos que tienen que ver con el uso de modelos lineales generalizados y modelos de efectos mixtos. Pero esa es otra historia…

La necesidad del azar

Ya decía Demócrito que todo lo que existe en este mundo es fruto del azar y la necesidad. Y lo mismo pensaba Monod, que utilizó la forma en que el azar se imbrica con nuestro destino para explicar que no somos más que máquinas genéticas. Pero hoy no vamos a hablar del azar y su necesidad para justificar nuestra mecanicista evolución, sino de algo muy diferente, aunque parezca un juego de palabras: de la necesidad del azar a la hora de diseñar los estudios científicos para controlar lo que está más allá de nuestro control.

Y es que, en efecto, la aleatorización es uno de los elementos clave de los estudios experimentales. Siempre que planteamos un ensayo clínico para comprobar la eficacia de una intervención necesitamos que los dos grupos, el de intervención y el de control, sean totalmente comparables, ya que es la forma de estar razonablemente seguros de que las diferencias que observemos sean debidas a la intervención. Pues bien, esta asignación de los participantes a uno de los dos grupos debe hacerse al azar, sin que intervengan en ella la voluntad del participante ni del investigador.

La gran ventaja de la aleatorización es que distribuye de forma homogénea todas aquellas variables que pueden influir en el resultado, tanto si son conocidas por el investigador como si son desconocidas. Así, podremos plantear nuestras hipótesis nula y alternativa y calcular la probabilidad de que las diferencias se deban al azar o al efecto de la intervención en estudio.

Sin embargo, todas las ventajas de la aleatorización pueden perderse si no la hacemos de forma correcta. Es muy importante que la secuencia de aleatorización sea imprevisible, de forma que sea imposible saber a qué grupo se va a asignar el siguiente participante, incluso antes de decidirse su intervención en el estudio (para evitar que el saber qué grupo le corresponde pueda influir en la decisión de participar en el estudio).

Es frecuente realizarla utilizando sobres cerrados con códigos que se asignan a los participantes. Otra posibilidad es utilizar secuencias de ordenador o tablas de números aleatorios. Para mayor seguridad, es además conveniente que la aleatorización la hagan personas ajenas al estudio, por vía centralizada o telefónica. En cualquier caso, debemos evitar técnicas que puedan ser previsibles, como el uso de los días de la semana, las iniciales del nombre, las fechas de nacimiento, etc.

Existen varias técnicas para realizar una aleatorización de forma correcta, teniendo todas en común el hecho de que los participantes tienen una probabilidad determinada de ser asignados a alguno de los grupos del ensayo.

Un método muy sencillo consiste en ir asignándolos de forma alternante y sistemática a un grupo o al otro, pero este método solo es aleatorio para el primero que se asigna. Por eso suelen preferirse cualquiera de las restantes modalidades de aleatorización.

La más sencilla de las técnicas aleatorias es (¡sorpresa!) la asignación aleatoria simple, que equivale a tirar una moneda al aire cuando los participantes tienen la misma probabilidad de asignación a los dos grupos. Claro que esto no tiene porqué ser así y podemos asignar una probabilidad diferente. El problema de este método es que crea grupos de distinto tamaño, por lo que pueden aparecer desequilibrios entre los grupos, sobre todo con muestras pequeñas.

Para evitar este problema podemos recurrir a la aleatorización por bloques de tamaño  prefijado (múltiplos de dos) y asignamos la mitad de los participantes a un grupo y el resto al otro. Así se garantiza que el número de participantes en cada grupo sea similar.

También puede dividirse la muestra en grupos en función de alguna variable pronóstica, haciéndose la asignación aleatoria dentro de cada grupo. Esta es la técnica de aleatorización estratificada. Es importante que los estratos sean excluyentes, lo más diferentes entre sí y lo más homogéneos posible en su interior. Hay quien aconseja utilizar una técnica de asignación por bloques dentro de cada estrato, pero esto puede depender del tipo de estudio.

También pueden asignarse por grupos diferentes funcional o geográficamente para evitar la contaminación de unos participantes por la intervención de la rama contraria. Pensemos que queremos valorar una técnica de cribado de cáncer. Quizás sea mejor cribar en unos centros y en otros no. Si en el mismo hacemos las dos cosas, los participantes del grupo control pueden modificar sus hábitos de vida o exigir el beneficio de la técnica de cribado también para ellos.

Finalmente, existen también una serie de técnicas de aleatorización adaptativas, que se van modificando a lo largo del estudio para adaptarse a desequilibrios que van surgiendo en el reparto de variables o en el número de sujetos de cada grupo. Esta técnica puede también utilizarse cuando nos interese minimizar el número de los que reciban la intervención menos eficaz, una vez que vamos conociendo los resultados del estudio.

Y con esto termino con la aleatorización. Antes de terminar solo me queda advertir que no debe confundirse ocultación de la secuencia de aleatorización con enmascaramiento. La ocultación previene el sesgo de selección y asegura (aunque no siempre) una distribución equilibrada de variables confusoras o modificadoras de efecto. El enmascaramiento se realiza una vez ya asignados los participantes a su rama de intervención o de control y sirve para prevenir los sesgos de información. Pero esa es otra historia…

Para ver bien hay que estar ciego

Dicen que no hay peor ciego que el que no quiere ver. Pero también es verdad que querer ver demasiado puede ser contraproducente. En ocasiones, es mejor ver solo lo justo e imprescindible.

Eso es lo que ocurre en los estudios científicos. Imaginad que queremos probar un nuevo tratamiento y planteamos un ensayo en el que a unos les damos el fármaco nuevo y a otros un placebo. Si todos saben qué recibe cada cual, puede ocurrir que las expectativas de los investigadores o de los participantes influyan, aun de forma involuntaria, en la forma en que valoren los resultados del estudio. Por eso hay que recurrir a técnicas de enmascaramiento, más conocidas como técnicas de ciego.

Vamos a suponer que queremos probar un fármaco nuevo contra una enfermedad muy grave. Si un participante sabe que le están dando el fármaco será mucho más permisivo con los efectos secundarios que si sabe que le dan placebo. Pero al investigador le puede ocurrir algo parecido. Cualquiera puede imaginar que pondríamos menos interés en preguntar por los signos de toxicidad del nuevo tratamiento a un individuo que sabemos está recibiendo un inocuo placebo.

Todos estos efectos pueden influir en la forma en que participantes e investigadores valoran los efectos del tratamiento, pudiendo producir un sesgo de interpretación de los resultados.

Las técnicas de enmascaramiento se pueden realizar a distintos niveles. El nivel más bajo es no enmascarar en absoluto, realizando lo que se denomina un ensayo abierto. Aunque lo ideal sea enmascarar, hay veces en que esto no interesa o es imposible. Por ejemplo, pensad que para cegar haya que causar molestias innecesarias, como la administración de placebos por vía parenteral durante periodos prolongados o la realización de procedimientos quirúrgicos. Otras veces es difícil encontrar un placebo que sea indistinguible galénicamente del tratamiento ensayado. Y, por último, otras veces no tendrá mucho sentido enmascarar si el tratamiento tiene efectos fácilmente reconocibles que no se producen con el placebo.

El siguiente nivel es el simple ciego cuando o bien los participantes, o bien los investigadores, desconocen qué tratamiento recibe cada uno. Un paso más allá está el doble ciego, en el que ni investigadores ni participantes saben a qué grupo pertenece cada uno. Y, por último, tenemos el triple ciego, cuando además de los ya mencionados, la persona que analiza los datos o la que tiene la responsabilidad de controlar y suspender el estudio desconoce también a qué grupo se ha asignado cada participante. Imaginad que aparece un efecto adverso grave y tenemos que decidir si suspendemos el estudio. No cabe duda que el conocer si esa persona recibe el fármaco en ensayo o el placebo nos puede condicionar a la hora de tomar esa decisión.

¿Y qué hacemos cuando no se puede o no interesa enmascarar?. Pues en esos casos no nos queda más remedio que hacer un estudio abierto, aunque podemos intentar recurrir a un evaluador ciego. Esto quiere decir que, aunque investigadores y participantes conozcan la asignación al grupo de intervención o de placebo, la persona que analiza las variables desconoce esta asignación. Esto es especialmente importante cuando la variable de resultado es subjetiva. Por otra parte, no resulta tan imprescindible cuando es una variable objetiva, como una determinación de laboratorio. Pensad que una radiografía puede no valorarse con la misma minuciosidad o criterio si sabemos que el individuo es del grupo placebo o del de intervención.

Para terminar, comentar otros dos posibles errores derivados de la falta de enmascaramiento. Si un participante sabe que recibe el fármaco en estudio puede experimentar una mejoría simplemente por efecto placebo. Por otra parte, el que sabe que le ha tocado el placebo puede modificar su comportamiento cuando sabe que “no está protegido” por el nuevo tratamiento. Esto se llama contaminación y es un verdadero problema en los estudios sobre hábitos de vida.

Y con esto acabamos. Solo aclarar un concepto antes de finalizar. Hemos visto que puede haber cierta relación entre la falta de enmascaramiento y la aparición de un efecto placebo. Pero no os confundáis, el enmascaramiento no sirve para controlar el efecto placebo. Para eso hay que recurrir a otra argucia: la aleatorización. Pero esa es otra historia…