Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Guardado porAbril 2013
image_pdf

Preparados… listos…

¡No!. No tan rápido. Antes de salir corriendo hay que estar seguros de que todo está bien preparado. Es difícil concebir que alguien se ponga a correr una maratón sin prepararse previamente, sin el acondicionamiento físico y nutricional suficiente. Bueno, en realidad lo que es difícil concebir es tener que estar corriendo sin parar 42 kilómetros, así que pongamos otro ejemplo más creíble.

Imaginemos que es la hora de acostarnos y estamos tan reventados como si hubiésemos corrido una maratón. Esta situación ya es más creíble para la mayoría. Cualquiera en su sano juicio sabe que es conveniente beber agua y pasar por el cuarto de baño antes de irse a la cama. El pago por no realizar estos preparativos será tener que levantarse en mitad de la noche, dando tumbos y tiritando de frío, para satisfacer necesidades que podíamos haber previsto y evitado (salvo imperativos prostáticos, claro está).

Ahora imaginad que queremos realizar un ensayo clínico. Planificamos el estudio, elegimos nuestra población, obtenemos la muestra, la aleatorizamos de forma impecable, le damos, a los del grupo de intervención, nuestro nuevo y flamante fármaco para combatir la fildulastrosis revirante crónica cuyas bondades queremos estudiar y ¡zas!, resulta que la mayor parte no lo tolera y se retira del ensayo antes de tiempo. Habremos tirado el dinero y malgastado el tiempo, y resulta difícil decidir cuál de los dos recursos resulta más preciado en los tiempos que corren.

¿Podríamos haber evitado esto?. La mala tolerancia al fármaco es un hecho que no podemos evitar pero, dado que sí que hay gente que lo tolera, podríamos haber recurrido a una pequeña argucia: darle el fármaco a todos antes de aleatorizar, sacar del estudio a los intolerantes y aleatorizar entonces solo a los que pueden aguantar el fármaco hasta el final del estudio. Esto es lo que se llama utilizar un periodo de preinclusión, aunque también se conoce como periodo de puesta a punto o periodo de cribado de cumplimiento. A los que fueron a colegio de pago y hablen inglés les sonará el término run-in phase (algunos le llaman open-label phase, pero yo creo que este término no es siempre equivalente a periodo de inclusión).

En general, durante el periodo de preinclusión los participantes del estudio son observados antes de ser asignados al grupo de estudio que les corresponda para comprobar que cumplen los criterios de selección para una determinada intervención, o que cumplen las pautas de tratamiento asignadas, toleran la intervención, etc. Al asegurarnos de que cumplen los requisitos previos a su inclusión en el estudio propiamente dicho nos aseguramos una observación basal más válida y consistente antes de la asignación aleatoria al grupo de estudio que le toque a cada uno.

En otras ocasiones podemos ver que la intervención es utilizada durante el periodo de preinclusión, utilizando su respuesta como parte de los criterios de inclusión, ya que se podrá seleccionar o excluir a los sujetos en base a su respuesta al tratamiento.

Veis cómo un periodo de preinclusión nos puede librar de los malos cumplidores, de los participantes más delicados de salud que nos pueden dar sustos durante el ensayo y de los que no toleran el fármaco en cuestión, con lo que nos podemos centrar mejor en determinar la eficacia del tratamiento, ya que la mayor parte de las pérdidas que tengamos durante el seguimiento serán por causas no relacionadas con la intervención.

De todas formas, debemos tomar una serie de precauciones. Debemos ser cuidadosos en la elección de la muestra inicial, cuyo tamaño puede ser mayor que el necesario sin preinclusión. Es muy importante la situación basal de los participantes con vistas a realizar estratificación o a realizar un análisis estadístico más eficiente. Además, la aleatorización debe realizarse lo más tarde posible y lo más cercana posible a la intervención, aunque no es raro ver estudios en los que se aleatorizan los participantes antes del periodo de preinclusión. Por último, para interpretar los resultados de un estudio con periodo de preinclusión hay que tener en cuenta las diferencias entre las características iniciales de los participantes que han sido excluidos durante el periodo y los que finalmente son asignados a los grupos de estudio.

Pero no todo en el monte es orégano. Aunque excluir los incumplidores o los que tienen más efectos adversos nos permite aumentar la potencia del estudio y estimar mejor el efecto de la intervención, la aplicabilidad o generalización de los resultados se verá comprometida al provenir los resultados de una muestra más restrictiva de participantes. Dicho de forma elegante, hemos de pagar el aumento de la validez interna con una merma de la validez externa del estudio.

Para terminar, decir alguna cosa sobre algo parecido al periodo de preinclusión. Imaginad que queremos probar un inhibidor de bomba de protones nuevo en pacientes con úlcera. Como todos tienen tratamiento, éste nos puede artefactar el efecto de la intervención. El truco aquí consiste en decirles a todos que suspendan la medicación un tiempo antes de la aleatorización y asignación a las ramas del estudio. Pero no confundáis esto con el periodo de preinclusión. Esto es lo que se conoce como periodo de lavado (wash-out phase para los anglófilos). Pero esa es otra historia…

Una relación sin compromiso

Sabemos ya de la relación entre variables. ¿Quién duda que fumar mata, o que la tele seca el cerebro?. La cuestión radica en que estas relaciones hay que intentar cuantificarlas de una forma objetiva ya que, en caso contrario, siempre habrá alguien que pueda ponerlas en duda. Para ello, habrá que utilizar algún parámetro que estudie si nuestras dos variables varían de forma relacionada.

Cuando las dos variables son dicotómicas la solución es sencilla: podemos usar la odds ratio. En el caso de la tele y el daño cerebral podríamos utilizarla para calcular si realmente es más probable que tengan los sesos secos los que ven la tele que los que no (aunque yo no perdería el tiempo). Pero, ¿qué ocurre si las dos variables son continuas?. Aquí no nos vale la odds ratio, sino que hay que emplear otras herramientas. Veámoslo con un ejemplo.

R_generalSupongamos que tomo la presión arterial a una muestra de 300 personas y represento los valores de presión sistólica y diastólica, tal y como os muestro en el primer gráfico. Viendo el gráfico a simple vista uno ya se da cuenta de que aquí hay tomate. Si os fijáis, los valores altos de presión sistólica se suelen asociar con valores altos de diastólica y, al contrario, los valores bajos de sistólica se asocian con valores bajos de diastólica. Yo diría que varían de forma similar: a mayores valores de una, mayores de la otra, y viceversa. Para verlo mejor, fijaos en los dos gráficos siguientes.R_estandar_simple

En el primero se muestran los valores de presión estandarizados (cada valor menos la media). Ya vemos que la mayor parte de los puntos están en los cuadrantes inferior izquierdo y superior derecho. Estos todavía se ve mejor en el segundo gráfico, en el que me he comido los valores de sistólica entre ±10 mmHg y de diastólica entre ±5 mmHg alrededor del cero, que serían las medias estandarizadas. Vamos a ver si podemos cuantificar esto de alguna manera.

Recordáis que la varianza medía cuánto variaban los valores de una distribución respecto de la media. A cada valor se le restaba la media, se elevaba al cuadrado para que fuese siempre positivo (y no se anulasen las diferencias positivas con las negativas), se sumaban todas estas diferencias y se dividía por el tamaño de la muestra (en realidad, por el tamaño de la muestra menos uno, y no preguntéis porqué, solo los matemáticos lo saben). Ya sabéis que la raíz cuadrada de la varianza es la desviación típica o desviación estándar, la reina de las medidas de dispersión.

Pues bien, con una pareja de variables podemos hacer una cosa similar. Calculamos, para cada pareja, las diferencias con sus medias y multiplicamos estas diferencias (es el equivalente a la elevación al cuadrado de la diferencia que hacíamos con la varianza). Por último, sumamos todos estos productos y los dividimos entre el tamaño de la muestra menos uno, obteniendo así está versión de la varianza de las parejas que se llama, como no podía ser de otra forma, covarianza.

varianza = \frac{1}{n-1}\sum_{i=1}^{n}{(x_{i}-\overline{x})}^{2}      covarianza = \frac{1}{n-1}\sum_{i=1}^{n}(x_{i}-\overline{\mu }_{x})(x_{i}-\overline{\mu }_{y})

¿Y qué nos dice el valor de la covarianza?. Pues, poca cosa, ya que dependerá de las magnitudes de las variables, que pueden ser diferentes según de qué estemos hablando. Para esquivar este problemilla recurrimos a una solución muy socorrida en este tipo de situaciones: estandarizar.

De esta forma, dividimos las diferencias respecto a la media por sus desviaciones estándar, obteniendo así el mundialmente famoso coeficiente de correlación lineal de Pearson.

coeficiente\ de\ correlación\ de\ Pearson = \frac{1}{n-1}\sum_{i=1}^{n}(\frac{{}x_{i}-\overline{\mu }_{x}}{\sigma _{x}})(\frac{{}y_{i}-\overline{\mu }_{y}}{\sigma _{y}})

Bueno es que sepáis que, en realidad, Pearson solo hizo el desarrollo inicial y que el verdadero padre del coeficiente de marras fue Francis Galton. El pobre estuvo toda su vida intentando hacer algo importante porque tenía celos de su primo, mucho más famoso, un tal Charles Darwin, que me parece que escribió algo sobre unas especies que se comen unas a otras y que decía que el secreto está en procrear lo más posible para sobrevivir.

R_ejemplos_independEl coeficiente de correlación de Pearson, r para los amigos, puede tener cualquier valor entre -1 y 1. Cuando vale cero quiere decir que las variables no están correlacionadas, pero no confundáis esto con que sean o no independientes; como dice el título de esta entrada, la relación del coeficiente de Pearson no compromete a las variables a nada serio. No tienen nada que ver correlación e independencia, son conceptos diferentes. Si nos fijamos en las dos gráficas de ejemplo podremos ver que r es igual a cero en las dos. Sin embargo, aunque en la primera las variables sean independientes, esto no es cierto en la segunda, la que representa la función y = |x|.

Si r es mayor que cero quiere decir que la correlación es positiva, de forma que las dos variables varían en el mismo sentido: cuando una aumenta, también lo hace la otra y, al revés, cuando una disminuye también disminuye la segunda. Se dice que esta correlación positiva es perfecta cuando r vale 1. Por otra parte, cuando r es negativo quiere decir que las variables varían en sentido opuesto: cuando una aumenta la otra disminuye, y viceversa. Una vez más, la correlación es perfecta cuando r vale -1.

Es fundamental entender que correlación tampoco implica obligatoriamente causalidad. Ya dijo Stephen J. Gould, en su libro “La falsa medida del hombre”, que asumir este hecho es uno de los dos o tres errores más graves y frecuentes del razonamiento humano. Y debe ser verdad porque, por más que he buscado, no he encontrado ningún primo suyo que le hiciese sombra, lo que me induce a pensar que lo dijo porque estaba convencido de ello. Así que ya lo sabéis, aunque cuando hay causalidad suele haber correlación, al revés no siempre ocurre lo mismo.

R_histohramasOtro error que podemos cometer es utilizar este coeficiente sin hacer una serie de comprobaciones previas. La primera es que la correlación entre las dos variables debe ser lineal. Esto es fácil de comprobar representando gráficamente los puntos y viendo que no se parece a una parábola, hipérbole o cualquier otra forma curva. La segunda es que, al menos, una de las variables debe seguir una distribución de frecuencias normal. Para esto podemos utilizar pruebas estadísticas como la de Kolmogorov-Smirnov o de Shapiro-Wilks, pero muchas veces basta con representar los histogramas con las curvas de frecuencias y ver si se ajustan. En nuestro caso, la diastólica puede que se ajuste a una normal, pero por la sistólica no pondría la mano en el fuego. Otra pista nos la da la nube de puntos del gráfico inicial: la forma elíptica o en balón de rugby nos indica que, probablemente, las variables siguen una distribución normal. Por último, la tercera comprobación es asegurar que las muestras son aleatorias. Además, solo podemos usar r dentro del rango de datos obtenidos. Si extrapolamos fuera de este rango podemos cometer errores.

Una última advertencia: no confundáis correlación con regresión. La correlación investiga la fuerza de la relación lineal entre dos variables continuas y no es útil para estimar el valor de una variable basándose en el valor de la otra. Por otra parte, la regresión (lineal, en este caso) investiga la naturaleza de la relación lineal entre dos variables continuas. La regresión sí nos sirve para predecir el valor de una variable (la dependiente) basándonos en la otra (la variable independiente). Esta técnica nos proporciona la ecuación de la recta que mejor se adapta a la nube de puntos, con dos coeficientes que nos indican el punto de corte con el eje de ordenadas y la pendiente de la recta.

¿Y qué pasa si las variables no siguen una distribución normal?. Pues que no podemos usar el coeficiente de Pearson. Pero no desesperéis, tenemos el coeficiente de Spearman y toda una batería de pruebas basadas en los rangos de los datos. Pero esa es otra historia…

Ménage à trois

En esta entrada vamos a dar otra vuelta de tuerca al asunto de las variables que pueden enturbiar la armoniosa relación de la pareja formada por exposición y efecto, así que todas aquellas mentes sucias que esperaban otra cosa al leer el título pueden pasar al siguiente resultado de Google, que seguro que aciertan con lo que andaban buscando.

Ya vimos como existen variables de confusión que se relacionan con el efecto y la exposición y cómo pueden alterar nuestras estimaciones de las medidas de asociación si estas variables no se reparten de forma homogénea entre los grupos de estudio. Hablamos de nuestra puerta trasera, de cómo evitarla y de cómo cerrarla, tanto en los estudios de cohortes como en los de casos y controles.

Pero, en ocasiones, el efecto de la exposición sobre el resultado estudiado no es siempre el mismo, pudiendo variar en intensidad según se modifica el valor o nivel de una tercera variable. Al igual que ocurría con la confusión, lo observamos mejor al estratificar los resultados para hacer el análisis, pero en estos casos no se debe a la distribución desigual de la variable, sino a que el efecto de la exposición se ve realmente modificado por la magnitud de esta variable, que recibe el nombre de variable de interacción o variable modificadora de efecto.

Como es lógico, es fundamental diferenciar entre variable de confusión y variable de interacción. El efecto de la variable de confusión depende de su distribución entre los grupos de estudio. En el caso de estudios experimentales, esta distribución puede ser diferente según se haya producido el reparto al hacer la aleatorización, por lo que una variable puede actuar como confusora en un ensayo y no en otro. Sin embargo, en los estudios observacionales siempre ejercen su efecto, ya que se encuentran asociadas tanto al factor como a la exposición. Cuando encontramos una variable confusora nuestro objetivo será controlar su efecto y estimar una medida de asociación ajustada.

Por otra parte, las variables modificadoras de efecto reflejan una característica de la relación entre exposición y efecto, cuya intensidad depende del ménage à trois que forman con esta tercera variable de interacción. Si pensamos un poco, en el caso de que exista una modificación de efecto no nos interesará calcular una medida ajustada de la asociación, como la que obtendríamos con la prueba de Mantel-Haenszel, ya que no sería representativa del efecto global de la exposición sobre el efecto. Tampoco es buena idea hacer una simple media aritmética de las medidas de asociación que observamos en cada estrato. En todo caso lo que tenemos que hacer es describirla y no tratar de controlarla, como hacemos con las variables confusoras.

Antes de poder decir que existe una variable modificadora de efecto debemos descartar que las diferencias observadas se deban al azar, a confusión o a sesgos de nuestro estudio. Observar los intervalos de confianza de las medidas de estimación nos puede ayudar a descartar el azar, que será más improbable si los intervalos no se solapan. Podemos calcular también si las diferencias entre los estratos son estadísticamente significativas, utilizando para ello es test apropiado a cada diseño de estudio.

¿Y podemos estimar una medida global de la influencia de la exposición sobre el efecto que tenga en cuenta la existencia de una variable de interacción?. Pues claro que podemos, ¿alguien lo dudaba?.

Quizás la forma más sencilla es calcular una medida estandarizada. Para ello comparamos dos medidas diferentes, una que asume que cada elemento de cada estrato de la población tiene el riesgo de los expuestos y otra que asume lo mismo pero de los no expuestos. Se estima así una medida de la asociación en la población global estándar que hemos definido. ¿Confuso?. Veamos un ejemplo.Vamos a seguir aburriendo hasta la extenuación con los pobres fumadores y su enfermedad coronaria. En la primera tabla están los resultados de un estudio que me acabo de inventar sobre tabaco e infarto de miocardio.

variable_interferenciaVemos que, de forma global, los fumadores tienen un riesgo siete veces superior de sufrir infarto que los no fumadores (riesgo relativo, RR = 7). Vamos a suponer que fumadores y no fumadores tienen una distribución de edad semejante, pero que al desglosar los datos en dos grupos de edad los riesgos son diferentes. El RR en menores de 50 años es de 2, frente al de los mayores, cuyo riesgo de infarto es tres veces mayor para los fumadores que para los no fumadores.

RR_estandarizadoVamos a calcular las dos medidas de asociación, una suponiendo que todos fuman y la otra suponiendo que no fuma ninguno. En menores de 50 años, el riesgo de infarto si todos fuman es de 5/197 = 0,02. Si tenemos 454 menores de 50 años, el número de casos de infarto esperables sería de 454×0,02 = 9,1. El riesgo en no fumadores sería de 3/257 = 0,01, luego esperaríamos encontrar 0,01×454 = 4,5 infartos en no fumadores.

Hacemos los mismos cálculos con los mayores de 50 años y sumamos el total de personas (770), el total de infartos en fumadores (47,1) y en no fumadores (10,8). El riesgo estandarizado en los fumadores de esta población es de 47,1/770 = 0,06. El riesgo estandarizado en no fumadores, 10,8/770 = 0,01. Por último, calculamos el RR estandarizado: 0,06/0,01 = 6. Esto significa que, de forma global, fumar multiplica por seis el riesgo de infarto, pero no olvidemos que este resultado es válido solo para esta población estándar y que no lo sería probablemente para otra población diferente.

Solo una cosa más antes de acabar. Como ocurre con el análisis de las variables de confusión, el análisis de la modificación de efecto puede hacerse también mediante regresión, introduciendo en la ecuación obtenida unos coeficientes de interacción que corrigen el efecto. Además, estos coeficientes nos resultan muy útiles porque su significación estadística nos sirve para distinguir entre confusión e interacción. Pero esa es otra historia…

Una cuestión de parejas

Vimos en la entrada anterior cómo los estudios observacionales, más concretamente los estudios de cohortes y los de casos y controles, están llenos de trampas y vericuetos. Una de estas trampas es la puerta de atrás por la que se nos escapan los datos, de forma que obtenemos medidas de estimación de asociación erróneas. Esta puerta trasera son los llamados factores de confusión.

Ya sabemos que hay varias formas de controlar la confusión. Una de ellas, el emparejamiento, tiene sus peculiaridades según la empleemos con estudios de cohortes o con estudios de casos y controles.

Cuando se trata de estudios de cohortes, el emparejar por el factor de confusión nos permite obtener una medida de asociación ajustada. Esto es así porque controlamos la influencia de la variable confusora sobre la exposición y sobre el efecto. Sin embargo, lo anterior no se cumple cuando utilizamos la técnica de emparejamiento en un estudio de casos y controles. El diseño de este tipo de estudios nos impone la obligación de realizar el emparejamiento una vez que se ha producido el efecto. De esta forma, los pacientes que actúan como controles no constituyen un conjunto de individuos independientes elegidos al azar, ya que cada control fue seleccionado cumpliendo una serie de criterios determinados según el caso con el que se emparejó. Esto, lógicamente, evita que podamos seleccionar otros individuos de la población que no cumplen los criterios especificados pero que serían potencialmente incluibles en el estudio. Si nos olvidamos de este pequeño detalle y aplicamos la misma metodología de análisis que usaríamos en un estudio de cohortes incurriríamos en un sesgo de selección que invalidaría nuestros resultados. Además, aunque conseguimos forzar una distribución similar del factor de confusión, solo controlamos totalmente su influencia sobre el efecto, pero no sobre la exposición.

Así que la mentalidad del análisis varía un poco cuando valoramos los resultados de un estudio de casos y controles en los que hemos utilizado la técnica de emparejamiento para controlar factores de confusión. Mientras que en un estudio sin emparejamiento analizamos la asociación entre exposición y efecto en el grupo global, cuando hemos emparejado debemos estudiar el efecto en las parejas de caso-control.

cada oveja_casos controlesVamos a verlo continuando con el ejemplo del efecto del tabaco sobre la aparición de carcinoma laríngeo de la entrada anterior.

En la tabla superior vemos los datos globales del estudio. Si analizamos los datos sin tener en cuenta que hemos utilizado el emparejamiento para seleccionar los controles obtenemos una odds ratio de 2,18, como vimos en la entrada anterior. Sin embargo, sabemos que esta estimación es errónea. ¿Qué hacemos?. Considerar el efecto de las parejas, pero solo de las mal avenidas.

Vemos en la tabla inferior la distribución de las parejas en función de su exposición al tabaco. Tenemos 208 parejas en las que tanto el caso (persona con cáncer laríngeo) como el control son fumadores. Al estar los dos sometidos a la exposición no nos servirán para estimar su asociación con el efecto. Lo mismo puede decirse de las 46 parejas en las que ni el caso ni el control fuman. Las parejas que nos interesan son las 14 en las que el control fuma pero el caso no lo hace y las 62 en las que solo fuma el caso, pero no el control.

Estas parejas discordantes son las únicas que nos dan información sobre el efecto del tabaco sobre la aparición del cáncer de laringe. Si calculamos la odds ratio vemos que es de 62/14 = 4,4, una medida de asociación más fuerte que la que obtuvimos previamente y, sin duda, mucho más próxima a la realidad.

Por último, solo me resta hacer tres consideraciones antes de terminar. La primera es, aunque no creo que haga falta, recordaros que los datos son producto de mi imaginación y que el ejemplo es totalmente ficticio aunque no parezca tan estúpido como otros que inventé en otras entradas. La segunda, que estos cálculos suelen hacerse con programas informáticos, utilizando la prueba de Mantel-Haenszel o la prueba de McNemar. La tercera, comentar que en todos estos ejemplos hemos utilizado un emparejamiento con una relación 1:1 (un control por cada caso), pero esto no tiene por qué ser obligatoriamente así ya que, en algunas ocasiones, puede interesar utilizar más de un control por cada caso. Esto conlleva sus diferencias sobre la influencia del factor de confusión sobre la medida de asociación estimada y sus consideraciones a la hora de realizar el análisis. Pero esa es otra historia…

Cada oveja, con su pareja

En ocasiones, no podemos evitar que en nuestros estudios se nos metan factores de confusión, conocidos o desconocidos. Estas variables confusoras abren una puerta trasera por la que se cuelan nuestros datos, haciendo que las medidas de asociación entre exposición y efecto que estimamos mediante el estudio no se correspondan con la realidad.

En la fase de análisis suelen utilizarse técnicas como la estratificación, o modelos de regresión para medir la asociación ajustando por la variable confusora. Pero también podemos intentar prevenir la confusión en la fase de diseño. Una forma es restringiendo los criterios de inclusión según la variable de confusión. Otra estrategia consiste en seleccionar los controles para que tengan la misma distribución de la variable confusora que el grupo de intervención. Esto es lo que se conoce como emparejamiento.

cada oveja_poblacion generalSupongamos que queremos determinar el efecto del tabaco sobre la frecuencia de aparición de cáncer laríngeo, en una población con la distribución que veis en la primera tabla. Podemos ver que el 80% de los fumadores son hombres, mientras que solo el 20% de los no fumadores lo son. Nos inventamos que el riesgo de cáncer en hombres es del 2%, pero que sube hasta el 6% para los fumadores. Por su parte, el riesgo en mujeres es del 1%, llegando hasta un 3% si fuman. Así que, aunque todos doblan el riesgo si se apuntan al más antisocial de los vicios, los hombres siempre tienen el doble de riesgo que las mujeres (a igualdad de exposición al tabaco entre los dos sexos, porque los que fuman tienen seis veces más riesgo que las no fumadoras). En resumen, el sexo actúa como factor de confusión: influye sobre la probabilidad de sufrir la exposición y sobre la probabilidad de padecer el efecto, pero no forma parte de la secuencia causal entre tabaco y cáncer de laringe. Esto tendríamos que tenerlo en cuenta a la hora del análisis y calcular el riesgo relativo ajustado mediante la técnica de Mantel-Haenszel o utilizando un  modelo de regresión logística.

Pero otra posibilidad, si conocemos el factor de confusión, es intentar prevenir su efecto durante la fase de planificación del estudio. Supongamos que partimos de una cohorte de 500 fumadores, el 80% hombres y el 20% mujeres. En lugar de tomar 500 controles no fumadores al azar (solo el 20% serían hombres), incluímos en la cohorte no expuesta un no fumador por cada fumador de la cohorte expuesta y una no fumadora por cada fumadora de la cohorte expuesta. Tendremos dos cohortes con una distribución similar de la variable de confusión y, lógicamente, también similares en la distribución del resto de las variables conocidas (en caso contrario no podríamos compararlas).

¿Hemos solucionado el problema de la confusión?. Vamos a comprobarlo.

puerta_trasera_edadesVemos la tabla de contingencia de nuestro estudio con 1000 personas, puerta_trasera_edadesel 80% hombres y el 20% mujeres en los dos grupos, expuestos y no expuestos. Como sabemos el riesgo de desarrollar cáncer en función del sexo y el estado de fumador, podemos calcular el número de personas que esperamos que desarrollen cáncer a lo largo del estudio: 24 fumadores (el 6% de 400), ocho no fumadores (2% de 400), tres fumadoras (3% de 100) y una mujer no fumadora (1% de 100).

Con estos datos podemos construir las tablas de contingencia, global y estratificadas por sexos, que esperamos encontrar al finalizar el seguimiento. Si calculamos la medida de asociación (en este caso, el riesgo relativo) en hombres y mujeres por separado vemos que coincide (RR = 3). Además, es el mismo riesgo que el de la cohorte global, así que parece que hemos conseguido cerrar la puerta trasera. Ya sabemos que, en un estudio de cohortes, el emparejamiento por el factor de confusión nos permite contrarrestar su efecto.

Ahora supongamos que en lugar de un estudio de cohortes queremos realizar un estudio de casos y controles. ¿Podemos usar el emparejamiento?. Pues claro que podemos, ¿quién nos lo va a impedir?. Pero hay un pequeño problema.

Si pensamos un poco, nos daremos cuenta de que el emparejamiento con las cohortes influye tanto sobre la exposición como sobre el efecto. Sin embargo, en los estudios de casos y controles, el forzar una distribución similar del factor de confusión afecta solo a su influencia sobre el efecto y no a la que tiene sobre la exposición. Esto es así porque al homogeneizar según el factor de confusión se hace también según otros factores relacionados con él, entre otros, la propia exposición. Por este motivo, el emparejamiento no nos garantiza el cierre de la puerta trasera en los estudios de casos y controles.

¿Alguien no se lo cree?. Vamopuerta_trasera_edadess a suponer que, al finalizar el estudio de cohortes, seleccionamos 330 personas con cáncer laríngeo (80% hombres y 20% mujeres). Para hacer el estudio de casos y controles seleccionamos como controles un grupo de personas de la misma población que no tenga cáncer laríngeo (es lo que se denomina un estudio de casos y controles anidado en un estudio de cohortes).

El número de expuestos y no expuestos lo conocemos de los datos que dimos al principio de la población general, conociendo el riesgo de cáncer que se presenta según el género y la exposición al tabaco. Por otra parte, podemos también construir la tabla de los controles, ya que sabemos el porcentaje de exposición al tabaco según el sexo.

Por último, con los datos de estas tres tablas podremos construir las tablas de contingencia para el estudio global y las correspondientes a hombres y mujeres.

En este caso, la medida de asociación idónea es la odds ratio, que tiene un valor de tres para hombres y mujeres, pero que es de 2,18 para la población global del estudio. Vemos, pues, que no coinciden,puerta_trasera_edades lo que nos está diciendo que no nos hemos librado completamente del efecto de la variable de confusión aunque hayamos utilizado la técnica de emparejamiento para seleccionar el grupo control.

Entonces, ¿no puede utilizarse el emparejamiento en los estudios de casos y controles?. Pues sí, sí que se puede, aunque el análisis de los resultados para estimar la medida de asociación ajustada es un poco diferente. Pero esa es otra historia…