Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Entradas etiquetadasEstudios observacionales
image_pdf

Y tú ¿de quién eres?

Como ya sabemos por entradas previas, la sistemática de la medicina basada en la evidencia comienza con una laguna de conocimiento que nos mueve a realizar una pregunta clínica estructurada. Una vez que tenemos elaborada la pregunta, utilizaremos sus componentes para hacer una búsqueda bibliográfica y obtener las mejores pruebas disponibles para solucionar nuestra duda.

Y aquí viene, quizás, la parte más temida de la medicina basada en la evidencia: la lectura crítica de los trabajos encontrados. En realidad, la cosa no es para tanto ya que, con un poco de práctica, la lectura crítica consiste únicamente en aplicar de forma sistemática una serie de preguntas sobre el trabajo que estamos analizando. El problema viene a veces en saber qué preguntas tenemos que hacer, ya que esta sistemática tiene diferencias según el diseño del estudio que estemos valorando.

Decir que por diseño entendemos el conjunto de procedimientos, métodos y técnicas utilizados con los participantes del estudio, durante la recopilación de los datos y durante el análisis e interpretación de los resultados para obtener las conclusiones del estudio. Y es que hay una miríada de diseños de estudios posibles, sobre todo en los últimos tiempos en que a los epidemiólogos les ha dado por hacer diseños mixtos de estudios observacionales. Además, la terminología puede a veces ser confusa y utilizar términos que no nos aclaran bien cuál es el diseño que tenemos delante. Es como cuando llegamos a una boda de alguien de una familia numerosa y nos encontramos con un primo que no sabemos de dónde sale. Aunque busquemos los parecidos físicos, lo más seguro serán acabar preguntándole: y tú, ¿de quién eres? Solo así sabremos si es de la parte del novio o de la novia.

Lo que vamos a hacer en esta entrada es algo parecido. Vamos a tratar de establecer una serie de criterios de clasificación de estudios para, finalmente, establecer una serie de preguntas cuyas respuestas nos permitan identificar a qué familia pertenece.

Para empezar, el tipo de pregunta clínica a la que trata de responder el trabajo puede darnos alguna orientación. Si la pregunta es de tipo diagnóstico, lo más probable es que nos encontremos ante lo que se denomina estudio de pruebas diagnósticas, que suele ser un diseño en el que a una serie de participantes se les somete, de forma sistemática e independiente, a la prueba en estudio y al patrón de referencia (el gold standard, para aquellos que sepan inglés). Es un tipo de diseño especialmente pensado para este tipo de preguntas pero no os confiéis: a veces podremos ver preguntas de diagnóstico que tratan de responderse con otros tipos de estudios.

Si la pregunta es de tratamiento, lo más probable es que nos encontremos ante un ensayo clínico o, a veces, ante una revisión sistemática de ensayos clínicos. Sin embargo, no siempre existen ensayos sobre todo lo que busquemos y puede ocurrir que tengamos que conformarnos con un estudio observacional, como los de casos y controles o los de cohortes.

En caso de preguntas de pronóstico y de etiología/daño podremos encontrarnos ante un ensayo clínico, pero lo más habitual es que no sea posible realizar ensayos y solo existan estudios observacionales.

Una vez analizado este aspecto es posible que nos queden dudas sobre el tipo de diseño al que nos enfrentamos. Será entonces la hora de recurrir a nuestras preguntas acerca de seis criterios relacionados con el diseño metodológico: objetivo general de la pregunta clínica, direccionalidad del estudio, tipo de muestreo de los participantes, temporalidad de los sucesos, asignación de los factores de estudio y unidades de estudio utilizadas. Veamos con detalle qué significa cada uno de estos seis criterios, que veis resumidos en la tabla que os adjunto.

Según el objetivo, los estudios pueden ser descriptivos o analíticos. Un estudio descriptivo es aquel que, como su nombre indica, solo tiene la finalidad descriptiva de relatar cómo están las cosas, pero sin intención de establecer relaciones causales entre el factor de riesgo o exposición y el efecto estudiado (una determinada enfermedad o suceso de salud, en la mayor parte de los casos). Estos estudios responden a preguntas no muy complejas como ¿a cuántos? ¿dónde? o ¿a quién?, por lo que suelen ser sencillos y sirven para elaborar hipótesis que posteriormente necesitarán de estudios más complejos para su demostración.

Por el contrario, los estudios analíticos sí que tratan de establecer este tipo de relaciones, respondiendo a preguntas más del tipo ¿por qué? ¿cómo tratar? o ¿cómo prevenir? Como es lógico, para poder establecer este tipo de relaciones necesitarán tener un grupo con el que comparar (el grupo control). Esta será una pista útil para distinguir entre analíticos y descriptivos si nos queda alguna duda: la presencia de grupo de comparación será propia de los estudios analíticos.

La direccionalidad del estudio se refiere al orden en que se investigan la exposición y el efecto de esa exposición. El estudio tendrá una direccionalidad anterógrada cuando la exposición se estudia antes que el efecto y una direccionalidad retrógrada cuando se haga al contrario. Por ejemplo, si queremos investigar el efecto del tabaco sobre la mortalidad coronaria, podemos tomar una conjunto de fumadores y ver cuántos se mueren del corazón (anterógrada) o, al revés, tomar un conjunto de fallecidos por enfermedad coronaria y mirar a ver cuántos fumaban (retrógrada). Como es lógico, solo los estudios con direccionalidad anterógrada pueden asegurar que la exposición precede en el tiempo al efecto (¡ojo! no estoy diciendo que una sea causa del otro). Por último, decir que a veces podremos encontrarnos con estudios en los que exposición y efecto se estudian a la vez, hablando entonces de direccionalidad simultánea.

El tipo de muestreo tiene que ver con la forma de seleccionar los participantes del estudio. Estos pueden ser elegidos por estar sometidos al factor de exposición que nos interese, por haber presentado el efecto o por una combinación de los dos o, incluso, otros criterios ajenos a exposición y efecto.

Nuestro cuarto criterio es la temporalidad, que hace referencia a la relación en el tiempo entre el investigador y el factor de exposición o el efecto que se estudie. Un estudio tendrá una temporalidad histórica cuando efecto y exposición ya hayan ocurrido cuando se inicia el estudio. Por otra parte, cuando estos hechos tienen lugar durante la realización del estudio, este tendrá una temporalidad concurrente. A veces la exposición puede ser histórica y el efecto concurrente, hablándose entonces de temporalidad mixta.

Aquí me gustaría hacer un inciso sobre dos términos empleados por muchos autores y que os resultarán más familiares: prospectivos y retrospectivos. Serían estudios prospectivos aquellos en los que exposición y efecto no se han producido al inicio del estudio, mientras que serían retrospectivos aquellos en los que los hechos ya se han producido en el momento de realizar el estudio. Para rizar el rizo, cuando se combinan ambas situaciones hablaríamos de estudios ambispectivos. El problema con estos términos es que a veces se emplean de forma indistinta para expresar direccionalidad o temporalidad, que son cosas diferentes. Además, suelen asociarse con diseños determinados: los prospectivos con los estudios de cohortes y los retrospectivos con los de casos y controles. Quizás sea mejor emplear los criterios específicos de direccionalidad y temporalidad, que expresan los aspectos del diseño de forma más precisa.

Otros dos términos relacionados con la temporalidad son los de estudios transversales y longitudinales. Los transversales son aquellos que nos proporcionan una instantánea de cómo están las cosas en un momento dado, por lo que no permiten establecer relaciones temporales ni de causalidad. Suelen ser estudios de prevalencia y siempre de naturaleza descriptiva.

Por otra parte, en los longitudinales las variables se miden a lo largo de un periodo de tiempo, por lo que sí permiten establecer relaciones temporales, aunque sin control de cómo se asigna la exposición a los participantes. Estos pueden tener una direccionalidad anterógrada (como en los estudios de cohortes) o retrógrada (como en los estudios de casos y controles).

El penúltimo de los seis criterios que vamos a tener en cuenta es la asignación de los factores de estudio. En este sentido, un estudio será observacional cuando los investigadores sean meros observadores que no actúan sobre la asignación de los factores de exposición. En estos casos, la relación entre exposición y efecto puede verse afectada por otros factores, denominados de confusión, por lo que no permiten extraer conclusiones de causalidad. Por otra parte, cuando el investigador asigna de una forma controlada el efecto según un protocolo previo establecido, hablaremos de estudios experimentales o de intervención. Estos estudios experimentales con aleatorización son los únicos que permiten establecer relaciones de causa-efecto y son, por definición, estudios analíticos.

El último de los criterios se refiere a las unidades de estudio. Los estudios pueden estar realizados sobre participantes individuales o sobre grupos de población. Estos últimos son los estudios ecológicos y los ensayos comunitarios, que tienen unas características de diseño específicas.En la figura adjunta podéis ver un esquema de cómo clasificar los diferentes diseños epidemiológicos según estos criterios. Cuando tengáis duda de qué diseño se corresponde con el trabajo que estéis valorando, seguid este esquema. Lo primero será decidir si el estudio es de carácter observacional o experimental. Esto suele ser sencillo, así que pasamos al siguiente punto. Un observacional descriptivo (sin grupo de comparación) se corresponderá con una serie de casos o con un estudio transversal.

Si el estudio observacional es analítico pasaremos a ver el tipo de muestreo, que podrá ser por la enfermedad o efecto de estudio (estudio de casos y controles) o por la exposición al factor de riesgo o protección (estudio de cohortes).

Por último, si el estudio es experimental buscaremos si la exposición o intervención ha sido asignada de forma aleatoria y con grupo de comparación. En caso afirmativo nos encontraremos ante un ensayo clínico aleatorizado y controlado. En caso negativo, probablemente se trate de un ensayo no controlado u otro tipo de diseño cuasiexperimental.

Y aquí lo vamos a dejar por hoy. Hemos visto cómo identificar los tipos de diseños metodológicos más habituales. Pero hay muchos más. Algunos con una finalidad muy específica y un diseño propio, como los estudios económicos. Y otros que combinan características de diseños básicos, como los estudio de caso-cohorte o los estudios anidados. Pero esa es otra historia…

Aunque la mona se vista de seda…

…mona se queda. Y se queda. Por mucho que lo intente, seguirá siendo una mona. Y esto es así porque las características de cada uno o sus defectos naturales no pueden evitarse simplemente porque hagamos mejoras externas. Pero, eso sí, será una mona mucho más elegante.

En el mundo de los estudios en epidemiología y biomedicina hay un tipo de diseño que no necesita vestirse de seda. Por supuesto, me estoy refiriendo al rey de reyes, al ensayo clínico aleatorizado, el ECA, para abreviar.

El vestido de seda de los ECA es la aleatorización, que no es más que la asignación no predecible de los participantes en el ensayo a una de las alternativas de intervención, dando baza al azar de forma que no podamos saber a qué grupo va a ser asignado cada participante. Así, se consigue que las características de los participantes que puedan actuar como factores de confusión o modificadores de efecto se repartan por igual entre los dos grupos de la intervención, de forma que si hay diferencias podamos afirmar que se deben a la intervención en estudio, la única diferencia entre los dos grupos.

Por otro lado, los estudios observacionales carecen de aleatorización, por lo que nunca podemos estar seguros de que las diferencias observadas se deban a variables de confusión que son, incluso, desconocidas para el investigador. Así, con los estudios de cohortes y de casos y controles no se pueden afirmar relaciones de causalidad de la forma que pueden establecerse con los resultados del ECA.

Para evitar esto se han inventado múltiples estrategias, como la estratificación o el análisis mediante regresión logística, que permiten estimar el efecto de cada variable sobre el resultado de la intervención en cada grupo. Uno de estos métodos es el que vamos a tratar aquí y es el de los índices de propensión, los propensity score de nuestros amigos angloparlantes.

Vamos a ver si con un ejemplo podemos entenderlo. Supongamos que queremos comparar la duración del ingreso de niños con fildulastrosis según el tratamiento que reciban. Seguimos suponiendo que esta terrible enfermedad se puede tratar con pastillas o con supositorios, eligiendo cualquiera de los dos a criterio del médico que atiende al enfermo en el momento del ingreso. Hacemos un estudio retrospectivo de las dos cohortes y encontramos que los que reciben supositorio están ingresados cinco días más de media que los que reciben tratamiento oral. ¿Podemos concluir que la resolución es más rápida dando pastillas que supositorios?. Pues si así lo hacemos correremos el riesgo de equivocarnos, porque puede haber otros factores que no estamos teniendo en cuenta, además del tratamiento recibido.

Si se tratase de un ensayo, cualquier participante tendría la misma probabilidad de recibir cualquiera de los dos tratamientos, así que podríamos hacer una interpretación directa del resultado. Sin embargo, estamos ante un estudio de cohortes, observacional, y el riesgo de recibir pastillas o supositorios puede haber dependido de otros factores. Pensad, por ejemplo, que un médico puede mandar los supositorios a los niños más pequeños, que tragan peor las pastillas, mientras que otro no tendría en cuenta este factor y le daría pastillas a todos, porque le gustan más. Si la edad tiene algo que ver con la duración del ingreso, estaremos mezclando el efecto del tratamiento con el de la edad del niño, comparando los supositorios de uno (niños más pequeños) con las pastillas de otro (no diferencia de edad). Con esto pensad una cosa: si la probabilidad de recibir uno u otro tratamiento varía en cada participante, ¿cómo vamos a compararlos sin tener en cuenta esta probabilidad?. Habrá que comparar aquellos que tengan una probabilidad similar.

Pues bien, aquí es donde entran en juego los índices de propensión (IP), que estiman la probabilidad de cada participante de recibir un tratamiento basándose en sus características.

Los IP se calculan mediante un modelo de regresión logística con la intervención como resultado y las covariables como predictores. Así, se obtiene una ecuación con cada una de las variables que hayamos metido en el modelo porque pensemos que puedan actuar como factores de confusión. Por ejemplo, la probabilidad de recibir el tratamiento A sería igual a:

P(A) = β0 + β1a + β2b + β3c +….+ βnn,

Donde P(A) es la probabilidad de recibir A (en realidad, el modelo proporciona el logaritmo natural de la odds ratio), los betas son los coeficientes y a,b,c,…,n representan las variables del modelo.

Si sustituimos las letras de “a” a “n” por las características de cada participante, obtenemos una puntuación, que es su IP. Y ahora ya podemos comparar entre sí los participantes de las dos ramas de tratamiento que tengan una puntuación similar.

Esta comparación puede hacerse de varias formas, siendo las más sencillas el emparejamiento y la estratificación.

indices de propensionMediante estratificación se dividen los participantes en grupos con un intervalo de puntuación y se comparan los grupos entre sí para determinar el efecto de la intervención. Mediante emparejamiento, se compara cada participante de uno de los grupos con otro que tenga una puntuación igual o, en caso de que no exista, similar (lo que se conoce como el vecino más próximo). En la figura podéis ver un ejemplo de emparejamiento con el vecino más próximo de algunos de los participantes de nuestro estudio ficticio.

Y esto son los IP. Una argucia para poder comparar los participantes intentando evitar el efecto de las variables de confusión y parecerse a los ECA, convirtiéndose en casi estudios cuasiexperimentales. Pero ya lo hemos dicho, aunque la mona se vista de seda, mona se queda. Por muchas variables que metamos en el modelo de regresión para calcular los IP, nunca estaremos seguros de haber metido todas, ya que puede haber variables confusoras que desconozcamos. Por eso siempre es conveniente comprobar las conclusiones de un estudio observacional con el ECA correspondiente.

Y aquí lo dejamos por hoy, aunque los IP dan para mucho más. Por ejemplo, hemos hablado solo de emparejamiento y estratificación, aunque hay más métodos, más complejos y menos utilizados en medicina, como son el ajuste de covariables por IP o la ponderación por el inverso de la probabilidad de recibir la intervención. Pero esa es otra historia…

No es lo que parece

Espero, por vuestro bien, que nunca os hayáis tenido que ver en la situación de pronunciar esta frase. Y espero, también por vuestro bien, que si habéis tenido que pronunciarla en alguna ocasión no se viese precedida por la palabra “cariño”. ¿O sí?. Dejémoslo a la conciencia de cada cual.

Lo que sí es cierto es que esta frase debemos planteárnosla en forma de pregunta en una situación mucho menos escabrosa: al contemplar los resultados de un estudio transversal. Obvia decir, claro está, que, en estos casos, el cariño no es imprescindible.

Los estudios descriptivos transversales son un tipo de estudio observacional en los que se extrae una muestra representativa de la población que queremos estudiar y se mide la frecuencia de la enfermedad o el efecto que nos interese en los individuos de la muestra. Cuando medimos más de una variable, estos estudios se denominan de asociación cruzada, ya que nos permiten averiguar si las variables medidas guardan algún tipo de asociación.

Pero estos estudios tienen dos características que debemos tener siempre en cuenta. Primero, son estudios de prevalencia que miden la frecuencia en un momento concreto, por lo que el resultado puede variar en función del momento elegido para medir la variable. Segundo, como la medición se realiza de forma simultánea, resulta difícil establecer una relación causa-efecto, algo que a todos nos encanta hacer. Pero es algo que debemos evitar hacer porque, con este tipo de estudios, las cosas no son siempre lo que parecen. O, mejor dicho, las cosas pueden ser bastantes más cosas de lo que parecen.

¿De qué hablamos?. Veamos un ejemplo. Estoy un poco aburrido de ir al gimnasio, porque me canso cada vez más y mi estado físico… bueno, dejémoslo simplemente en que me canso, así que quiero estudiar si realmente el esfuerzo puede recompensarme con un mejor control de mi transversalpeso corporal. De esta manera, hago una encuesta y obtengo los datos de 1477 individuos de mi edad referentes a sí van a un gimnasio (sí o no) y sin tienen un índice de masa corporal superior a 25 (sí o no). Si os fijáis en los resultados de la tabla podéis comprobar que la prevalencia de sobrepeso-obesidad entre los que van al gimnasio (50/751, alrededor de un 7%) es mayor que entre los que no van (21/726, alrededor del 3%). ¡Horror!, pienso, no solo me canso, sino que los que van al gimnasio tienen el doble de probabilidades de ser obesos. Conclusión: mañana mismo me borro.

¿Veis lo fácil que es llegar a una conclusión absurda (más bien estúpida, en este caso)?. Pero los datos están ahí, así que habrá que buscar una explicación para entender por qué nos indican algo que va en contra de nuestro sentido común. Y hay varias explicaciones posibles para interpretar estos resultados.

La primera, que realmente ir al gimnasio favorezca que uno engorde. Parece poco probable, pero nunca se sabe… Imaginemos que el entrenamiento motiva que los deportistas coman como fieras durante las seis horas siguientes a la sesión deportiva.

La segunda, que los obesos que van al gimnasio vivan más años que los que no. Pensemos que el ejercicio prevenga la muerte por enfermedad cardiovascular en pacientes obesos. Explicaría por qué hay más obesos (en proporción) en el gimnasio que fuera de él: simplemente se morirían menos que los que no van. Al fin y al cabo estamos tratando con un estudio de prevalencia, por lo que vemos el resultado final en el momento de la medición.

La tercera posibilidad es que la enfermedad pueda influir en la frecuencia de la exposición, lo que se conoce como causalidad inversa. En nuestro ejemplo, podría haber más obesos en el gimnasio porque una de las recomendaciones de tratamiento que se les diese a los obesos fuese esa: apuntarse a un gimnasio. Esta ya no suena tan ridícula como la primera.

Pero todavía hay más posibles explicaciones. Hasta ahora hemos tratado de explicar una asociación entre las dos variables que hemos asumido como real. Pero, ¿y si la asociación no es real?. ¿Cómo podemos obtener una asociación falsa entre las dos variables?. De nuevo, tenemos tres explicaciones posibles.

La primera, nuestro viejo conocido: el azar. Algunos me diréis que podemos calcular la significación estadística o los intervalos de confianza pero, ¿y qué?. Aún en el caso de significación estadística, lo que quiere decir es que no podemos descartar que haya sido el azar con un cierto grado de incertidumbre. Incluso con p<0,05, siempre habrá una probabilidad de que cometamos un error de tipo 1 y descartemos erróneamente el efecto del azar. Podemos medir el azar, pero nunca librarnos de él.

La segunda es que hayamos cometido algún tipo de sesgo que invalide nuestros resultados. A veces, las características de la enfermedad pueden hacer que la probabilidad de elegir a sujetos expuestos y no expuestos no sea la misma, produciéndose un sesgo de selección. Imaginemos que en lugar de una encuesta (telefónica, por ejemplo) hemos usado un registro médico. Puede ocurrir que los obesos que van al gimnasio sean más responsables con el cuidado de su salud y vayan más al médico que los otros, con lo que será más probable que incluyamos obesos deportistas en el estudio, haciendo una estimación al alza de la proporción real. Otras veces el factor de estudio puede ser algo mal visto o estigmatizante desde el punto de vista social, así que los que lo padezcan no tendrán las mismas ganas de participar en el estudio (y reconocer el padecimiento) que los que no, así que su frecuencia se subestimará.

En nuestro ejemplo, podría ocurrir que los obesos que no van al gimnasio respondiesen a la encuesta mintiendo sobre su peso verdadero, con lo cual se clasificarían erróneamente. Este sesgo de clasificación puede ocurrir aleatoriamente en los dos grupos de expuestos y no expuestos, con lo que cual tiende a favorecer la falta de asociación (la hipótesis nula), de tal forma que se subestima la asociación, si es que ésta existe. El problema es cuando este error es sistemático en uno de los dos grupos, ya que esto puede tanto subestimar como infraestimar la asociación entre exposición y enfermedad.

Y, por fin, la tercera posibilidad es que exista una variable confusora que se distribuya de manera diferente entre expuestos y no expuestos. Se me ocurre pensar que los que van al gimnasio son más jóvenes que los que no. Es posible que los obesos más jóvenes tengan más tendencia a ir al gimnasio. Si estratificamos los resultados por la variable confusora, la edad, podemos determinar su influencia en la asociación.

Para terminar, solo me queda pedir disculpas a todos los obesos del mundo por utilizarlos como ejemplo pero es que, por una vez, quería dejar tranquilos a los fumadores.

Como veis, las cosas no son siempre lo que parecen a primera vista, por lo que hay que interpretar los resultados con sentido común y a la luz de los conocimientos existentes, evitando caer en la trampa de establecer relaciones causales a partir de asociaciones detectadas mediante estudios observacionales. Para establecer relaciones de causa y efecto son siempre necesarios estudios experimentales, el paradigma de los cuales es el ensayo clínico. Pero esa es otra historia…

Una de romanos

¡Qué tíos esos romanos!. Iban, veían y vencían. Con esas legiones, cada una con sus diez cohortes, cada cohorte con sus casi quinientos romanos con su falda y sus sandalias de correas. Las cohortes eran grupos de soldados que estaban al alcance de la arenga de un mismo jefe y siempre avanzaban, nunca retrocedían. Así se puede conquistar la Galia (aunque no en su totalidad, como es bien sabido).

En epidemiología, una cohorte es también un grupo de personas que comparten algo, pero en lugar de ser la arenga de su jefe es la exposición a un factor que se estudia a lo largo del tiempo (tampoco son imprescindibles ni la falda ni las sandalias). Así, un estudio de cohortes es un tipo de diseño observacional, analítico y longitudinal que compara la frecuencia con la que ocurre un determinado efecto (generalmente una enfermedad) en dos grupos diferentes (las cohortes), uno de ellos expuesto a un factor y otro no expuesto al mismo factor. Ambas cohortes se estudian a lo largo del tiempo, por lo que la mayor parte de los estudios de cohortes son prospectivos (van hacia delante, como las cohortes romanas). Sin embargo, es posible hacer estudios de cohortes retrospectivos una vez ocurridos tanto la exposición como el efecto, identificándose los dos grupos en un momento atrás en el tiempo lo suficientemente alejado como para permitir que el efecto se haya desarrollado.

Como curiosidad, también podemos hacer un estudio con una sola cohorte si queremos estudiar la incidencia o la evolución de una determinada enfermedad, pero en realidad este tipo de diseños se engloba en los estudios descriptivos longitudinales.

Al realizarse un seguimiento a lo largo del tiempo, los estudios de cohortes permiten calcular la incidencia del efecto entre expuestos y no expuestos, calculando a partir de ellas una serie de medidas de asociación y de medidas de impacto características.

La medida de asociación es el riesgo relativo (RR), que es la proporción entre la incidencia de expuestos (Ie) y no expuestos (I0): RR = Ie/I0. Esta medida nos permite estimar la fuerza de la asociación entre la exposición al factor y el efecto, pero no nos informa sobre el impacto potencial que tiene la exposición sobre la salud de la población. Para esto debemos recurrir a las medidas de impacto, fundamentalmente la diferencia de incidencias (DI) y la proporción atribuible al factor en el grupo expuesto (PAE) o en la población (PAP).

La DI sería, como su nombre indica, la diferencia entre la incidencia de expuestos y no expuestos (Ie-I0). Esta medida, que es el equivalente a la reducción absoluta del riesgo de los ensayos clínicos, nos cuantifica la diferencia de incidencia que puede atribuirse al factor estudiado. Aunque puede sonar parecido al RR, en realidad son dos medidas bien diferentes. Veámoslo con un ejemplo. Supongamos dos estudios E1 y E2. Aunque el RR es igual a 3 en los dos estudios, la DI en E1 es del 40% mientras que en E2 es del 2%, con lo que el exceso de riesgo en los expuestos es mucho mayor en el primer estudio que en el segundo, a pesar de que los RR sean iguales en ambos. Digamos que el RR es más informativo para determinar posibles causas de un efecto, mientras que la DI, que depende también de la incidencia, es más útil desde el punto de vista epidemiológico para calcular los efectos sobre grupos de población.

La PAE es la DI respecto al grupo de expuestos y nos indica el riesgo de presentar el efecto en los expuestos que se debe específicamente a eso, a haber estado expuesto. Esta medida puede calcularse también a partir del RR entre expuestos y no expuestos.

Por su parte, la PAP nos da una idea del efecto que se produciría en la población (cuánto disminuiría la enfermedad) si pudiésemos eliminar totalmente la exposición al factor estudiado.

Como vemos, pues, los estudios de cohortes son muy útiles para calcular la asociación y el impacto entre efecto y exposición pero, cuidado, no sirven para establecer relaciones causales. Para eso son necesarios otros tipos de estudios.

El problema con los estudios de cohortes es que son difíciles (y costosos) de realizar de forma adecuada, suelen requerir muestran grandes y, a veces, periodos de seguimiento prolongados (con el consiguiente riesgo de pérdidas). Además, son poco útiles para enfermedades raras. Y no debemos olvidar que no nos permiten establecer relaciones de causalidad con la seguridad suficiente, aunque para ello sean mejores que sus primos los estudios de casos y controles, pero esa es otra historia…