Ciencia sin seso… locura doble

Píldoras sobre medicina basada en pruebas

Guardado porjulio 2012
image_pdf

Busca siempre un intervalo, pero que sea de confianza

El intervalo de confianza es una de esas herramientas que nos permiten conservar uno de nuestros vicios más persistentes: querer sacar conclusiones acerca de muchos con datos obtenidos de unos pocos.

Cuando queremos conocer una característica de un determinado grupo de pacientes es frecuente que no podamos estudiarla en todos los sujetos que nos interesan, por lo que tenemos que resignarnos a seleccionar una muestra dentro de esa población y realizar las mediciones que nos parezcan oportunas. El problema entonces es evidente: sabremos cuál es el valor en nuestra muestra pero, ¿cuál es el valor en la población global? ¿no hay forma de saberlo sin estudiar a toda la población?

La mala noticia es que la única manera de saber el valor con exactitud en la población es medir la variable en todos los sujetos. La buena noticia es que podemos estimar el valor en la población a partir del que obtuvimos en la muestra, aunque dentro de unos límites de incertidumbre, que son los que marca el intervalo de confianza.

Así, el intervalo de confianza, que se calcula a partir de los resultados de la muestra, nos dice entre que límites se encuentra el valor de la variable en la población de la que procede la muestra, siempre con cierto grado de error o incertidumbre, que por convenio suele situarse en el 95%.

En la práctica, el intervalo de confianza con una probabilidad del 95% (el que más se usa habitualmente) se calcula de la forma siguiente:

            IC 95% = V ± 1,96 SE

Donde V representa el parámetro que medimos (una media, una proporción, etc) y ±1,96 corresponde al rango alrededor de la media que incluye el 95% de la población en una distribución normal estándar. SE representa el error estándar, un término bastante más antipático de explicar, que corresponde a la desviación típica de la distribución de los valores de la variable que obtendríamos si repitiésemos el estudio muchas veces. Pero no os preocupéis por todo este galimatías, los programas de estadística lo hacen todo ellos solos. Lo único que tenemos que saber es que el intervalo de confianza incluye el verdadero valor de la población con la probabilidad especificada (la realidad es un poco más compleja, pero dejémoslo así).

Una reflexión final antes de cerrar este tema. Además del grado de incertidumbre, el intervalo de confianza nos informa sobre la precisión del estudio. Cuanto menor sea el intervalo, más precisión habremos conseguido, y si el intervalo es demasiado amplio es posible que el resultado no nos valga para nada, aunque tenga significación estadística. Este tipo de información es algo que no nos da la p. Entonces, ¿para qué sirve la p?. La p sirve para otras cosas, pero esa es otra historia…

Todo gira alrededor de la hipótesis nula

La hipótesis nula, familiarmente conocida como H0, tiene un nombre engañoso. A pesar de lo que uno pudiera pensar, ese nombre no le impide ser el centro de todo contraste de hipótesis.

¿Y qué es un contraste de hipótesis? Veámoslo con un ejemplo.

Supongamos que queremos saber si los residentes (como ellos creen) son más listos que sus adjuntos. Tomamos una muestra al azar de 30 adjuntos y 30 residentes del hospital y les medimos el CI, obteniendo los adjuntos una media de 110 y los residentes de 98 (lo siento, pero yo soy adjunto y para eso pongo el ejemplo). Ante este resultado nos preguntamos: ¿cuál es la probabilidad de que los adjuntos seleccionados sean más listos que los residentes del estudio?. La respuesta es simple: el 100% (si les hemos pasado a todos el test correcto y no una encuesta de satisfacción laboral, claro). El problema es que lo que a nosotros nos interesa saber es si los adjuntos (en general) son más listos que los resis (en general). Solo hemos medido el CI de 60 personas y, claro, queremos saber qué pasa en la población general.

Llegados a este punto nos planteamos dos hipótesis:
1. Que los dos colectivos son igual de inteligentes (este ejemplo es pura ficción) y que las diferencias que hemos encontrado se deben a la casualidad (al azar). Esta, señores y señoras, es la hipótesis nula o H0. La enunciaríamos así

H0: CIA = CIR

2. Que en realidad los dos colectivos no son igual de listos. Esta sería la hipótesis alternativa

H1: CIA  ≠  CIR

Esta hipótesis la podríamos plantear como que un CI es mayor o menor que el otro, pero de momento vamos a dejarlo así.

En principio, siempre asumimos que la H0 es la verdadera (para que luego la llamen nula), así que cuando cojamos nuestro programa de estadística y comparemos las dos medias (ya veremos cómo algún día), el test que utilicemos nos dará un estadístico (un numerito que dependerá del test) con la probabilidad de que la diferencia que observamos se deba a la casualidad (la famosa p). Si la p que obtenemos en menor de 0,05 (este es el valor que se suele elegir por convenio) podremos decir que la probabilidad de que H0 sea cierta es menor del 5%, por lo que podremos rechazar la hipótesis nula. Supongamos que hacemos la prueba y obtenemos una p = 0,02. La conclusión que sacamos es que es mentira que seamos igual de listos y que la diferencia observada en el estudio se deba al azar (cosa que en este caso resultaba evidente desde el comienzo, pero que en otros puede no estar tan claro).

Y si la p es mayor de 0,05 ¿quiere decir que la hipótesis nula es cierta? Pues a lo mejor sí, a lo mejor no. Lo único que podremos decir es que el estudio no tiene la potencia necesaria para rechazar la hipótesis nula, pero si la aceptamos sin más nos podríamos columpiar (en realidad podríamos cometer un error de tipo II, pero esa es otra historia…).