Prueba de Fisher
Bondad de ajuste. Prueba de dependencia o independencia.

Prueba de Fisher cuando el conteo es menor que 5.
La prueba exacta de Fisher es un test estadístico utilizado para determinar si existe una asociación significativa entre dos variables categóricas en una tabla de contingencia (generalmente de 2x2). Es una alternativa a la prueba Chi-cuadrado cuando las frecuencias esperadas son muy bajas, ya que el Chi-cuadrado podría no ser adecuado en esos casos. Fisher desarrolló esta prueba para situaciones con muestras pequeñas, donde los métodos asintóticos (como el Chi-cuadrado) no son confiables.
Contexto de la prueba de Fisher
La prueba de Fisher evalúa la independencia entre las dos variables categóricas, es decir, si la proporción de un resultado es la misma en todos los niveles de otra variable.
Ejemplo típico
Supongamos que estamos evaluando la efectividad de un tratamiento (tratamiento vs. placebo) y registramos si los pacientes mejoran o no. Los datos se organizan en una tabla de contingencia 2x2 como se ve en la figura, est decir:
| | Mejoró | No mejoró | Total |
|---------------------|--------|-----------|-------|
| Tratamiento | a | b | a+b |
| Placebo | c | d | c+d |
| Total | a+c | b+d | n |
Aquí, `a`, `b`, `c` y `d` son los conteos en las respectivas celdas.
Hipótesis
Hipótesis nula (H₀): No hay asociación entre las dos variables (tratamiento y mejora), es decir, las proporciones de personas que mejoran son iguales entre los dos grupos.
Hipótesis alternativa (H₁): Hay una asociación entre las dos variables, es decir, las proporciones de personas que mejoran son diferentes entre los grupos.
Cálculo
La prueba de Fisher calcula la probabilidad exacta de observar un conjunto específico de frecuencias en la tabla (como `a`, `b`, `c`, y `d`), bajo la suposición de que las variables son independientes. Esta probabilidad se calcula utilizando la distribución hipergeométrica, que describe la probabilidad de sacar una muestra con una determinada distribución de "éxitos" y "fracasos".
La fórmula de probabilidad para una tabla 2x2 es la que se ve en la figura:
Interpretación
Si el valor p resultante es pequeño (usualmente menor que 0.05), rechazamos la hipótesis nula y concluimos que hay una asociación significativa entre las variables.
Si el valor p es grande, no hay suficiente evidencia para rechazar la hipótesis nula, lo que indica que las variables son independientes.
Ejemplo - Analisis de efecto placebo
En este ejemplo, aplicamos la prueba exacta de Fisher a una tabla de contingencia 2x2 sobre un tratamiento médico (15 mejoraron con el tratamiento y 5 no mejoraron, mientras que 4 mejoraron con el placebo y 10 no mejoraron). La tabla y los resultados pueden verse en la figura. Los calculos se realizan en jupyter notebook y se comparten en github.
Razón de momios (odds ratio): 7.5
Valor p: 0.0135
Dado que el valor p es menor que 0.05, podemos rechazar la hipótesis nula y concluir que hay una asociación significativa entre el tratamiento y la mejora en los pacientes.
La razón de momios (también conocida como odds ratio, OR) es una medida estadística que compara las probabilidades de un evento entre dos grupos, y se utiliza comúnmente en estudios de casos y controles. Indica cuántas veces más probable es que ocurra un evento en un grupo comparado con otro. Es especialmente útil en estudios donde se evalúan resultados binarios, como "mejoró" o "no mejoró" en este ejemplo.
El tratamiento tiene un efecto significativo en la mejora de los pacientes, ya que las probabilidades de mejorar con el tratamiento son significativamente mayores que con el placebo. Esto se refleja en la razón de momios de 7.5, que sugiere que los pacientes con tratamiento tienen 7.5 veces más probabilidades de mejorar en comparación con los pacientes que recibieron el placebo.
.
Ejemplo - Efectividad de los casos en bicicletas
Para analizar la efectividad del uso de los cascos en las bicicletas considere los siguientes datos que se muestran en la tabla:
Lesiones recibidas:
Con casco: Lesiones Faciales: 2, Lesiones No Faciales: 6
Sin casco: Lesiones Faciales: 13. + Lesiones No Faciales: 19
¿Es indiferente usar el casco o realmente sí conviene usarlo?
La tabla y los resultados pueden verse en la figura. Los calculos se realizan en jupyter notebook y se comparten en github.
Hipótesis
1. Ho: Es indiferente usar el casco. Da lo mismo.
2. H1: No es indiferente usar el casco. No da lo mismo porque previene lesiones.
Obervaciones
Dado que la hipótesis nula no se cumple porque p es muy elevado y z crítico esta fuera de la zona crítica, se rechaza la hipotesis nula.
Conclusiones
Es fácil concluir que es mucho más seguro utilizar casco porque previene lesiones.
Ventajas de la prueba de Fisher
- Es exacta, sin depender de aproximaciones, lo que la hace ideal para tablas pequeñas o cuando las frecuencias esperadas en algunas celdas son menores a 5.
- No requiere que las distribuciones sean normales.
Limitaciones de la prueba de Fisher
Para tablas grandes, la prueba puede volverse computacionalmente costosa, y en esos casos, el test Chi-cuadrado es más adecuado.
Aplicaciones usos y ejemplos
Para ver otros ejemplos de aplicaciones y usos se sugiere la lectura de los apartados de tablas de contingencia y experimentos multinomiales.
Para entender el contexto de esta prueba que es una de las más aplicadas, se recomienda la lectura de bondad de auste, TDC, independencia y homogeneidad.
Finalmente y en cualquier caso se recomienda además la lectura de cuetiones de bondad de ajuste.



