top of page

Tipos de prueba

Prueba de Hipótesis: Paramétricas y no paramétricas.

Métodos o pruebas paramétricos y no paramétricas

Métodos o pruebas paramétricos y no paramétricas

Hipótesis y Prueba de Hipotesis

Las hipótesis y las pruebas de hipótesis son fundamentales en la estadística inferencial, permitiendo a los investigadores hacer inferencias y tomar decisiones basadas en datos muestrales. Sabemos que las dos actividades más importantes de la estadística inferencial son la estimación de parámetros poblacionales y las pruebas de aseveraciones que se hacen acerca de esos parámetros. Con relación al segundo punto, las aseveraciones tienen dos componentes:

  • hipótesis, es una aseveración o afirmación acerca de una propiedad de una población.

  • prueba de hipótesis o prueba de sifnificancia, es un procedimiento para probar una aseveración o afirmación acerca de una propiedad de una población.

Ejemplos de Hipótesis

Mario Triola, en su libro Estadística cita algunos ejemplos de estudios estadísticos con pruebas de hipotesis:

  • Aviación: La FAA afirma que el peso promedio de un pasajero de aeronave (incluido equipaje de mano) es 185libras mayor que hace 20 años.

  • Negocios: El encabezado de una nota periodística afirma que la mayoría de los empleados consiguen trabajo por medio de redes de contactos.

  • Medicina Investigadores médicos aseveran que la temperatura corporal media de adultos sanos no es igual a 98.6°F.

  • Control de calidad Cuando se usa equipo nuevo para fabricar altímetros de aviones, los nuevos altímetros son mejores porque la variación en los errores es reducida y, por lo tanto, las lecturas son más consistentes. (En muchas industrias, la calidad de los bienes y servicios a menudo se puede mejorar al reducir la variación).


Conceptos clave

  1. Hipótesis:
    Hipótesis Nula (H₀): Es una afirmación que se asume verdadera inicialmente y se prueba. Generalmente, representa una situación de "no efecto" o "no diferencia".
    Ejemplo: "El nuevo medicamento no tiene efecto sobre la presión arterial."
    Hipótesis Alternativa (H₁): Es la afirmación que se acepta si la evidencia en contra de la hipótesis nula es suficientemente fuerte. Representa una situación de "efecto" o "diferencia".
    Ejemplo: "El nuevo medicamento reduce la presión arterial."

  2. Prueba de Hipótesis:
    Es un procedimiento estadístico para decidir si se rechaza o no la hipótesis nula basándose en datos muestrales.
    Se utilizan estadísticos de prueba, valores críticos y p-valores para tomar decisiones.

  3. Error de Tipo I (α):
    Probabilidad de rechazar la hipótesis nula cuando es verdadera.
    Se elige un nivel de significancia (α), comúnmente 0.05 o 0.01.

  4. Error de Tipo II (β):
    Probabilidad de no rechazar la hipótesis nula cuando es falsa.
    La potencia de la prueba es 1−β.


Métodos estadísticos para probar hipótesis

Existen una amplia variedad de métodos estadísticos para realizar pruebas de hipótesis, cada uno diseñado para abordar diferentes tipos de datos y preguntas de investigación.  Estos métodos o pruebas se agrupan en pruebas paramétricos y no paramétricas. Sus características y diferencias pueden verse en la figura correspondiente y se resumen a continuación:

  1. Las pruebas paramétricas son aquellas que suponen que los datos se distribuyen de una manera específica, normalmente una distribución normal, y requieren que los datos estén en una escala de intervalo o de razón. Estas pruebas, son potentes y proporcionan resultados precisos cuando se cumplen sus supuestos. Sin embargo, son sensibles a las violaciones de estos supuestos, como la normalidad de los datos y la homogeneidad de varianzas, lo que puede llevar a conclusiones erróneas si no se verifican estas condiciones.

  2. Las pruebas no paramétricas no requieren supuestos específicos sobre la distribución de los datos y pueden aplicarse a datos ordinales, de rango o nominales. Estas pruebas son más robustas frente a violaciones de supuestos y valores atípicos, lo que las hace útiles en situaciones donde los datos no siguen una distribución normal o donde las condiciones de las pruebas paramétricas no se cumplen. Sin embargo, tienden a ser menos potentes que las pruebas paramétricas cuando los datos sí cumplen los supuestos paramétricos, lo que puede llevar a una menor capacidad para detectar efectos verdaderos.


Pruebas paramétricas:

  • Prueba t de Student: Utilizada para comparar medias entre dos grupos.
    Ejemplo: Comparar las medias de dos tratamientos diferentes.

  • Prueba t para muestras pareadas: Utilizada para comparar las medias de dos conjuntos de datos relacionados o emparejados
    Ejemplo: Comparar el peso de participantes en un método para adelgazar antes y despúes del tratamiento.

  • ANOVA (Análisis de Varianza): Utilizada para comparar las medias entre tres o más grupos.
    Ejemplo: Comparar el rendimiento académico entre diferentes métodos de enseñanza.

  • Prueba z: Utilizada para comparar una media con un valor conocido cuando la desviación estándar es conocida.
    Ejemplo: Comparar la media de ingresos de una muestra con el ingreso promedio nacional.

  • Prueba F: Compara las varianzas de dos o más grupos.
    Ejemplo: Evaluar la igualdad de varianzas en diferentes muestras de un experimento.

  • Regresión lineal: Modela la relación entre una variable dependiente y una o más variables independientes.

  • Correlación: Mide la fuerza y dirección de la relación lineal entre dos variables continuas.
    Ejemplo: Evaluar la relación entre la altura y el peso de los individuos en una población.

  • Normalidad de Shapiro-Wik: Evalúa si una muestra proviene de una distribución normal.
    Ejemplo: Verificar la normalidad de los datos antes de aplicar pruebas paramétricas.

Pruebas no paramétricas

  • Prueba de Signos: Compara dos muestras emparejadas para evaluar si las diferencias entre las parejas de datos son simétricas alrededor de cero.
    Ejemplo: Evaluar el cambio en la presión arterial antes y después del tratamiento.

  • Prueba de Friedman: Compara tres o más muestras relacionadas o emparejadas para evaluar diferencias en sus distribuciones.
    Ejemplo: Evaluar el rendimiento de los mismos sujetos bajo diferentes condiciones.

  • Prueba de Mann-Whitney U: Alternativa no paramétrica a la prueba t para muestras independientes.
    Ejemplo: Comparar la satisfacción del cliente entre dos tiendas.

  • Prueba de Kruskal-Wallis: Alternativa no paramétrica al ANOVA.
    Ejemplo: Comparar la efectividad de varios tratamientos médicos sin asumir una distribución normal.
    Prueba de Wilcoxon: Alternativa no paramétrica para datos emparejados.  No asume una distribución normal de los datos. Ejemplo: Comparar el rendimiento de los estudiantes antes y después de un curso.

  • Prueba Chi-cuadrado: Utilizada para evaluar si una muestra sigue una distribución específica. Evalúa la asociación entre dos variables categóricas.
    Ejemplo: Evaluar si la distribución de colores de caramelos en una bolsa es uniforme.

  • Prueba de Rango con Signos de Wilcoxon: Compara dos muestras emparejadas para evaluar diferencias en sus medianas, considerando tanto la magnitud como la dirección de las diferencias..
    Ejemplo: Comparar el peso de los pacientes antes y después de una intervención dietética.

  • Prueba de Kolmogorov-Smirnov: Compara una muestra con una distribución teórica o compara dos muestras para evaluar si provienen de la misma distribución.
    Ejemplo: Verificar si una muestra sigue una distribución normal.

  • Prueba de Spearman: Mide la fuerza y la dirección de la relación monótona entre dos variables ordinales o continuas.
    Ejemplo: Evaluar la relación entre la clasificación de los empleados y su satisfacción laboral.

  • Prueba de Kendall: Mide la asociación entre dos variables ordinales.
    Ejemplo: Determinar la concordancia entre dos jueces al evaluar la calidad de los productos.


Otros métodos:

  • Bootstrap: Un método de remuestreo que permite estimar la incertidumbre en las estimaciones estadísticas.

  • Permutaciones: Otro método de remuestreo que se utiliza para construir distribuciones de referencia nulas.

  • Bayesiano: Un enfoque que utiliza la probabilidad para actualizar creencias a medida que se recopilan nuevos datos.

Elección del método estadístico

La elección del método depende en gran medida del tipo de datos, el tamaño de la muestra y las preguntas de investigación específicas. Sin embargo, en la ciencia de datos contemporánea, algunos de los métodos más populares incluyen:

  • Regresión logística: Para modelar la probabilidad de un evento binario.

  • Modelos lineales generalizados: Para modelar una amplia variedad de tipos de datos, incluyendo datos contables y datos binarios.

  • Modelos de aprendizaje automático: Como los árboles de decisión, las redes neuronales y los bosques aleatorios, que pueden manejar conjuntos de datos grandes y complejos.

  • Pruebas basadas en permutaciones:Son cada vez más populares debido a su flexibilidad y robustez.

  • Métodos bayesianos:Están ganando terreno, especialmente en áreas como la bioestadística y la genética.

La diversidad de métodos refleja la complejidad de los datos que los científicos de datos deben analizar. Cada método tiene sus fortalezas y debilidades, y la elección del método adecuado requiere una cuidadosa consideración de las características de los datos y las preguntas de investigación.


Regla del suceso infrecuente

Muchos métodos estadísticos de  pruebas de hipótesis se basan en la regla del suceso infrecuente para la estadística inferencial. Y otros tantos no. De manera muy sintética podemos resumir:

Clasificación                            Regla del suceso infrecuente

Pruebas paramétricas                      Si

Pruebas no paramétricas                 No

Otros métodos                                   Depende


La regla del suceso infrecuente es un concepto fundamental, pero el campo de las pruebas de hipótesis es mucho más amplio y dinámico. La elección del método adecuado depende de una variedad de factores, y la ciencia de datos moderna ofrece un conjunto de herramientas cada vez más sofisticado para abordar preguntas de investigación cada vez más complejas.

bottom of page