12. Más allá del t-test (puente a temas avanzados)

El t-test es una herramienta fundamental y muy utilizada, pero el mundo de la inferencia estadística es vasto y ofrece una multitud de técnicas para abordar preguntas de investigación más complejas o cuando los supuestos del t-test no se cumplen. Esta sección sirve como un puente hacia esos temas avanzados.

12.1 Introducción a ANOVA (Análisis de Varianza)

Mientras que el t-test se utiliza para comparar las medias de dos grupos, el Análisis de Varianza (ANOVA) es la herramienta adecuada cuando se desea comparar las medias de tres o más grupos. Realizar múltiples t-tests entre cada par de grupos aumentaría la probabilidad de cometer un Error Tipo I (falso positivo).

  • Idea principal: ANOVA evalúa si existe alguna diferencia significativa entre las medias de los grupos analizando la varianza entre los grupos en relación con la varianza dentro de los grupos.
  • Estadístico F: ANOVA utiliza el estadístico F (de la distribución F) para su prueba.
  • Pruebas post-hoc: Si el ANOVA indica que existe una diferencia significativa entre al menos un par de grupos, se utilizan pruebas post-hoc (ej., Tukey HSD, Bonferroni) para identificar cuáles grupos específicos difieren entre sí.
  • Aplicaciones: Comparar la efectividad de tres o más tratamientos médicos, el rendimiento de diferentes métodos de enseñanza, o el impacto de distintas estrategias de marketing.

Se implementa comúnmente con librerías como Statsmodels o SciPy en Python.

12.2 Pruebas no paramétricas (Mann-Whitney, Wilcoxon)

Las pruebas paramétricas (como el t-test y ANOVA) a menudo requieren que los datos cumplan ciertos supuestos, como la normalidad de la distribución o la homogeneidad de varianzas. Cuando estos supuestos no se cumplen, o cuando se trabaja con datos ordinales o nominales, las pruebas no paramétricas son una alternativa robusta.

  • Prueba U de Mann-Whitney:

    Es el equivalente no paramétrico de la prueba t para dos muestras independientes. Compara las medianas (o rangos) de dos grupos independientes para determinar si provienen de la misma población o de poblaciones con distribuciones diferentes.

    Implementación en Python: scipy.stats.mannwhitneyu

  • Prueba de los rangos con signo de Wilcoxon:

    Es el equivalente no paramétrico de la prueba t pareada. Se utiliza para comparar dos mediciones relacionadas (ej., antes y después) cuando los datos no cumplen los supuestos de normalidad.

    Implementación en Python: scipy.stats.wilcoxon

Estas pruebas son menos potentes que sus contrapartes paramétricas cuando los supuestos se cumplen, pero son más seguras de usar cuando no lo hacen.

12.3 Bootstrap y métodos de remuestreo

El Bootstrap es una técnica de remuestreo computacionalmente intensiva que permite estimar la distribución de un estadístico (como la media, la mediana, la varianza, o incluso coeficientes de regresión) a partir de una sola muestra observada. Es particularmente útil cuando la distribución subyacente de la población es desconocida o cuando las fórmulas analíticas para los errores estándar son difíciles de obtener.

  • Funcionamiento: Se toman repetidamente (miles de veces) muestras con reemplazo de la muestra original, se calcula el estadístico de interés en cada una de estas "muestras bootstrap", y luego se utiliza la distribución de estos estadísticos bootstrap para inferir propiedades del parámetro poblacional (ej., construir intervalos de confianza o realizar pruebas de hipótesis).
  • Ventajas: No requiere supuestos de distribución, es muy flexible y puede aplicarse a una amplia gama de estadísticos.
  • Aplicaciones: Construcción de intervalos de confianza, estimación de errores estándar, pruebas de hipótesis.

12.4 Relación con modelos de regresión

La inferencia estadística es un componente crucial en el análisis de modelos de regresión (lineal, logística, etc.). No solo nos permite construir el modelo, sino también interpretar sus resultados de manera significativa:

  • Significancia de los coeficientes: Se utilizan pruebas de hipótesis (ej., pruebas t para coeficientes individuales, prueba F para el modelo global) para determinar si las variables predictoras tienen un efecto estadísticamente significativo sobre la variable de respuesta.
  • Intervalos de confianza: Se construyen intervalos de confianza para los coeficientes de regresión, lo que nos da un rango de valores plausibles para el verdadero efecto de cada predictor en la población.
  • Predicción e Intervalos de Predicción: La inferencia permite no solo predecir valores, sino también cuantificar la incertidumbre de esas predicciones a través de intervalos de predicción.
  • Diagnóstico del modelo: Las pruebas estadísticas se utilizan para verificar los supuestos del modelo de regresión (ej., normalidad de los residuos, homocedasticidad).

12.5 Próximos pasos en inferencia estadística

El camino en la inferencia estadística es continuo. Una vez dominados los fundamentos y las pruebas básicas, se pueden explorar temas más avanzados y especializados:

  • Análisis de covarianza (ANCOVA): Combina ANOVA con regresión para controlar el efecto de variables covariables.
  • Modelos lineales generalizados (GLM): Una extensión de la regresión lineal que permite modelar variables de respuesta con distribuciones no normales (ej., Poisson para conteos, Binomial para proporciones).
  • Inferencia Bayesiana: Un enfoque alternativo a la inferencia frecuentista que incorpora conocimiento previo (prior) en el análisis.
  • Análisis de series de tiempo: Técnicas inferenciales para datos que tienen una dependencia temporal.
  • Diseño de experimentos (DOE): Metodologías para planificar experimentos de manera eficiente y obtener conclusiones válidas.
  • Análisis multivariante: Técnicas para analizar la relación entre múltiples variables simultáneamente (ej., PCA, MANOVA).

Cada uno de estos temas abre nuevas puertas para entender y modelar la complejidad del mundo real a partir de los datos.