La estadística se divide en dos grandes ramas: la descriptiva, que resume y organiza datos, y la inferencial, que permite sacar conclusiones sobre una población a partir de una muestra. Son dos caras de la misma moneda, y juntas constituyen una de las herramientas más poderosas del pensamiento científico.
Estadística descriptiva: organizar para entender
La estadística descriptiva busca resumir un conjunto de datos mediante números y gráficos que capturen sus características principales. Sus herramientas son:
Medidas de tendencia central: La media (promedio aritmético), la mediana (valor central) y la moda (valor más frecuente). Cada una tiene sus ventajas: la media es la más usada pero es sensible a valores extremos; la mediana es más robusta; la moda es útil para datos categóricos.
Medidas de dispersión: El rango (diferencia entre máximo y mínimo), la varianza, la desviación típica y el rango intercuartílico. Nos dicen cuánto varían los datos respecto al centro.
Medidas de forma: La asimetría (skewness) indica si la distribución es simétrica o está sesgada. La curtosis mide si las colas son pesadas o ligeras.
Visualización de datos
Los histogramas muestran la distribución de frecuencias. Los diagramas de caja (box plots) resumen la mediana, los cuartiles y los valores atípicos. Los gráficos de dispersión revelan relaciones entre dos variables. Una buena visualización vale más que mil números.
Estadística inferencial: de la muestra a la población
La estadística inferencial permite hacer afirmaciones sobre una población entera basándose en los datos de una muestra. Es lo que hacen las encuestas electorales: preguntan a 1.000 personas para estimar la intención de voto de millones.
Estimación por intervalos
En lugar de dar un único número, construimos un intervalo de confianza. Un intervalo de confianza del 95% significa que si repitiéramos el muestreo 100 veces, esperaríamos que 95 de esos intervalos contuvieran el verdadero valor poblacional.
Pruebas de hipótesis
Las pruebas de hipótesis nos permiten decidir si un resultado observado es estadísticamente significativo o podría deberse al azar. Formulamos una hipótesis nula (H₀, generalmente «no hay efecto»), calculamos un estadístico de prueba y determinamos si el resultado es lo suficientemente extremo como para rechazar H₀.
El valor p es la probabilidad de obtener un resultado al menos tan extremo como el observado, suponiendo que H₀ sea cierta. Un valor p menor que 0,05 se considera convencionalmente «significativo», aunque este umbral es objeto de debate continuo en la comunidad científica.
El tamaño de la muestra importa
Cuanto mayor es la muestra, más precisas son nuestras estimaciones (menor margen de error) y mayor es la potencia de nuestras pruebas (mayor probabilidad de detectar un efecto real). Pero la relación no es lineal: duplicar la precisión requiere cuadruplicar el tamaño de la muestra.
Errores comunes
Confundir correlación con causalidad: que dos variables estén correlacionadas no significa que una cause la otra.
P-hacking: buscar patrones hasta encontrar uno «significativo» infla la tasa de falsos positivos.
Ignorar el tamaño del efecto: un resultado puede ser estadísticamente significativo pero prácticamente irrelevante.
