Loading AI tools
Criterio empírico utilizado en algunos campos de la estadística para evaluar distribuciones y su normalidad De Wikipedia, la enciclopedia libre
En estadística, la regla 68-95-99.7, también conocida como regla empírica, es una abreviatura utilizada para recordar el porcentaje de valores que se encuentran dentro de una banda alrededor de la media en una distribución normal con un ancho de dos, cuatro y seis veces la desviación típica, respectivamente. Más exactamente, el 68.27 %, el 95.45 % y el 99.73 % de los valores se encuentran dentro de bandas con semiancho de una, dos y tres veces la desviación típica respecto a la media.
En notación matemática, estos hechos se pueden expresar de la siguiente manera, siendo Χ una observación de una variable aleatoria normalmente distribuida, μ la media aritmética de la distribución y σ su desviación estándar:
En las ciencias empíricas, la también llamada "regla del pulgar de las tres sigmas" denota un criterio heurístico convencional que considera que casi todos los valores de una muestra se encuentran dentro de tres desviaciones estándar de la media, y que por lo tanto en la práctica es útil tratar el 99.7 % de probabilidad como certeza.[1] La utilidad de esta práctica depende significativamente de la pregunta que se esté considerando. En las ciencias sociales, un resultado puede considerarse significativo si su intervalo de confianza del efecto analizado es del orden de dos sigma (95 %), mientras que en física de partículas, existe la convención de que un determinado nuevo efecto debe constatarse en un intervalo de confianza de cinco sigmas (99.99994 %) para ser calificado como un hecho cierto y considerarse un descubrimiento.
La regla del pulgar de las tres sigmas se relaciona con un resultado también conocido como la regla de las tres sigma, que establece que incluso para las variables de distribución no normal, al menos el 88.8 % de los casos deben encajar correctamente en intervalos de tres sigma. Este principio se deduce de la Desigualdad de Chebyshov. Para distribuciones unimodales, la probabilidad de estar dentro del intervalo es de al menos el 95 %. Pueden darse ciertas suposiciones para una distribución que obliguen a que esta probabilidad sea al menos del 98 %.[2]
Tenemos que
haciendo el cambio de variables , obtenemos
y esta integral es independiente de y . Sólo necesitamos calcular la integral en los casos .
Estos valores numéricos "68 %, 95 %, 99.7 %" provienen de la función de distribución acumulada de la distribución normal.
El intervalo de predicción para cualquier unidad tipificada z corresponde numéricamente a (1 − (1 − Φμ,σ2 (z)) · 2).
Por ejemplo, Φ(2) ≈ 0.9772, o Pr(X ≤ μ + 2σ) ≈ 0.9772, correspondiente a un intervalo de predicción de (1 - (1 - 0.97725) · 2) = 0.9545 = 95.45%.
Debe tenerse en cuenta que esta fórmula es una aproximación, puesto que los intervalos no son necesariamente simétricos, y aquí se ha calculado simplemente dos veces la probabilidad de que una observación sea menor que μ + 2σ. Para calcular la probabilidad de que una observación se encuentre dentro de dos desviaciones estándar de la media, el procedimiento exacto (con pequeñas diferencias debidas al redondeo) es:
Esto se relaciona con los intervalos de confianza como se utilizan en las estadísticas: tiene aproximadamente un intervalo de confianza del 95% cuando es el promedio de una muestra de tamaño .
La "regla 68-95-99.7" se usa a menudo para obtener rápidamente una estimación de probabilidad aproximada de alguna muestra, conocida su desviación estándar, si se supone que la población es normal. También se usa como una prueba simple para determinar si un valor es atípico suponiendo que la población es normal, y como prueba de normalidad si la población es potencialmente no normal.
Para relacionar una muestra con su desviación típica, primero se calcula su desviación a partir de sus errores o residuos, dependiendo de si se conoce la media de la población o solo se estima. El siguiente paso es regularizar porcentualmente los resultados (dividiéndolos por la desviación estándar de la población), si se conocen los parámetros de la población, o sometiéndolos a studentización (dividiéndolos por una estimación de la desviación estándar), si los parámetros son desconocidos y solo se estiman.
Para usarlo como prueba de la normalidad de la muestra o de que se compone de valores atípicos, se calcula el tamaño de las desviaciones en términos de desviaciones estándar y se compara con la frecuencia esperada. Dado un conjunto de muestras, se pueden calcular los residuos studentizados y compararlos con las frecuencias esperadas: los puntos que quedan más allá de 3 desviaciones estándar de la norma son probablemente valores atípicos (a menos que el tamaño de la muestra sea significativamente grande, por lo que podría tratarse de una muestra de este extremo de la población), y si hay muchos puntos a más de 3 desviaciones estándar de la norma, es probable que haya una razón para cuestionar la normalidad asumida de la distribución. Este criterio es cada vez más sólido a medida que el procedimiento se extiende a 4 o a más desviaciones típicas.
Se puede calcular de forma más precisa, aproximando el número de valores extremos esperables de una magnitud dada o mayor mediante una distribución de Poisson, pero simplemente, si aparecen múltiples valores por fuera de la banda de 4 sigma en una muestra de tamaño 1000, entonces se dispone de una razón sólida para considerar que estos valores son atípicos o para preguntarse acerca de la presunta normalidad de la distribución considerada.
Por ejemplo, un evento 6σ corresponde a una probabilidad de aproximadamente dos partes en mil millones. Por ejemplo, si se considera que los eventos ocurren diariamente, esto correspondería a un evento esperado cada 1,4 millones de años. Esto da una aproximación muy útil: si se es testigo de un suceso 6σ en datos diarios y ha pasado significativamente menos de 1 millón de años, entonces una distribución normal muy probablemente no proporciona un buen modelo para la magnitud o frecuencia de grandes desviaciones contempladas en este caso.
En El cisne negro, Nassim Taleb da el ejemplo de los modelos de riesgo según los cuales la caída bursátil del Lunes Negro correspondería a un evento 36-σ: la ocurrencia de tal evento debería sugerir instantáneamente que el modelo es defectuoso, es decir, que el proceso en consideración no está modelado satisfactoriamente por una distribución normal. Los modelos refinados deben considerarse, por ejemplo, por la introducción de la volatilidad estocástica. En tales análisis, es importante estar al tanto del problema de la falacia del apostador, que establece que una sola observación de un evento raro no contradice que el evento sea de hecho raro. Es la observación de una pluralidad de eventos supuestamente raros lo que cada vez más hace reconsiderar la hipótesis de que son raros, es decir, la validez del modelo asumido. Un modelo adecuado de este proceso de pérdida gradual de confianza en una hipótesis implicaría la estimación de la probabilidad a priori no solo para la hipótesis en sí, sino para todas las hipótesis alternativas posibles. Por esta razón, el contraste de hipótesis no solo funciona confirmando una hipótesis que se considere probable, sino también refutando hipótesis consideradas improbables.
Debido a las colas exponenciales de la distribución normal, las probabilidades de desviaciones más altas disminuyen muy rápidamente. A partir de las reglas para datos normalmente distribuidos para un evento diario:
Rango | Fracción esperada de la población dentro del rango | Frecuencia aproximada esperada fuera del rango | Frecuencia aproximada para un evento diario |
---|---|---|---|
μ ± 0.5σ | 0.382924922548026 | 2 en 3 | Cuatro o cinco veces a la semana |
μ ± σ | 0.682689492137086 | 1 en 3 | Dos veces a la semana |
μ ± 1.5σ | 0.866385597462284 | 1 en 7 | Semanalmente |
μ ± 2σ | 0.954499736103642 | 1 en 22 | Cada tres semanas |
μ ± 2.5σ | 0.987580669348448 | 1 en 81 | Trimestralmente |
μ ± 3σ | 0.997300203936740 | 1 en 370 | Anualmente |
μ ± 3.5σ | 0.999534741841929 | 1 en 2149 | Cada 6 años |
μ ± 4σ | 0.999936657516334 | 1 en 15 787 | Cada 43 años (dos veces en la vida) |
μ ± 4.5σ | 0.999993204653751 | 1 en 147 160 | Cada 403 años (una vez en la edad moderna) |
μ ± 5σ | 0.999999426696856 | 1 en 1 744 278 | Cada 4776 años (una vez en la historia documentada) |
μ ± 5.5σ | 0.999999962020875 | 1 en 26 330 254 | Cada 72 090 años (tres veces en la historia del ser humano moderno) |
μ ± 6σ | 0.999999998026825 | 1 en 506 797 346 | Cada 1.38 millones de años (dos veces en la historia del ser humano) |
μ ± 6.5σ | 0.999999999919680 | 1 en 12 450 197 393 | Cada 34 millones de años (dos veces desde la extinción de los dinosaurios) |
μ ± 7σ | 0.999999999997440 | 1 en 390 682 215 445 | Cada 1070 millones de años (cuatro veces en la historia de la Tierra) |
μ ± xσ | 1 en | Cada días |
siendo la "fracción esperada de la población dentro del rango" en el intervalo dado.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.