función matemática con la que se calcula la probabilidad de cada resultado de un experimento De Wikipedia, la enciclopedia libre
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos y cada uno de los sucesos es el rango de valores de la variable aleatoria. También puede decirse que tiene una relación estrecha con las distribuciones de frecuencia. De hecho, una distribución de probabilidades puede comprenderse como una frecuencia teórica, ya que describe cómo se espera que varíen los resultados.
La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.
Variable aleatoria: Es aquella cuyo valor es el resultado de un evento aleatorio. Lo que quiere decir que son los resultados que se presentan al azar en cualquier evento o experimento.
Variable aleatoria discreta: Es aquella que solo toma ciertos valores (frecuentemente enteros) y que resulta principalmente del conteo realizado.
Variable aleatoria continua: Es aquella que resulta generalmente de la medición y puede tomar cualquier valor dentro de un intervalo dado.[1]
Esta división se realiza dependiendo del tipo de variable a estudiar. Las cuatro principales (de las que nacen todas las demás) son:
a) Si la variable es una variable discreta (números enteros), corresponderá una distribución discreta, de las cuales existen:
Además, se puede utilizar la «distribución de Poisson como una aproximación de la distribución binomial» cuando la muestra por estudiar es grande y la probabilidad de éxito es pequeña. De la combinación de los dos tipos de distribuciones anteriores (a y b), surge una conocida como «distribución normal como una aproximación de la distribución binomial y de Poisson».
Para dos números reales cualesquiera y tal que , los sucesos y son mutuamente excluyentes y su unión es el suceso ,
por lo que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución para todos los valores de la variable aleatoria conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Se denomina distribución de variable discreta a aquella cuya función de probabilidad solo toma valores positivos en un conjunto de valores de finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es la suma de la función de masa, por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde hasta el valor .
Tipos de distribuciones de variable discreta
Definidas sobre un dominio finito
La distribución binomial, que describe el número de aciertos en una serie de n experimentos independientes con posibles resultados binarios, es decir, de «sí» o «no», todos ellos con probabilidad de acierto p y probabilidad de fallo q = 1 − p.
La distribución beta-binomial, que describe el número de aciertos en una serie de n experimentos independientes con posibles resultados «sí» o «no», cada uno de ellos con una probabilidad de acierto variable definida por una beta.
La distribución degenerada en x0, en la que X toma el valor x0 con probabilidad 1. A pesar de que no parece una variable aleatoria, la distribución satisface todos los requisitos para ser considerada como tal.
La distribución uniforme discreta, que recoge un conjunto finito de valores que son resultan ser todos igualmente probables. Esta distribución describe, por ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de casino equilibrados (sin sesgo).
La distribución hipergeométrica, que mide la probabilidad de obtener x (0 ≤ x ≤ d) elementos de una determinada clase formada por d elementos pertenecientes a una población de N elementos, tomando una muestra de n elementos de la población sin reemplazo.
La distribución hipergeométrica no central de Fisher.
La distribución hipergeométrica no central de Wallenius.
La ley de Benford, que describe la frecuencia del primer dígito de un conjunto de números en notación decimal.
Definidas sobre un dominio infinito
La distribución binomial negativa o distribución de Pascal, que describe el número de ensayos de Bernoulli independientes necesarios para conseguir n aciertos, dada una probabilidad individual de éxito p constante.
La distribución geométrica, que describe el número de intentos necesarios hasta conseguir el primer acierto.
La distribución beta-binomial negativa, que describe el número de experimentos del tipo «sí/no» necesarios para conseguir n aciertos, cuando la probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo con una beta.
La distribución binomial negativa extendida.
La distribución de Boltzmann, importante en mecánica estadística, que describe la ocupación de los niveles de energía discretos en un sistema en equilibrio térmico. Varios casos especiales son:
La distribución de Poisson, que describe el número de eventos individuales que ocurren en un periodo de tiempo. Existen diversas variantes como la distribución de Poisson desplazada, la hiperdistribución de Poisson, la distribución binomial de Poisson y la distribución de Conway-Maxwell-Poisson, entre otras.
La distribución de Polya-Eggenberger.
La distribución Skellam, que describe la diferencia de dos variables aleatorias independientes con distribuciones de Poisson de distinto valor esperado.
La distribución de Yule-Simon.
La distribución zeta, que utiliza la función zeta de Riemman para asignar una probabilidad a cada número natural.
La ley de Zipf, que describe la frecuencia de utilización de las palabras de una lengua.
La ley de Zipf-Mandelbrot es una versión más precisa de la anterior.
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
Tipos de distribuciones de variable continua
Distribuciones definidas en un intervalo acotado
La distribución arcoseno, definida en el intervalo [a,b].
La distribución beta, definida en el intervalo [0, 1], que es útil a la hora de estimar probabilidades.
La distribución del coseno alzado, sobre el intervalo [μ-s,μ+s].
La distribución degenerada en x0, en la que X toma el valor x0 con probabilidad 1. Puede ser considerada tanto una distribución discreta como continua.
La distribución de Irwin-Hall o distribución de la suma uniforme, es la distribución correspondiente a la suma de n variables aleatorias i. i. d. ~ U(0, 1).
La distribución de Kent, definida sobre la superficie de una esfera unitaria.
La distribución de Kumaraswamy, tan versátil como la beta, pero con FDC y FDP más simples.
La distribución logarítmica continua.
La distribución logit-normal en (0, 1).
La distribución normal truncada, sobre el intervalo [a, b].
La distribución recíproca, un tipo de distribución inversa.
La distribución triangular, definida en [a, b], de la cual un caso particular es la distribución de la suma de dos variables independientes uniformemente distribuidas (la convolución de dos distribuciones uniformes).
La distribución uniforme continua definida en el intervalo cerrado [a, b], en el que la densidad de probabilidad es constante.
La distribución rectangular es el caso particular en el intervalo [-1/2, 1/2].
La distribución U-cuadrática, definida en [a, b], utilizada para modelar procesos bimodales simétricos.
La distribución von Mises, también llamada distribución normal circular o distribución Tikhonov, definida sobre el círculo unitario.
La distribución von Mises-Fisher, generalización de la anterior a una esfera N-dimensional.
La distribución semicircular de Wigner, importante en el estudio de las matrices aleatorias.
Definidas en un intervalo semi-infinito, usualmente [0,∞)
La distribución beta prima.
La distribución de Birnbaum-Saunders, también llamada distribución de resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.
La distribución χ² o distribución de Pearson, que es la suma de cuadrados de n variables aleatorias independientes gaussianas. Es un caso especial de la gamma, utilizada en problemas de bondad de ajuste.
La distribución chi-cuadrada inversa.
La distribución chi-cuadrada inversa escalada.
La distribución chi-cuadrada no central.
La distribución de Dagum.
La distribución exponencial, que describe el tiempo entre dos eventos consecutivos en un proceso sin memoria.
La distribución F, que es la razón entre dos variables y independientes. Se utiliza, entre otros usos, para realizar análisis de varianza por medio del test F.
La distribución gamma, que describe el tiempo necesario para que sucedan n repeticiones de un evento en un proceso sin memoria.
La distribución de Erlang, caso especial de la gamma con un parámetro k entero, desarrollada para predecir tiempos de espera en sistemas de líneas de espera.
La distribución gamma inversa.
La distribución gamma-Gompertz, que se utiliza en modelos para estimar la esperanza de vida.
La distribución de Weibull o distribución de Rosin-Rammler, para describir la distribución de tamaños de determinadas partículas.
La distribución Z de Fisher.
Definidas en la recta real completa
La distribución de Behrens-Fisher, que surge en el problema de Behrens-Fisher.
La distribución de Cauchy, un ejemplo de distribución que no tiene expectativa ni varianza. En física se le llama función de Lorentz, y se asocia a varios procesos.
La distribución estable o distribución asimétrica alfa-estable de Lévy, es una familia de distribuciones usadas e multitud de campos. Las distribuciones normal, de Cauchy, de Holtsmark, de Landau y de Lévy pertenecen a esta familia.
La distribución estable geométrica.
La distribución de Fisher-Tippett o distribución del valor extremo generalizada.
La distribución de Gumbel o log-Weibull, caso especial de la Fisher-Tippett.
La distribución de Gumbel tipo-1.
La distribución de Holtsmark, ejemplo de una distribución con expectativa finita pero varianza infinita.
La distribución logística, descrita por la función logística.
La distribución logística generalizada.
La distribución map-Airy.
La distribución normal, también llamada distribución gaussiana o campana de Gauss. Está muy presente en multitud de fenómenos naturales debido al teorema del límite central: toda variable aleatoria que se pueda modelar como la suma de varias variables independientes e idénticamente distribuidas con expectativa y varianza finita, es aproximadamente normal.
La distribución normal generalizada.
La distribución normal asimétrica.
La distribución gaussiana exponencialmente modificada, la convolución de una normal con una exponencial.
La distribución normal-exponencial-gamma.
La distribución gaussiana menos exponencial es la convolución de una distribución normal con una distribución exponencial (negativa).
La distribución de Voigt, o perfil de Voigt, es la convolución de una distribución normal y una Cauchy. Se utiliza principalmente en espectroscopía.
La distribución de Fisher-Tippett o distribución del valor extremo generalizada, puede estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus parámetros.
La distribución de Pareto generalizada está definida en un dominio que puede estar acotado inferiormente o acotado por ambos extremos.
La distribución lambda de Tukey, puede estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus parámetros.
La distribución de Wakeby.
Distribuciones mixtas discreta/continua
La distribución gaussiana rectificada, es una distribución normal en la que los valores negativos son sustituidos por un valor discreto en cero.
La fórmula de muestreo de Ewens o distribución multivariante de Ewens, es la distribución de probabilidad del conjunto de todas las particiones de un entero n, utilizada en el análisis genético de poblaciones.
El modelo de Balding-Nichols, utilizado en el análisis genético de poblaciones.