Información de Fisher
De Wikipedia, la enciclopedia encyclopedia
En estadística matemática, la información de Fisher (a veces llamada simplemente información[1]) es una forma de medir la cantidad de información que una variable aleatoria observable X contiene sobre un parámetro desconocido θ de una distribución que modela X. Formalmente, es la varianza del score (o puntuación), o el valor esperado de la información observada.
El papel de la información de Fisher en la teoría asintótica de la estimación de máxima verosimilitud fue destacado por el estadístico Sir Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth). La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas a las estimaciones de máxima verosimilitud. También puede utilizarse en la formulación de pruebas estadísticas, como la prueba de Wald.
En la estadística bayesiana, la información de Fisher interviene en la derivación de distribuciones a priori no informativas según la regla de Jeffreys.[2] También aparece como la covarianza de grandes muestras de la distribución posterior, siempre que la distribución a priori sea suficientemente suave (un resultado conocido como el teorema de Bernstein-von Mises, que fue anticipado por Laplace para las familias exponenciales).[3] El mismo resultado se utiliza al aproximar la posterior con la aproximación de Laplace, donde la información de Fisher aparece como la covarianza de la gaussiana ajustada.[4]
Se ha demostrado que los sistemas estadísticos de carácter científico (físicos, biológicos, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen al máximo de información de Fisher.[5] El nivel del máximo depende de la naturaleza de las restricciones del sistema.