En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min. Las entropías cuantifican la diversidad, incertidumbre o aleatoriedad de un sistema. La entropía de Rényi lleva el nombre de Alfréd Rényi.[1] En el contexto de estimación de la dimensión fractal, la entropía de Rényi forma la base del concepto de dimensiones generalizadas.
La entropía de Rényi de orden , donde y , se define como
.
Aquí, es una variable aleatoriadiscreta con resultados posibles y probabilidades correspondientes para , y el logaritmo es de base 2. Si las probabilidades son para todo , entonces todas las entropías de Rényi de la distribución son iguales: . En general, para todas las variables aleatorias discretas , es una función no creciente de .
Sus aplicaciones suelen utilizar la siguiente relación entre la entropía de Rényi y la norma p del vector de probabilidades:
.
donde la distribución de probabilidad discreta se interpreta como un vector en con y .
La entropía de Rényi para cualquier es Schur-cóncava.
Cuando α tiende a cero, la entropía de Rényi le da un peso cada vez más parejo a todos los eventos posibles, independientemente de sus probabilidades. En el límite α → 0, la entropía de Rényi es simplemente el logaritmo del tamaño del soporte de X. El límite α → 1 es la entropía de Shannon. Cuando α tiende a infinito, la entropía de Rényi está determinada por los eventos de mayor probabilidad.
En el límite , la entropía de Rényi converge a la entropía min:
De forma equivalente, la entropía min es el mayor número real b tal que todos los eventos ocurren con probabilidad a lo sumo .
El nombre entropía min proviene del hecho de que es la menor medida de la entropía de la familia de entropías de Rényi. En este sentido, es la manera más fuerte de medir la información contenida en una variable aleatoriadiscreta. En particular, la entropía min nunca es mayor que la entropía de Shannon.
La entropía min tiene importantes aplicaciones en extractores de aleatoriedad en ciencia computacional teórica: los extractores son capaces de extraer aleatoriedad de fuentes aleatorias que tienen gran entropía min. Tener simplemente una entropía de Shannon grande no es suficiente para ello.
Entropía lineal
Un caso particular de la entropía de Rényi corresponde a la entropía lineal ():
Se puede probar por derivación que es no creciente con ,[6] de la forma
Para valores de , también se cumplen desigualdades en el otro sentido. En particular, se tiene[9][citarequerida]
Por otro lado, la entropía de Shannon puede ser arbitrariamente grande para una variable aleatoria con una entropía min dada.[citarequerida]
Al igual que las entropías de Rényi absolutas, Rényi también definió un espectro de medidas de la divergencia generalizando la divergencia de Kullback-Leibler.[10]
La divergencia de Rényi de orden α o divergencia alfa de una distribución P respecto de una distribución Q se define como
donde 0 < α < ∞ y α ≠ 1. Se puede definir la divergencia de Rényi para los valores particulares α = 0, 1, ∞ tomando el límite, y en particular el límite α → 1 da la divergencia de Kullback-Leibler.
Algunos casos particulares:
: menos la probabilidad en Q de que pi > 0;
: menos dos veces el logaritmo del coeficiente de Bhattacharyya; (Nielseny Boltz (2009))
: el logaritmo del ratio esperado de las probabilidades;
: el logaritmo del ratio máximo de las probabilidades.
La divergencia de Rényi es de hecho una divergencia, lo que quiere decir simplemente que es mayor o igual que cero, siendo cero si y solo si P = Q. Para un par de distribuciones cualesquiera pero fijas P y Q, la divergencia de Rényi es no decreciente como función de su orden α, y es continua en elconjunto de α para los que es finita.
Esto último en particular significa que si buscamos una distribución p(x, a) que minimice la divergencia de alguna medida previa subyacente m(x, a), y obtenemos nueva información que solo afecta a la distribución a, entonces la distribución de p(x|a) permanece m(x|a), sin cambios.
Las otras divergencias de Rényi satisfacen los criterios de ser positivas y continuas; ser invariantes bajo transformaciones coordinadas inyectivas; y de combinarse aditivamente cuando A y X son independientes, de forma que p(A, X) = p(A)p(X), luego
y
Las propiedades más fuertes de las cantidades α = 1, que permiten definir la información condicional y la información mutua en teoría de comunicación, pueden ser muy importantes en otras aplicaciones, o completamente irrelevantes, dependiendo de las necesidades de tales aplicaciones.
Las entropías de Rényi y las divergencias para una familia exponencial admiten expresiones simples[11]
La entropía de Rényi en física cuántica no se considera un observable, debido a su dependencia no lineal con la matriz de densidad. La entropía de Shannon comparte esta dependencia no lineal. Ansari y Nazarov mostraron una correspondencia que revela el significado físico del flujo de entropía de Renyi en el tiempo. Su propuesta es similar al teorema de fluctuación-disipación en espíritu y permite la medida de la entropía cuántica usando la estadística de contado completo de las transferencias de energía.[12][13][14]
Van Erven, Tim; Harremoës, Peter (2014). «Rényi Divergence and Kullback–Leibler Divergence». IEEE Transactions on Information Theory60 (7): 3797-3820. doi:10.1109/TIT.2014.2320500.
Nielsen, F.; Boltz, S. (2010). «The Burbea-Rao and Bhattacharyya centroids». IEEE Transactions on Information Theory57 (8): 5455-5466. arXiv:1004.5049. doi:10.1109/TIT.2011.2159046.