Loading AI tools
Da Wikipedia, l'enciclopedia libera
Nella teoria dell'informazione, l'entropia incrociata (o cross-entropia) fra due distribuzioni di probabilità e , relative allo stesso insieme di eventi, misura il numero medio di bit necessari per identificare un evento estratto dall'insieme nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità piuttosto che per la distribuzione vera .
L'entropia incrociata della distribuzione relativamente alla distribuzione è definita come
.
Se e sono distribuzioni di probabilità discrete la precedente assume la forma
,
che facendo uso della divergenza di Kullback-Leibler può anche essere riespressa come
dove è l'entropia della distribuzione di probabilità .
In alcuni contesti l'entropia incrociata viene anche indicata come , ma tale scelta può creare confusione in quanto adottata anche per denotare l'entropia congiunta delle due distribuzioni di probabilità e .
Grazie alla disuguaglianza di Jensen si può mostrare la non-negatività della divergenza di Kullback-Leibler; da questo risultato segue la disuguaglianza
,
in cui l'uguaglianza è soddisfatta per . Inoltre, poiché , segue anche per ogni e .
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.