Entropia incrociata
Da Wikipedia, l'enciclopedia encyclopedia
Nella teoria dell'informazione, l'entropia incrociata (o cross-entropia) fra due distribuzioni di probabilità e , relative allo stesso insieme di eventi, misura il numero medio di bit necessari per identificare un evento estratto dall'insieme nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità piuttosto che per la distribuzione vera .
Questa pagina sull'argomento Matematica sembra trattare argomenti unificabili alla pagina Entropia (teoria dell'informazione).