Entropia krzyżowa

wartość używana w teorii informacji Z Wikipedii, wolnej encyklopedii

Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].

Definicja

Wzór na entropię krzyżową dyskretnej zmiennej losowej o zbiorze wartości i zdefiniowanych na nich rozkładach prawdopodobieństw i [1]:

Interpretując entropię krzyżową jako miarę nietrafności, za przyjmuje się rozkład traktowany jako prawdziwy, a za rozkład oceniany[2].

Własności

Podsumowanie
Perspektywa

Ponieważ[2]

entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństwa oraz miary dywergencji Kullbacka-Leiblera między i [2]:

Traktując entropię krzyżową jako nietrafność względem można traktować ją jako sumę nietrafności związanej z niepewnością i nietrafności związanej z błędem względem [2].

Przypisy

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.