Remove ads
wartość używana w teorii informacji Z Wikipedii, wolnej encyklopedii
Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].
Wzór na entropię krzyżową dyskretnej zmiennej losowej o zbiorze wartości i zdefiniowanych na nich rozkładach prawdopodobieństw i [1]:
Interpretując entropię krzyżową jako miarę nietrafności, za przyjmuje się rozkład traktowany jako prawdziwy, a za rozkład oceniany[2].
Ponieważ[2]
entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństwa oraz miary dywergencji Kullbacka-Leiblera między i [2]:
Traktując entropię krzyżową jako nietrafność względem można traktować ją jako sumę nietrafności związanej z niepewnością i nietrafności związanej z błędem względem [2].
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.