From Wikipedia, the free encyclopedia
Matemaattisessa tilastotieteessä ja informaatioteoriassa Fisher-informaatio voidaan määritellä pistemääräfunktion varianssina, tai havaitun informaation odotusarvona. Bayesiläisessä tilastotieteessä posteriorin asymptoottinen jakauma riippuu Fisher-informaatiosta, eikä priorista. Fisher-informaatiota käytetään bayesiläisessä tilastotieteessä myös Jeffreysin priorin laskemiseen.
Fisher-informaatiota merkitään ja sen tarkoitus on mitata kuinka paljon informaatiota havaittu aineisto sisältää parametrista . Koska pistemääräfunktion ensimmäinen momentti, eli odotusarvo on nolla niin sen varianssiksi, eli Fisher-informaatioksi, saadaan sen toinen momentti:
Mikäli log f(x; θ) on mahdollista derivoida kahdesti, voidaan Fisher-informaatio esittää myös muodossa:
Fisher-informaation voidaankin katsoa mittaavaan kaarevuutta suurimman uskottavuuden estimaatin lähellä. Itseisarvoltaan pienen Fisher-informaation omaavien uskottavuusfunktioiden kuvaajat ovat tasaisia ja sisältävät vähän informaatiota, kun taas paljon informaatiota sisältävien kuvaajat ovat kaarevampia ja Fisher-informaatio itseisarvoltaan suurempia.
Fisher-informaatio on additiivista. Toisistaan riippumattomien otosten sisältämän informaation määrä on otosten Fisher-informaatioiden summa.
Tyhjentävän tunnusluvun sisältämä Fisher-informaatio on sama kuin otoksen . Jos on tyhjentävä tunnusluku parametrille , niin silloin
joillekin funktioille g ja h.
Olkoon N parametria siten, että on N × 1 vektori niin Fisher-informaatiomatriisi on N × N matriisi:
Fisher-informatiomatriisi on N × N positiivisesti semidefiniitti symmetrinen matriisi. Tietyin oletuksin tämä matriisi voidaan esittää muodossa:
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.