Loading AI tools
З Вікіпедії, вільної енциклопедії
Припустімо, що в статистиці нам було надано деякі дані, й ми будуємо статистичну модель цих даних. Відно́сна правдоподі́бність (англ. relative likelihood) порівнює відносні вірогідності (англ. plausibilities) різних моделей-кандидатів, або різних значень параметра єдиної моделі.
Припустімо, що нам надано деякі дані x, для яких ми маємо статистичну модель із параметром θ. Припустімо, що оцінкою θ методом максимальної правдоподібності є . Відносні вірогідності інших значень θ може бути знайдено порівнюванням правдоподібностей цих інших значень із правдоподібністю . Відносну правдоподібність θ означують як[1][2][3][4][5]
де позначує функцію правдоподібності. Таким чином, відносна правдоподібність є відношенням правдоподібностей з незмінним знаменником .
Функція
є функцією відносної правдоподібності (англ. relative likelihood function).
О́бласть правдоподі́́́бності (англ. likelihood region) — це множина всіх значень θ, чиї відносні правдоподібності є більшими або рівними заданому порогові. В термінах відсотків, p%-ву область правдоподібності для θ означують як[1][3][6]
Якщо θ є єдиним дійснозначним параметром, то p%-ва область правдоподібності зазвичай становить проміжок дійсних значень. Якщо ця область дійсно становить проміжок, то її називають про́міжком правдоподі́бності (англ. likelihood interval).[1][3][7]
Проміжки правдоподібності, та, загальніше, області правдоподібності використовують для проміжкового оцінювання[en] в правдоподібницькій статистиці: вони є подібними до довірчих проміжків у частотницькій статистиці та ймовірних проміжків у баєсовій статистиці. Проміжки правдоподібності тлумачать безпосередньо в термінах відносної правдоподібності, а не в термінах ймовірності накриття[en] (частотництво) чи апостеріорної ймовірності (баєсівство).
Для заданої моделі проміжки правдоподібності можливо порівнювати з довірчими проміжками. Якщо θ є єдиним дійснозначним параметром, то, за певних умов 14.65%-й проміжок правдоподібності (правдоподібність близько 1:7) для θ буде таким же, як і 95%-й довірчий проміжок (ймовірність накриття 19/20).[1][6] У дещо відмінному формулюванні, пристосованому для використання логарифмічних правдоподібностей (див. теорему Уілкса), перевірна статистика є подвоєною різницею логарифмічних правдоподібностей, а розподіл імовірності цієї перевірної статистики приблизно є розподілом хі-квадрат зі ступенями вільності, що дорівнюють різниці в ступенях вільності між цими двома моделями (тому проміжок правдоподібності e−2 є таким же, як і довірчий проміжок 0.954, за припущення, що різницею в ступенях вільності є 1).[6][7]
Означення відносної правдоподібності може бути узагальнено для порівнювання різних статистичних моделей. Це узагальнення ґрунтується на ІКА (інформаційному критерієві Акаіке, англ. AIC), або іноді на ІКАк (інформаційному критерієві Акаіке з коригуванням, англ. AICc).
Припустімо, що для деяких наданих даних ми маємо дві статистичні моделі, M1 та M2. Також припустімо, що AIC(M1 ) ≤ AIC(M2 ). Тоді відносну правдоподібність M2 по відношенню до M1 означують наступним чином:[8]
Щоби побачити, що це є узагальненням ранішого означення, припустімо, що ми маємо деяку модель M із (можливо, багатомірним) параметром θ. Тоді для будь-якого θ встановімо M2 = M(θ), а також встановімо M1 = M(). Це загальне означення тепер дає той самий результат, що й раніше означення.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.