Loading AI tools
З Вікіпедії, вільної енциклопедії
У статистиці використання коефіціє́нтів Ба́єса (англ. Bayes factors) є баєсовою альтернативою класичній перевірці гіпотез.[1][2] Ба́єсове порівня́ння моде́лей є методом обирання моделі, що ґрунтується на коефіцієнтах Баєса.
Коефіцієнт Баєса | |
Названо на честь | Томас Баєс |
---|---|
Формула | |
Підтримується Вікіпроєктом | Вікіпедія:Проєкт:Математика |
Апостеріорна ймовірність Pr(M|D) моделі M при заданих даних D задається теоремою Баєса:
Ключовий залежний від даних член Pr(D|M) є правдоподібністю, він представляє ймовірність виникнення якихось даних за умови цієї моделі, M; його коректне обчислення є ключем до баєсового порівняння моделей.
При заданій задачі обирання моделі, в якій ми маємо зробити вибір серед двох моделей на підставі спостережуваних даних D, правдоподібність двох різних моделей M1 та M2, параметризованих векторами параметрів моделей та , оцінюється коефіцієнтом Баєса K, що задається як
Якщо замість інтегралу коефіцієнта Баєса використовується правдоподібність, що відповідає оцінці максимальної правдоподібності параметра кожної з моделей, тоді ця перевірка стає класичною перевіркою відношенням правдоподібностей.[джерело?] На відміну від перевірки відношенням правдоподібностей, це баєсове порівняння моделей не залежить від жодного окремого набору параметрів, оскільки воно інтегрується над усіма параметрами в кожній з моделей (по відношенню до відповідних апріорних ймовірностей). І тим не менш, перевагою використання коефіцієнтів Баєса є те, що воно автоматично і цілком природно включає штраф за надлишкове включення структури моделі.[3] Воно таким чином захищає від перенавчання. Для моделей, для яких точна версія правдоподібності є недоступною або занадто витратною для чисельного оцінювання, для вибору моделі у баєсовій мережі може використовуватися приблизне баєсове обчислення,[4] із застереженням, що приблизно-баєсові оцінки коефіцієнтів Баєса часто є упередженими.[5]
Іншими підходами є:
Значення K > 1 означає, що M1 підтримується даними, що розглядаються, сильніше, ніж M2. Зауважте, що класична перевірка гіпотез надає одній гіпотезі (або моделі) привілейованого статусу («нульова гіпотеза»), і розглядає лише свідчення проти неї. Гарольд Джеффріс запропонував шкалу для інтерпретації K:[6]
K | дХарт | біти | Сила свідчення |
---|---|---|---|
< 100 | < 0 |
негативна (підтримує M2) | |
100—101/2 | 0—5 |
0—1.6 |
заледве варта згадування |
101/2—101 | 5—10 |
1.6—3.3 |
істотна |
101—103/2 | 10—15 |
3.3—5.0 |
сильна |
103/2—102 | 15—20 |
5.0—6.6 |
дуже сильна |
> 102 | > 20 |
> 6.6 |
вирішальна |
Другий стовпчик подає відповідну вагу свідчення в децигартлі (також відомих як децибани); біти додано у третьому стовпчику для ясності. Згідно з І. Дж. Ґудом[en], зміна у вазі свідчення в 1 децибан або 1/3 біту (тобто, зміна у співвідношенні шансів з рівних до приблизно 5:4) є приблизно настільки тонкою, наскільки люди можуть розсудливо розрізняти свої міри переконання в гіпотезах у повсякденному вжитку.[7]
Альтернативну, широко цитовану таблицю запропоновано Кассом та Рафтері[en]:[3]
2 ln K | K | Сила свідчення |
---|---|---|
0—2 | 1—3 |
не варте більш ніж просто згадки |
2—6 | 3—20 |
позитивне |
6—10 | 20—150 |
сильне |
>10 | >150 |
дуже сильне |
Використання коефіцієнту Баєса або класичної перевірки гіпотез трапляється радше в контексті висновування, ніж ухвалення рішень в умовах невизначеності. Тобто, ми радше просто хочемо з'ясувати, яка з гіпотез є правильною, ніж справді ухвалювати рішення на базі цієї інформації. Частотне висновування проводить чітке розрізнення між цими двома, оскільки класичні перевірки гіпотез не є когерентними[en] у баєсовому сенсі. Баєсові процедури, включно з коефіцієнтами Баєса, є когерентними, тому немає потреби проводити таке розрізнення. Тоді висновування просто розглядається як особливий випадок ухвалення рішення в умовах невизначеності, в якому дією результату є повідомлення значення. Для ухвалення рішень баєсові статистики можуть використовувати коефіцієнт Баєса у поєднанні з апріорним розподілом та функцією втрат, пов'язаною зі здійсненням невірного вибору. В контексті висновування функція втрат набуватиме форми оцінювального правила[en]. Наприклад, використання логарифмічної оцінювальної функції[en] призводить до того, що очікувана корисність набуває форми відстані Кульбака — Лейблера.
Припустімо, що ми маємо випадкову змінну, що продукує успіх або невдачу. Ми хочемо порівняти модель M1, де ймовірністю успіху є q = ½, та іншу модель M2, де q є невідомим та ми приймаємо, що апріорним розподілом q є рівномірний на [0,1]. Ми робимо вибірку з 200, і виявляємо 115 успіхів та 85 невдач. Правдоподібність може бути обчислено згідно біноміального розподілу:
Отже, ми маємо
але
Тоді відношенням є 1.197…, що є «заледве вартим згадування», незважаючи на те, що воно вказує трішки в бік M1.
Це не є тим самим, що й класична перевірка відношенням правдоподібностей, що знайшла би оцінку максимальної правдоподібності для q, а саме 115⁄200 = 0.575, звідки (замість усереднення за всіма можливими q). Це дає відношення правдоподібностей 0.1045, і таким чином вказує на M2.
Сучасний метод відносної правдоподібності, на відміну від класичного відношення правдоподібностей, враховує кількість вільних параметрів у моделях. Метод відносної правдоподібності може застосовуватися наступним чином. Модель M1 має 0 параметрів, і тому значенням її ІКА є 2·0 − 2·ln(0.005956) = 10.2467. Модель M2 має 1 параметр, і тому значенням її ІКА є 2·1 − 2·ln(0.056991) = 7.7297. Отже, M1 є приблизно у exp((7.7297 − 10.2467)/2) = 0.284 разів ймовірнішою за M2 для мінімізації втрати інформації. Відтак, M2 є трохи кращою, але M1 не може виключатися.
Частотна перевірка гіпотези M1 (що розглядається тут як нульова гіпотеза) видала би тут зовсім інший результат. Така перевірка каже, що M1 мала би бути відкинутою на рівні значущості 5%, оскільки ймовірністю отримання 115 або більше успіхів з вибірки з 200, якщо q = ½, є 0.0200, та оскільки двобічний критерій[en] отримання значення настільки ж віддаленого, або віддаленішого за 115, є 0.0400. Зауважте, що 115 є у більш ніж двох стандартних відхиленнях від 100.
M2 є складнішою моделлю за M1, оскільки вона має вільний параметр, що дозволяє їй моделювати дані ближче. Здатність коефіцієнтів Баєса враховувати це є тією причиною, чому баєсове висновування було висунуто як теоретичне обґрунтування та узагальнення Бритви Оккама, що зменшує похибки першого роду.[8]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.