Loading AI tools
З Вікіпедії, вільної енциклопедії
Тео́рія ймові́рностей[1] (імові́рностей[2]), тео́рія імові́рності[3] — розділ математики, що вивчає закономірності випадкових явищ: випадкові події, випадкові величини, їхні функції, властивості й операції над ними. Математичні моделі в теорії ймовірності описують з деяким ступенем точності випробування (експерименти, спостереження, вимірювання), результати яких неоднозначно визначаються умовами випробування.
Математичним апаратом теорії ймовірності є комбінаторика та теорія міри.
Теорія ймовірностей виникла і спершу розвивалася як прикладна дисципліна (зокрема, для розрахунків в азартних іграх). Пов'язана з іменами Х.Гюйґенса, Б.Паскаля, П.Ферма. Своїм теоретичним обґрунтуванням зобов'язана Я.Бернуллі, П.Лапласу, П. Л. Чебишову, А. М. Ляпунову.[4][5][6] Систему аксіом теорії ймовірностей сформулював А. М. Колмогоров.[7] Теорія ймовірностей є підґрунтям математичної статистики. Широко вживається для опису й вивчення різноманітних технологічних процесів зважаючи на їх стохастичність.
Виникнення теорії ймовірностей як науки відносять до середньовіччя і перших спроб математичного аналізу азартних ігор. Спочатку її основні поняття не мали строго математичного вигляду, до них можна було ставитися як до емпіричних фактів, властивостей реальних подій, і формулювалися вони в наочних уявленнях. Найперші наукові праці в галузі теорії ймовірностей належать до XVII століття. Досліджуючи прогнозування виграшу в азартних іграх, Блез Паскаль і П'єр Ферма відкрили перші ймовірнісні залежності, що виникають під час кидання гральних кубиків.
Вважають, що вперше Паскаль взявся за теорію ймовірностей під впливом питань, поставлених перед ним одним з придворних французького двору Шевальє де Мере (1607—1648), що був азартним гравцем, але гра для нього теж була приводом для досить глибоких роздумів. Де Мере запропонував Паскалю два відомі питання, перше з яких він спробував вирішити сам. Питання були такими:[8]
1. Скільки разів треба кинути два гральних кубика, щоб випадків випадання відразу двох шісток було більше половини від загальної кількості кидків?
2. Як справедливо розділити поставлені двома гравцями гроші, якщо вони з якихось причин припинили гру передчасно?
Ці задачі обговорювалися в листуванні Б. Паскаля і П. Ферма (1601—1665) і послужили приводом для запровадження поняття математичного сподівання, і спроб формулювання основних теорем додавання й добутку ймовірностей. Під впливом поставлених і розглянутих питань вирішенням тих же задач зайнявся Християн Гюйгенс. Він не був знайомий із листуванням Паскаля та Ферма, тому методику розв'язку винайшов самостійно. Його працю, в якій запроваджено основні поняття теорії ймовірностей (поняття ймовірності як величини шансу; математичне сподівання для дискретних випадків, у вигляді ціни шансу), а також використані теореми додавання і множення ймовірностей (не сформульовані явно), було надруковано 1657 року, на двадцять років раніше листів Паскаля і Ферма (1679 рік).
Справжню наукову основу теорії ймовірностей заклав великий математик Якоб Бернуллі (1654—1705). Його праця «Мистецтво припущень»[en] стала першим ґрунтовним трактатом з теорії ймовірностей. Вона містила загальну теорію перестановок і поєднань. А сформульований Бернуллі закон великих чисел дав можливість встановити зв'язок між імовірністю будь-якої випадкової події та частотою її появи, яка спостерігається безпосередньо з досвіду. У першій половині XIX століття теорія ймовірностей починає застосовуватися до аналізу похибок спостережень; Лаплас і Пуассон довели перші граничні теореми. У другій половині XIX століття значний доробок зробили російські вчені: П. Л. Чебишов, А. А. Марков і О. М. Ляпунов. Тоді було доведено закон великих чисел, центральну граничну теорему, а також розроблено теорію ланцюгів Маркова. Сучасного вигляду теорія ймовірностей набула завдяки аксіоматизації, яку запропонував Андрій Миколайович Колмогоров.[9]
Значний внесок в теорію ймовірностей зробив українсько-російський математик, академік НАН України, директор Інституту математики НАН України, лауреат премії імені П. Чебишева Гнєденко Борис Володимирович. Йому вдалося довести в остаточному формулюванні локальну граничну теорему для незалежних, однаково розподілених гратчастих доданків (1948 р.). В Україні він почав дослідження непараметричних методів статистики, закінчив роботу над підручником «Курс теорії ймовірностей»[10] (перше видання — 1949 р.) і монографією «Граничні розподіли для сум незалежних випадкових величин».
Врешті-решт теорія ймовірностей набула чіткого математичного вигляду та остаточно стала сприйматися як один із розділів математики.
Під випробуванням мається на увазі здійснення запланованих дій і отримання результату за виконання певного комплексу умов S. При цьому припускається, що ці умови є фіксованими; вони або об'єктивно існують, або створюються штучно й можуть бути відтворені необмежену кількість разів.
Прикладами випробування: виготовлення деталі або виробу, кидання монети або грального кубика, розігрування лотереї, проведення аукціону.
Предметом дослідження теорії ймовірності є особливі залежності, притаманні результатам масових однорідних (для яких зберігається комплекс умов S) випробувань. При цьому досліджуються випробування, які характеризуються статистичною регулярністю, хоча наслідки випробувань у кожному випадку можуть бути різними.
Результатом випробування є подія. Події поділяються на: достовірні/правдиві (однозначно відбудуться) та неможливі, сумісні та несумісні, еквівалентні/тотожні та протилежні. Позначаються великими латинськими літерами, наприклад, А, B, С.
Основні об'єкти дослідження теорії ймовірностей:
Поняття події краще розглядати в теоретико-множинному контексті.[кому?]
Нехай події Ai, (i = 1, 2, 3, 4, 5, 6) полягають у тому, що при одному киданні грального кубика випало очок ; подія А — парна кількість очок. Тоді подія А є множиною подій, елементами якої є події A2, A4, A6, тобто A = {A2, A4, A6}. Якщо при реалізації такої сукупності умов S відбулася одна з подій A2, A4, A6, то це означає, що відбулася подія А (випала парна кількість очок). Отже події A2, A4, A6 є реалізаціями, проявами події А.
Дискретна теорія ймовірностей розглядає події, які виникають у зліченних просторах подій.
Наприклад: кидання гральних кісточок, експерименти із колодою карт, випадкове блукання, і підкидання монет
Класичне визначення: Спочатку ймовірність події визначали як кількість випадків, у яких може трапитися подія, із загальної кількості можливих випадків у рівноймовірнісному просторі подій: див. класичне визначення ймовірності.
Наприклад, якщо подією є те, «що при киданні гральної кістки випаде парне число», то ймовірність становитиме , оскільки 3 грані з 6 мають нанесені на них парні числа, і кожна грань має однакову ймовірність випадання.
Сучасне визначення: Сучасне визначення починається зі скінченної або зліченної множини, що називають простором елементарних подій, яка відповідає множині всіх можливих випадків у класичному розумінні, і яку позначають через . Тоді вважають, що кожному елементові відповідає істинне значення «ймовірності» , яке задовольняє наступним властивостям:
Таким чином, функція ймовірностей набуває значень між нулем та одиницею для кожного значення у просторі подій , а сума за всіма значеннями у просторі подій дорівнює 1. Випадкова подія визначається як будь-яка підмножина простору елементарних подій . Ймовірність події визначають як
Таким чином, ймовірність повного простору подій дорівнює 1, а ймовірність нульової події дорівнює 0.
Функцію , що відображає точку в просторі подій на значення «ймовірності», називають функцією маси ймовірності, скорочено ФМІ. Сучасне визначення не намагається дати відповідь, як отримувати функції маси імовірності; натомість, воно вибудовує теорію, яка передбачає їхнє існування.
Неперервна теорія ймовірностей вивчає випадки, що виникають у неперервному просторі подій.
Класичне визначення: При стиканні з неперервним випадком класичне визначення не вибудовується. Див. парадокс Бертрана.
Сучасне визначення: Якщо вихідний простір випадкової величини X є множиною дійсних чисел () або її підмножиною, то існує функція, що називають кумулятивною функцією розподілу ймовірностей (КФР) , і визначають як . Функція F(x) повертає значення ймовірності, що відповідає тому що величина X є меншою або рівною x.
КФР обов'язково задовольняє наступним властивостям:
Якщо є абсолютно неперервною, тобто, існує її похідна, а інтегрування її похідної функції знову дає КФР, то кажуть, що випадкова величина X має функцію густини імовірності, або ФГІ, або просто густину
Для множини ймовірність того, що значення випадкової величини X знаходиться в , дорівнює
У випадку існування функції густини це можливо записати як
В той час як ФГІ існує лише для неперервних випадкових величин, КФР існує для всіх випадкових величин (в тому числі й для дискретних), що набувають значень в
Ці поняття можливо узагальнити й для багатовимірних випадків у просторі та інших неперервних просторів подій.
У теорії ймовірності існують декілька різних визначень збіжності випадкових величин. Вони перераховані нижче у порядку своєї суворості, тобто, будь-яке наступне поняття збіжності означає виконання збіжності попередніх.
Як зрозуміло із назв слабка збіжність є менш строгою ніж сильна збіжність. По суті, сильна збіжність передбачає збіжність за імовірністю, а збіжність за імовірністю передбачає слабку збіжність. Обернене твердження не завжди буде мати місце.
Інтуїтивно можна передбачити, що якщо монету підкинути багато разів, тоді приблизно половину разів вона падатиме чіт до гори, а іншу половину разів до гори випаде лишка. Крім того, чим більше разів підкидати монети, тим ймовірніше співвідношення кількості випадіння чіт до кількості лишків буде наближатися до одиниці. Сучасна теорія ймовірності надає формальне визначення цієї інтуїтивної здогадки, що відоме як закон великих чисел. Цей закон є визначальним, оскільки він не є припущенням яке лежить в основі теорії ймовірностей, а є теоремою, що доведена із її аксіом. Оскільки він пов'язує теоретично виведені ймовірності на основі частоти їх фактичного виникнення при реальному спостереженні, закон великих чисел є одним із найважливішим в історії статистичної теорії і має широке застосування.[11]
Закон великих чисел стверджує, що вибіркове середнє
послідовності незалежних і однаково розподілених випадкових величин збігається до їх спільного сподівання , за умови що математичне сподівання є скінченним.
Різні форми збіжності випадкових величин визначають як наслідок дві форми закону великих чисел: слабкий і сильний
Із закону великих чисел випливає, що навіть якщо ймовірність p є результатом спостережень за повторюваними незалежними експериментами, співвідношення частоти спостереження за цією подією до загальної кількості повторень експерименту буде збігатися до значення p.
Наприклад, якщо є незалежними випадковими величинами Бернуллі, що можуть приймати значення 1 із ймовірністю p і значення 0 із ймовірністю 1-p, тоді для всіх i, так що майже напевно збігається до p.
Центральна гранична теорема є одним із видатних результатів математики.[12] Вона пояснює всюдисуще існування нормального розподілу в природі.
Теорема стверджує, що середнє багатьох незалежних і однаково розподілених випадкових величин із скінченною дисперсією прямує до нормального розподілу незалежно від розподілу, якому слідує початкова випадкова величина. Формально, нехай є незалежними випадковими величинами із середнім та дисперсією Тоді послідовність випадкових величин
збігається за розподілом до випадкової величини із стандартним нормальним розподілом.
Ця особливість відрізняє предмет і методи теорії ймовірностей від предмету і методів математичної статистики, де випадкову змінну досліджують після одержання статистичного матеріалу.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.