Statistická nezávislost
stav, kdy výskyt jednoho náhodného jevu nemá vliv na pravděpodobnost výskytu druhého jevu / From Wikipedia, the free encyclopedia
Nezávislost je základní pojem teorie pravděpodobnosti, matematické statistiky a teorie stochastických procesů. Dva náhodné jevy jsou nezávislé, statisticky nezávislé nebo stochasticky nezávislé,[1] pokud výskyt jednoho nemá vliv na pravděpodobnost výskytu druhého (ekvivalentně řečeno, nemá vliv na šance výskytu druhého jevu). Podobně jsou dvě náhodné veličiny nezávislé, pokud realizace jedné neovlivní rozdělení pravděpodobnosti druhé. Definiční a často využívanou vlastností nezávislých jevů je, že pravděpodobnost jejich společného výskytu se rovná součinu pravděpodobností jejich výskytů. Opakem nezávislosti je statistická závislost, například korelace.
Pokud jde o soubor více než dvou jevů, je třeba rozlišovat slabé a silné pojetí nezávislosti. Jevy se nazývají po dvou nezávislé, pokud jsou jakékoli dva jevy v souboru nezávislé, a nezávislé (nebo kolektivně nezávislé), pokud každý jev je nezávislý na jakékoli kombinaci dalších jevů v souboru. Podobná definice platí pro soubory náhodných proměnných. Z (kolektivní) nezávislosti plyne nezávislost po dvou, ale naopak to neplatí.
Obecnějším konceptem je podmíněná nezávislost, která vyjadřuje, že dva náhodné jevy či veličiny A a B jsou nezávislé ve smyslu pravděpodobností podmíněných třetím náhodným jevem či veličinou Z. To neformálně řečeno znamená, že jakmile máme k dispozici informaci obsaženou v Z, není už další informace A užitečná pro přesnější poznání B ani znalost B nepřidá nic pro pochopení A, i kdyby A a B byly vzájemně závislé.