Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior.[1][2][3] En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau.
Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907,[4] presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels deutors morosos, per planificar les necessitats de personal i per analitzar el reemplaçament d'equip.
Les seves aplicacions són diverses, com ara en els models estadístics de procesos del món real,[1][5][6][7] com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les dinàmiques poblacionals dels animals.[8]
Els processos de Markov són la base dels mètodes generals de simulació estocàstica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabilístiques complexes, i se n'han trobat aplicacions en l'estadística bayesiana, la termodinàmica, la mecànica estadística, la física, la química, l'economia, les finances, el processament de senyals, la teoria de la informació i la intel·ligència artificial.[8][9][10]
S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov.[1][11]
Definició formal
En les matemàtiques, es defineix com un procés estocàstic discret que compleix amb la propietat de Màrkov, és a dir, si es coneix la història del sistema fins a la seva moment actual, el seu estat present resumeix tota la informació rellevant per descriure en probabilitat el seu estat futur.
Una cadena de Màrkov és una seqüència X 1 , X 2 , X 3 , ... de variables aleatòries. El rang d'aquestes variables, és anomenat espai estat, el valor de X n és l'estat del procés en el temps n . Si la distribució de probabilitat condicional de X n +1 en estats passats és una funció de X n per si sola, aleshores:
On x i és l'estat del procés en l'instant i . La identitat mostrada és la propietat de Màrkov.
Notació útil
Cadenes homogènies i no homogènies
- Una cadena de Markov es diu homogènia si la probabilitat d'anar de l'estat i a l'estat j en un pas no depèn del temps en què es troba la cadena, és a dir:
- per a tot ni per a qualsevol i, j.
Si per alguna parella d'estats i per algun temps n la propietat abans esmentada no es compleix direm que la cadena de Màrkov és no homogènia.
Probabilitats de transició i matriu de transició
- La probabilitat d'anar de l'estat i a l'estat j a n unitats de temps és
- ,
en la probabilitat de transició en un pas s'omet el superíndex de manera que queda
Les probabilitats de transició solen venir donades mitjançant números reals. Si aquestes probabilitats no es coneixen de manera precisa, cal estimar-les d'alguna manera amb la incertesa que implica qualsevol procediment d'estimació.[12][13] Així, per exemple, es poden estimar mitjançant intervals modals[14] o per números borrosos.[15]
- Un fet important és que les probabilitats de transició en n passos satisfan l'equació de Chapman-Kolmogórov, és a dir, per a qualsevol k tal que 0 < k < n es compleix que
on E denota l'espai d'estats.
- Quan la cadena de Màrkov és homogènia, moltes de les seves propietats útils es poden obtenir a través de la seva matriu de transició, definida entrada a entrada com
és a dir, l'entrada i, j correspon a la probabilitat d'anar de l'estat iaj en un pas.
De la mateixa manera es pot obtenir la matriu de transició en n passos com:
, on .
Vector de probabilitat invariant
- Es defineix la distribució inicial .
- Direm que un vector de probabilitat (finit o infinit numerable) és invariant per a una cadena de Màrkov si
on P denota la matriu de transició de la cadena de Markov. Al vector de probabilitat invariant s'anomena distribució estacionària o distribució d'equilibri .
Classes de comunicació
- Per dos estats i , j en l'espai d'estats E , direm que d' i s'accedeix a j (i es denotarà ) si
- per algun n ,
si i llavors direm que i comunica amb j i es denotarà i ↔ j.
La propietat "↔" és una relació d'equivalència. Aquesta relació indueix una partició de l'espai d'estats. A aquestes classes d'equivalència les anomenarem classes de comunicació .
Donat un estat x , denotarem a la seva classe de comunicació com C (x) .
- Direm que un subconjunt C de l'espai d'estats (al qual denotarem E ) és tancat si cap estat de E -C pot ser accedit des d'un estat de C, és a dir, si per a tot x ∈ C, per a tot i ∈ E -C i per a tot natural m> 0.
Temps d'entrada
Si , definim el primer temps d'entrada a C com la variable aleatòria
és a dir, denota la primera vegada que la cadena entra al conjunt d'estats C.
Recurrència
En una cadena de Màrkov amb espai d'estats E , si x ∈ E es defineix i direm que:
- X és estat recurrent si .
- X és transitori si
- X és absorbent si
- Una classe de comunicació és classe recurrent si tots els seus estats són recurrents.
Sigui , si x ∈ E direm que:
- X és zero-recurrent si
- X és positiu-recurrent si
El reial s'interpreta com el temps mitjà de recurrència.
Periodicitat
- L' període d'un estat x ∈ E es defineix com:
on denota el màxim comú divisor.
- Si d (x) = 1 direm que x és un estat aperiòdic .
- Una cadena de Màrkov es diu aperiòdica si tots els seus estats són aperiòdics.
Tipus de cadenes de Màrkov
Cadenes irreductibles
Una cadena de Màrkov es diu irreductible si es compleix qualsevol de les següents condicions (equivalents entre si):
1. Des de qualsevol estat de E es pot accedir a qualsevol altre.
2. Tots els estats es comuniquen entre si.
3. C (x) = E per algun x ∈ E .
4. C (x) = E per a tot x ∈ E .
5. L'únic conjunt tancat és el total.
La cadena d'Ehrenfest o el camí aleatori sense barreres absorbents són exemples de cadenes de Màrkov irreductibles.
Cadenes positiu-recurrents
Una cadena de Màrkov es diu positiu-recurrent si tots els seus estats són positiu-recurrents. Si la cadena és més irreductible és possible demostrar que existeix un únic vector de probabilitat invariant i està donat per:
Cadenes regulars
Una cadena de Màrkov es diu regular (també primitiva o ergòdica ) si hi ha alguna potència positiva de la matriu de transició les entrades siguin totes estrictament majors que zero.
Quan l'espai d'estats E és finit, si P denota la matriu de transició de la cadena s'ha de:
on W és una matriu amb tots els seus línies iguals a un mateix vector de probabilitat w , que resulta ser el vector de probabilitat invariant de la cadena. En el cas de cadenes regulars, aquest vector invariant és únic.
Cadenes absorbents
Una cadena de Màrkov amb espai d'estats finit es diu absorbent si es compleixen les dues condicions següents:
1. La cadena té almenys un estat absorbent.
2. De qualsevol estat no absorbent s'accedeix a algun estat absorbent.
Si denotem com A al conjunt de tots els estats absorbents i al seu complement com D , tenim els següents resultats:
- La seva matriu de transició sempre es pot portar a una de la forma
on la submatriu Q correspon als estats del conjunt D, I és la matriu identitat, 0 és la matriu nul i R alguna submatriu.
- , és a dir, no importa on es trobi la cadena, eventualment acabarà en un estat absorbent.
Cadenes de Màrkov en temps continu
Si en lloc de considerar una seqüència discreta X 1 , X 2 ,..., X i , .. amb i indexat en el conjunt de nombres naturals, es consideren les variables aleatòries X t amb t que varia en un interval continu del conjunt de nombres reals, tindrem una cadena en temps continu. Per a aquest tipus de cadenes en temps continu la propietat de Markov s'expressa de la següent manera:
- tal que
Aplicacions
Física
Les cadenes de Màrkov són usades en molts problemes de la termodinàmica i la física estadística. Exemples importants es poden trobar a la Cadena de Ehrenfest o el model de difusió de Laplace.
Meteorologia
Si considerem el clima d'una regió a través de diferents dies, és clar que l'estat actual només depèn de l'últim estat i no de tota la història en si, de manera que es poden utilitzar cadenes de Markov per formular models climatològics bàsics.
Models epidemiològics
Una important aplicació de les cadenes de Màrkov es troba en el procés de Galton-Watson. Aquest és un procés de ramificació que es pot fer servir, entre altres coses, per modelar el desenvolupament d'una epidèmia (vegeu modelatge matemàtic d'epidèmies).
Internet
El pagerank d'una pàgina web (usat per google en els seus motors de cerca) es defineix a través d'una cadena de Markov, on la posició que tindrà una pàgina en el cercador serà determinada pel seu pes en la distribució estacionària de la cadena.
Jocs d'atzar
Són molts els jocs d'atzar que es poden modelar a través d'una cadena de Màrkov. El model de la ruïna del jugador, que estableix la probabilitat que una persona que aposta en un joc d'atzar eventualment acabi sense diners, és una de les aplicacions de les cadenes de Màrkov en aquest rubro.
Economia i Finances
Les cadenes de Màrkov es poden utilitzar en models simples de valoració d'opcions per determinar quan hi ha oportunitat d'arbitratge, així com en el model de col·lapses d'una borsa de valors o per determinar la volatilitat de preus.
Música
Diversos algorismes de composició musical fan servir cadenes de Màrkov, per exemple el programari Csound o Max.
Referències
Bibliografia
Enllaços externs
Wikiwand in your browser!
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.