Remove ads
sistema matemàtic From Wikipedia, the free encyclopedia
Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior.[1][2][3] En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau.
Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907,[4] presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels deutors morosos, per planificar les necessitats de personal i per analitzar el reemplaçament d'equip.
Les seves aplicacions són diverses, com ara en els models estadístics de procesos del món real,[1][5][6][7] com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les dinàmiques poblacionals dels animals.[8]
Els processos de Markov són la base dels mètodes generals de simulació estocàstica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabilístiques complexes, i se n'han trobat aplicacions en l'estadística bayesiana, la termodinàmica, la mecànica estadística, la física, la química, l'economia, les finances, el processament de senyals, la teoria de la informació i la intel·ligència artificial.[8][9][10]
S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov.[1][11]
En les matemàtiques, es defineix com un procés estocàstic discret que compleix amb la propietat de Màrkov, és a dir, si es coneix la història del sistema fins a la seva moment actual, el seu estat present resumeix tota la informació rellevant per descriure en probabilitat el seu estat futur.
Una cadena de Màrkov és una seqüència X 1 , X 2 , X 3 , ... de variables aleatòries. El rang d'aquestes variables, és anomenat espai estat, el valor de X n és l'estat del procés en el temps n . Si la distribució de probabilitat condicional de X n +1 en estats passats és una funció de X n per si sola, aleshores:
On x i és l'estat del procés en l'instant i . La identitat mostrada és la propietat de Màrkov.
Si per alguna parella d'estats i per algun temps n la propietat abans esmentada no es compleix direm que la cadena de Màrkov és no homogènia.
en la probabilitat de transició en un pas s'omet el superíndex de manera que queda
Les probabilitats de transició solen venir donades mitjançant números reals. Si aquestes probabilitats no es coneixen de manera precisa, cal estimar-les d'alguna manera amb la incertesa que implica qualsevol procediment d'estimació.[12][13] Així, per exemple, es poden estimar mitjançant intervals modals[14] o per números borrosos.[15]
on E denota l'espai d'estats.
és a dir, l'entrada i, j correspon a la probabilitat d'anar de l'estat iaj en un pas.
De la mateixa manera es pot obtenir la matriu de transició en n passos com:
, on .
on P denota la matriu de transició de la cadena de Markov. Al vector de probabilitat invariant s'anomena distribució estacionària o distribució d'equilibri .
si i llavors direm que i comunica amb j i es denotarà i ↔ j.
La propietat "↔" és una relació d'equivalència. Aquesta relació indueix una partició de l'espai d'estats. A aquestes classes d'equivalència les anomenarem classes de comunicació .
Donat un estat x , denotarem a la seva classe de comunicació com C (x) .
Si , definim el primer temps d'entrada a C com la variable aleatòria
és a dir, denota la primera vegada que la cadena entra al conjunt d'estats C.
En una cadena de Màrkov amb espai d'estats E , si x ∈ E es defineix i direm que:
Sigui , si x ∈ E direm que:
El reial s'interpreta com el temps mitjà de recurrència.
on denota el màxim comú divisor.
Una cadena de Màrkov es diu irreductible si es compleix qualsevol de les següents condicions (equivalents entre si):
1. Des de qualsevol estat de E es pot accedir a qualsevol altre.
2. Tots els estats es comuniquen entre si.
3. C (x) = E per algun x ∈ E .
4. C (x) = E per a tot x ∈ E .
5. L'únic conjunt tancat és el total.
La cadena d'Ehrenfest o el camí aleatori sense barreres absorbents són exemples de cadenes de Màrkov irreductibles.
Una cadena de Màrkov es diu positiu-recurrent si tots els seus estats són positiu-recurrents. Si la cadena és més irreductible és possible demostrar que existeix un únic vector de probabilitat invariant i està donat per:
Una cadena de Màrkov es diu regular (també primitiva o ergòdica ) si hi ha alguna potència positiva de la matriu de transició les entrades siguin totes estrictament majors que zero.
Quan l'espai d'estats E és finit, si P denota la matriu de transició de la cadena s'ha de:
on W és una matriu amb tots els seus línies iguals a un mateix vector de probabilitat w , que resulta ser el vector de probabilitat invariant de la cadena. En el cas de cadenes regulars, aquest vector invariant és únic.
Una cadena de Màrkov amb espai d'estats finit es diu absorbent si es compleixen les dues condicions següents:
1. La cadena té almenys un estat absorbent.
2. De qualsevol estat no absorbent s'accedeix a algun estat absorbent.
Si denotem com A al conjunt de tots els estats absorbents i al seu complement com D , tenim els següents resultats:
on la submatriu Q correspon als estats del conjunt D, I és la matriu identitat, 0 és la matriu nul i R alguna submatriu.
Si en lloc de considerar una seqüència discreta X 1 , X 2 ,..., X i , .. amb i indexat en el conjunt de nombres naturals, es consideren les variables aleatòries X t amb t que varia en un interval continu del conjunt de nombres reals, tindrem una cadena en temps continu. Per a aquest tipus de cadenes en temps continu la propietat de Markov s'expressa de la següent manera:
Les cadenes de Màrkov són usades en molts problemes de la termodinàmica i la física estadística. Exemples importants es poden trobar a la Cadena de Ehrenfest o el model de difusió de Laplace.
Si considerem el clima d'una regió a través de diferents dies, és clar que l'estat actual només depèn de l'últim estat i no de tota la història en si, de manera que es poden utilitzar cadenes de Markov per formular models climatològics bàsics.
Una important aplicació de les cadenes de Màrkov es troba en el procés de Galton-Watson. Aquest és un procés de ramificació que es pot fer servir, entre altres coses, per modelar el desenvolupament d'una epidèmia (vegeu modelatge matemàtic d'epidèmies).
El pagerank d'una pàgina web (usat per google en els seus motors de cerca) es defineix a través d'una cadena de Markov, on la posició que tindrà una pàgina en el cercador serà determinada pel seu pes en la distribució estacionària de la cadena.
Són molts els jocs d'atzar que es poden modelar a través d'una cadena de Màrkov. El model de la ruïna del jugador, que estableix la probabilitat que una persona que aposta en un joc d'atzar eventualment acabi sense diners, és una de les aplicacions de les cadenes de Màrkov en aquest rubro.
Les cadenes de Màrkov es poden utilitzar en models simples de valoració d'opcions per determinar quan hi ha oportunitat d'arbitratge, així com en el model de col·lapses d'una borsa de valors o per determinar la volatilitat de preus.
Diversos algorismes de composició musical fan servir cadenes de Màrkov, per exemple el programari Csound o Max.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.