Loading AI tools
sistema matematico Da Wikipedia, l'enciclopedia libera
Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato.[1] Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router.
Un processo di Markov può essere descritto per mezzo dell'enunciazione della proprietà di Markov, o condizione di "assenza di memoria", che può essere scritta come:
Una catena di Markov è un processo di Markov con spazio degli stati discreto, quindi è un processo stocastico che assume valori in uno spazio discreto e che gode della proprietà di Markov. L'insieme di spazio degli stati può essere finito o infinito numerabile. Nel primo caso si parla di catena di Markov a stati finiti. Una catena di Markov può essere tempo-continua o tempo-discreta, in base all'insieme di appartenenza della variabile tempo (continuo o discreto).
Formalmente una catena di Markov è un processo stocastico Markoviano caratterizzato da un parametro , da un insieme di stati e da una funzione probabilità di transizione .
Essendo un processo Markoviano, gode della proprietà di Markov:
Nel caso di catena di Markov a tempo discreto, cioè con l'insieme discreto, la notazione si semplifica:
Una catena di Markov omogenea è un processo markoviano in cui la probabilità di transizione al tempo non dipende dal tempo stesso, ma soltanto dallo stato del sistema al tempo immediatamente precedente . In altre parole, la probabilità di transizione è indipendente dall'origine dell'asse dei tempi e quindi dipende soltanto dalla distanza tra i due istanti temporali.
Per le catene omogenee vale la condizione
Più in generale si dimostra che in una catena di Markov omogenea la probabilità di transizione da uno stato a un altro in passi è costante nel tempo:
I sistemi reali che possono essere modellati con catene di Markov omogenee sono rari: è sufficiente pensare al sistema "tempo atmosferico" per capire come la probabilità di transizione da uno stato (per esempio "sole") a un altro stato (per esempio "pioggia") dipende dalla stagione, quindi non è possibile modellare questo sistema come catena di Markov omogenea. Tuttavia restringendo l'analisi del sistema a un determinato intervallo di tempo si può considerare il comportamento omogeneo: in questo caso l'intervallo di tempo potrebbe essere una singola stagione.
Una catena di Markov omogenea a stati finiti in cui l'insieme degli stati del sistema è finito e ha elementi può essere rappresentata mediante una matrice di transizione e un vettore di probabilità iniziale .
Gli elementi di rappresentano le probabilità di transizione tra gli stati della catena: una catena che si trova nello stato ha probabilità di passare allo stato j nel passo immediatamente successivo. In particolare gli elementi sulla diagonale principale di indicano le probabilità di rimanere nello stesso stato . Il vettore definisce le probabilità che inizialmente la catena di Markov si trovi in ciascuno degli stati. Una catena di Markov omogenea è univocamente definita dalla coppia .
Se al tempo ha la distribuzione di probabilità allora le probabilità che a un tempo il sistema si trovi in ciascuno degli stati sono date dal vettore così definito:
dove indica la trasposta del vettore .
Dalla definizione assiomatica della probabilità discendono le seguenti proprietà per la matrice :
La seconda proprietà equivale a richiedere che la somma degli elementi su ciascuna riga sia uguale a 1, nel qual caso la matrice si dice anche stocastica.
Per esempio, e possono essere i seguenti:
Nel caso di una catena di Markov omogenea a stati discreti si può adottare la notazione sintetica:
dove (n) non è un esponente bensì è un indice.
Si ha quindi .
Si hanno le seguenti proprietà:
Il periodo di uno stato di una catena di Markov a stati discreti, con finito o infinito numerabile, è definito come il minimo numero di passi temporali affinché vi sia una probabilità diversa da zero di tornare sullo stesso stato, partendo dallo stato al tempo . Formalmente il periodo è definito come segue:
dove MCD indica il massimo comune divisore.
Nel caso di una catena di Markov omogenea a stati finiti con numero di stati , rappresentabile quindi con una matrice , si può riformulare la definizione così:
Lo stato è detto aperiodico se il suo periodo è uguale a 1.
Una catena di Markov è detta aperiodica se tutti i suoi stati sono aperiodici, altrimenti è detta periodica.
Una catena di Markov a stati discreti è detta irriducibile se partendo da ogni stato c'è una probabilità maggiore di zero di raggiungere ogni altro stato . Formalmente una catena di Markov è irriducibile se:
Sia
lo stato si dice ricorrente positivo se
Se una catena è irriducibile e un suo stato è ricorrente positivo allora tutti i suoi stati sono ricorrenti positivi, in tale caso la catena si dice ricorrente positiva.
Data una catena di Markov omogenea a stati discreti, una sua distribuzione stazionaria di probabilità, detta anche distribuzione di equilibrio, è una distribuzione discreta di probabilità che soddisfa le seguenti:
Informalmente una distribuzione stazionaria è una distribuzione di probabilità che si mantiene costante all'evolversi nel tempo della catena di Markov.
L'importanza delle distribuzioni stazionarie per le catene di Markov omogenee a stati discreti è data dai seguenti teoremi:
La convergenza di una catena di Markov a una distribuzione stazionaria e la possibilità di costruire una catena con una distribuzione stazionaria scelta sono alla base del funzionamento dell'algoritmo di Metropolis-Hastings.
Una catena di Markov si definisce ergodica se e solo se per ogni istante iniziale e per ogni condizione iniziale di probabilità esiste ed è indipendente da e da il limite della probabilità per tempi infiniti
Anche gran parte della modellistica di serie temporali in finanza si basa su processi stocastici generati da catene di Markov.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.