Processo markoviano: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Riga 1:
Un '''processo stocastico markoviano''' o '''processo di Markov''' è un [[processo stocastico]] nel quale la [[probabilità di transizione]] che determina il passaggio ada uno [[stato di sistema]]
dipende unicamente dallo stato di sistema immediatamente precedente ([[proprietà di Markov]])
e non dal ''come'' si è giunti a tale stato (in quest'ultima ipotesi si parla di ''processo non markoviano'').<br />
Riga 31:
: <math>P(X_{i+n}=x|X_i=y) =\ P(X_{i-1+n}=x|X_{i-1}=y) \ \ \ \ \ \forall i =\ 1,2,\ldots </math><br />
 
I sistemi reali che possono essere modellati con catene di Markov omogenee sono rari: è sufficiente pensare al sistema "tempo atmosferico" per capire come la probabilità di transizione da uno stato (per esempio "sole") ada un altro stato (per esempio "pioggia") dipende dalla stagione, quindi non è possibile modellare questo sistema come catena di Markov omogenea. Tuttavia, restringendo l'analisi del sistema ada un determinato intervallo di tempo, il comportamento si può considerare omogeneo: in questo caso, l'intervallo di tempo potrebbe essere una singola stagione.
 
=== Matrice di transizione ===
{{vedi anche|Matrice di transizione}}
Una ''catena di Markov omogenea a stati finiti'', in cui l'insieme <math>S</math> degli stati del sistema è finito e ha <math>N</math> elementi, può essere rappresentata mediante una '''matrice di transizione''' <math>A \in \mathbb{R}^{N \times N}</math> ede un vettore di probabilità iniziale <math>\tilde{\pi}_0 \in \mathbb{R}^N</math>.
 
Gli elementi di <math>A</math> rappresentano le probabilità di transizione tra gli stati della catena: una catena che si trovi nello stato ''i'' ha probabilità <math>a_{ij}</math> di passare allo stato ''j'' in un passo immediatamente successivo. In particolare gli elementi sulla diagonale principale di <math>A</math>, <math>a_{ii}</math> indicano le probabilità di rimanere sullo stesso stato ''i''. Il vettore <math>\tilde{\pi}_0</math> definisce le probabilità che inizialmente la catena di Markov si trovi in ciascuno degli <math>N</math> stati. Una catena di Markov omogenea è univocamente definita dalla coppia <math>(A,\tilde{\pi}_0)</math>.
 
Le probabilità che ada un tempo <math>t_n</math> il sistema si trovi in ognuno degli <math>N</math> stati (se al tempo <math>t_0</math> ha la distribuzione di probabilità <math>\tilde{\pi}_0</math>), in questo caso sono date dal vettore <math>\tilde{\pi}_n</math> così definito:
: <math> (\tilde{\pi}_n)^T=(\tilde{\pi}_0)^T\cdot A^n </math>
 
Riga 107:
*Il teorema di esistenza e unicità afferma che data una catena di Markov omogenea a stati discreti, con probabilità di transizione <math>P_{ij}</math> e spazio degli stati <math>S</math>, se la catena di Markov è irriducibile allora esiste un'unica distribuzione stazionaria <math>\pi</math> per la catena di Markov.
 
*Il teorema della convergenza afferma che data una catena di Markov omogenea a stati discreti, con probabilità di transizione <math>P_{ij}</math> e spazio degli stati <math>S</math>, se la catena di Markov è irriducibile ede aperiodica la distribuzione di probabilità <math>\tilde{\pi}_n</math> al tempo <math>t_n</math>, converge alla distribuzione stazionaria <math>\pi</math> per ogni distribuzione iniziale di probabilità <math>\tilde{\pi}_0</math> scelta. Si ha cioè
: <math> \forall \tilde{\pi}_0, \forall i,j \in S, \lim_{n \to \infty}\sum_{i \in S}(\tilde{\pi}_0)_i(P^{(n)})_{ij} = \pi_j </math>.