Catena di Markov - La rovina del giocatore
Ciao a tutti: qualcuno mi sa spiegare il famoso esempio "La rovina del giocatore" per le catene markoviane? Più precisamente il diagramma di stato dell'esempio riportato nella figura [sotto il testo dell'esercizio]
Un accanito giocatore entra in una sala da gioco con un capitale di m monete ed ogni volta che gioca punta una moneta e, con probabilità p, può vincere una moneta o perdere, con probabilità q=1-p, la moneta puntata; egli continua a giocare fino a quando non raggiunge un numero M di monete o finchè non va in rovina, cioè perde tutto.

Lo stato 0 e lo stato M sono chiari, nel senso è chiaro perchè sono rappresentati con la freccetta che ritorna su di essi (stati assorbenti), gli altri??
Grazie
Un accanito giocatore entra in una sala da gioco con un capitale di m monete ed ogni volta che gioca punta una moneta e, con probabilità p, può vincere una moneta o perdere, con probabilità q=1-p, la moneta puntata; egli continua a giocare fino a quando non raggiunge un numero M di monete o finchè non va in rovina, cioè perde tutto.

Lo stato 0 e lo stato M sono chiari, nel senso è chiaro perchè sono rappresentati con la freccetta che ritorna su di essi (stati assorbenti), gli altri??

Grazie

Risposte
con probabilità $p$ vai al numero successivo (vinci una moneta), con probabilità $q$ torni al precedente (perdi una moneta); non capisco cosa non è chiaro
"kobeilprofeta":
con probabilità $p$ vai al numero successivo (vinci una moneta), con probabilità $q$ torni al precedente (perdi una moneta); non capisco cosa non è chiaro
Ok chiaro. Ma perché dallo stato 0 allo stato 1 non c'è la freccia con la $p$? perché se ho zero monete non ho nulla da "puntare" e quindi non posso giocare?
penso di sí