Proprietà serie temporali

Lars1986
Salve ragazzuoli,
ho una domanda !!!
se ho un ps. così caratterizzato:

yt = yt −1 + ϵt + θϵt−1 , ϵt ∼ W N (0, σ^2 ).

quali sono i suoi momenti e la fac ??

Grazie in anticipo.

Risposte
olaxgabry
Ciao, ad occhio quello che vedo è un processo ARMA(1,1) non stazionario perché la radice del polinomio autoregressivo è 1. I momenti quindi non sono stazionari, nel tuo caso direi la varianza. Per fare i calcoli utilizzarei la scomposizione di Beveridge-Nelson: fammi sapere se la conosci altrimenti cercherò di fare il tutto diversamente.

olaxgabry
Prova a ragionare in questo modo: il processo lo puoi scrivere come

$X_{t}=X_{t-1}+(1+\theta B)\epsilon_{t}$

Supponendo che il processo parti da $X_{0}=0$, allora puoi ottenere ricorsivamente che

$X_{t}=X_{0}+(1+\theta B)\sum_{i=1}^{t}\epsilon_{i}=(1+\theta B)\sum_{i=1}^{t}\epsilon_{i}$

Ora calcolare i momenti non ti dovrebbe essere complicato: fammi sapere se hai problemi.

Lars1986
mhhhhh penso di no
comunque dimmi se sta facendo bene
il processo lo devo portare nella forma
yt = yt −1 + ϵt + θϵt −1 = yt −1 + (1 + θL)ϵt
poi vado "indietro" ed ho:
yt-1 = yt −2 + (1 + θL)ϵt-1
yt-2 = yt −3 + (1 + θL)ϵt-2
....
quindi mediante sostituzione successiva ho
yt = yt −2 + (1 + θL)ϵt-1 + (1 + θL)ϵt =
=yt −3 + (1 + θL)ϵt-2 + (1 + θL)ϵt-1 + (1 + θL)ϵt =
....
= (1 + θL) (ϵt + ϵt-1 + ϵt-2 + ... + ϵt-k)

pertanto
E(yt)= 0
γ(0) = E[( yt −1 + (1 + θL)ϵt )yt ] =
= E[( yt −1 ) yt ] + E[(1 + θL)ϵt )yt ]
= γ(1) + (σ^2) (1 + θ^2 ) (??????)
poi
γ(1) = E[( yt −1 + (1 + θL)ϵt )yt-1 ] =
= E[( yt −1 ) yt-1)] + E[(1 + θL)ϵt )yt-1 ] =
= γ(0) + θσ2

.....

γ(k) = E[( yt −1 + (1 + θL)ϵt )yt-k ]
= γ(0) + 0

pertanto la fac= γ(k)/γ(0) = 1

adesso non so se ho scritto una marea di cavolate :)

ti ringrazio tantissimo per il tuo aiuto !!!

olaxgabry
Guarda, una volta che decidi di scrivere il processo come (è uguale a come l'ho scritto io, con la differenza che io sono partito da t=0).

$X_{t}=(1 + θL) (ϵ_{t} + ϵ_{t-1} + ϵ_{t-2} + ... + ϵ_{1}) $

Da qui calcoliamoci la media

$E(X_{t})=0$

I momenti secondi sono

$Var(X_{t})= E(X_{t}^{2})=(1+\theta B)^{2}*\sigma^{2}*t$

Analogo per le autocovarianza: infatti

$\gamma(1) = E(X_{t}*X_{t-1})=(1+\theta B)^(2)*\sigma^(2)*(t-1)$

$\gamma(2) = (1+\theta B)^(2)*sigma^(2)*(t-2)$

In generale

$\gamma(\tau) = (1+\theta B)^(2)*\sigma^(2)*(t-\tau)$

Ora la acf è semplice. Ovvio che non necessariamente debba iniziare da t=0, ma il concetto non cambia.

Lars1986
mh mh ma perche
Var (xt) non prendo in considerazione E[( yt −1 ) yt ] ?? perche faccio anche qua la sostistuzione successiva ??
è questo il motivo per il quale (σ^2) (1 + θL )^2 viene moltiplicato prima per t, poi per (t-1) in γ(1) e così via ??
in questo caso la fac mi verrebbe -k(σ^2) (1 + θL )^2 / (σ^2) (1 + θL )^2 (??)

un altra cosa ho un altro problema che riguarda una funzione di verosimiglianza.
pero per quella non riesco a scriverla qua. se mi mandi una mail al mio indirizzo (gatsu_lond@hotmail.it) ti mando il foglio che ho scritto e ho scannerizzato.

Ti ringrazio ancora tantissimo !!

olaxgabry
Se $X_{t}$ ha media nulla, la varianza di $X_{t}$ è semplicemente il suo momento secondo ovvero

$Var(X_{t})=E(X_{t}^{2})$

Quando scrivi $E(X_{t}*X_{t-1)}$ quella è l'autocovarianza la ritardo 1, cioè $\gamma(1)$. Una volta che scrivi il processo in funzione dei ritardi del white noise le cose si semplificano, in sostanza non serve lavorare con le equazioni di YW.
Facciamo così: prova a postare il processo su cui devi stimare i parametri, poi proviamo a ragionarci sopra. Non che non voglia darti la mail (te la posto senza problemi via mp), ma continuiamo a scrivere qui anche perché qualcuno più esperto del sottoscritto potrebbe intervenire e dire la sua; inoltre in seguito qualcun altro potrebbe avere i tuoi stessi problemi, quindi potrebbe essere utile la nostra discussione.

Lars1986
ok ora lo metto,
grazie ancora !!!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.