Econometria Finanziaria Esercizi
Salve ho un altro problema da porre alla vostra gentile attenzione
:
Considerate il modello :
$y_t=\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t$
Con $u_t$ iid $(0,\sigma^2)$. Assumete sempre che le radici dell'equazione:
$1-\phi_1 L - \phi_2 L^2=(1-\rho_1 L)(1-p_2 L)=0$
Siano sempre reali e distinte.
(a) Definire le condizioni sui parametri tali per cui $y_t$ sia un processo lineare.
(b) Qual è la definizione di questo modello?
(c) Derivare media, varianza e autocovarianza, quest'ultima solamente per il lag $1$, del processo aleatorio $y_t$
(d) Supponete ora che $u_t NID(0,\sigma^2)$ derivare lo stimatore efficiente di $\mu,\phi_1$ e $\phi_2$
(a) Affinchè $y_t$ sia un processo lineare deve essere rispettata la condizione di stazionarietà, si dimostra che la condizione di stazionarietà (Box & Jenkins) si ottiene quando le radici del polinomio caratteristico sono in modulo maggiori di $1$, ovvero sono esterne al cerchio unitario $|rho_1 |>1$ e $|rho_2 |>1$, e si dimostra che per soddisfare tali condizioni devono verificarsi le seguenti disuguaglianze:
$\phi_1+\phi_2<1$
$\phi_2-\phi_1<1$
$1<\phi_2<1$
(b) La definizione di questo modello è un processo autoregressivo di ordine $2$, $AR(2)$
( c ) Per derivare la media posso operare in due modi, (quale è più gradito ?)
Modo 1:
Se il processo è scritto come:
$y_t=\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t$
Allora passando alla media ho:
$E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t]$
Usando la linearità della media, la media di una costante è una costante e il fatto che $u_t$ sia un white noise:
$E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t]=\mu + \phi_1E[y_{t-1}]+ \phi_2 E[y_{t-2}]$
A questo punto uso che il processo gode della proprietà di stazionarietà debole quindi $E[y_{t}]=E[y_{t-1}]=E[y_{t-2}]$ e ottengo:
$E[y_t]=\frac{\mu}{ 1- \phi_1- \phi_2 }$
Modo 2:
Scrivo $y_t$ come una combinazione lineare di white noise:
$y_t=\frac{\mu}{ 1- \phi_1- \phi_2 }+\sum_{u=0}^{\infty} \psi_u \epsilon_{t-u}$
Passando alla media e sfruttando che $\epsilon$ è un white-noise ottengo lo stesso.
Per la varianza arrivo con un po' di passaggi a:
$\gamma_0=\frac{\sigma_{\epsilon} ^2}{1-\phi_1^2}$
L'autocovarianza abbiamo:
$\gamma_1=\frac{\sigma_{\epsilon} ^2 \phi_1}{1-\phi_1^2}$
(d) Non saprei come operare… help!!!
I primi tre punti vanno bene? Grazie

Considerate il modello :
$y_t=\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t$
Con $u_t$ iid $(0,\sigma^2)$. Assumete sempre che le radici dell'equazione:
$1-\phi_1 L - \phi_2 L^2=(1-\rho_1 L)(1-p_2 L)=0$
Siano sempre reali e distinte.
(a) Definire le condizioni sui parametri tali per cui $y_t$ sia un processo lineare.
(b) Qual è la definizione di questo modello?
(c) Derivare media, varianza e autocovarianza, quest'ultima solamente per il lag $1$, del processo aleatorio $y_t$
(d) Supponete ora che $u_t NID(0,\sigma^2)$ derivare lo stimatore efficiente di $\mu,\phi_1$ e $\phi_2$
(a) Affinchè $y_t$ sia un processo lineare deve essere rispettata la condizione di stazionarietà, si dimostra che la condizione di stazionarietà (Box & Jenkins) si ottiene quando le radici del polinomio caratteristico sono in modulo maggiori di $1$, ovvero sono esterne al cerchio unitario $|rho_1 |>1$ e $|rho_2 |>1$, e si dimostra che per soddisfare tali condizioni devono verificarsi le seguenti disuguaglianze:
$\phi_1+\phi_2<1$
$\phi_2-\phi_1<1$
$1<\phi_2<1$
(b) La definizione di questo modello è un processo autoregressivo di ordine $2$, $AR(2)$
( c ) Per derivare la media posso operare in due modi, (quale è più gradito ?)
Modo 1:
Se il processo è scritto come:
$y_t=\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t$
Allora passando alla media ho:
$E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t]$
Usando la linearità della media, la media di una costante è una costante e il fatto che $u_t$ sia un white noise:
$E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t]=\mu + \phi_1E[y_{t-1}]+ \phi_2 E[y_{t-2}]$
A questo punto uso che il processo gode della proprietà di stazionarietà debole quindi $E[y_{t}]=E[y_{t-1}]=E[y_{t-2}]$ e ottengo:
$E[y_t]=\frac{\mu}{ 1- \phi_1- \phi_2 }$
Modo 2:
Scrivo $y_t$ come una combinazione lineare di white noise:
$y_t=\frac{\mu}{ 1- \phi_1- \phi_2 }+\sum_{u=0}^{\infty} \psi_u \epsilon_{t-u}$
Passando alla media e sfruttando che $\epsilon$ è un white-noise ottengo lo stesso.
Per la varianza arrivo con un po' di passaggi a:
$\gamma_0=\frac{\sigma_{\epsilon} ^2}{1-\phi_1^2}$
L'autocovarianza abbiamo:
$\gamma_1=\frac{\sigma_{\epsilon} ^2 \phi_1}{1-\phi_1^2}$
(d) Non saprei come operare… help!!!
I primi tre punti vanno bene? Grazie
Risposte
"squalllionheart":
(a) Affinchè $ y_t $ sia un processo lineare deve essere rispettata la condizione di stazionarietà, si dimostra che la condizione di stazionarietà (Box & Jenkins) si ottiene quando le radici del polinomio caratteristico sono in modulo maggiori di $ 1 $, ovvero sono esterne al cerchio unitario $ |rho_1 |>1 $ e $ |rho_2 |>1 $, e si dimostra che per soddisfare tali condizioni devono verificarsi le seguenti disuguaglianze:
$ \phi_1+\phi_2<1 $
$ \phi_2-\phi_1<1 $
$ 1<\phi_2<1 $
Parli di linearità (ancora) ... per quali valori dei parametri il processo che descrivi sarebbe non lineare ?
La linearità è una cosa, la stazionarietà un'altra. Quello che affermi sulla stazionarietà è corretto. Solo la terza condizione sullo spazio dei parametri mi sa che la devi rivedere.
bene la (b)
"squalllionheart":
( c ) Per derivare la media posso operare in due modi, (quale è più gradito ?)
Modo 1:
Se il processo è scritto come:
$ y_t=\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t $
Allora passando alla media ho:
$ E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t] $
Usando la linearità della media, la media di una costante è una costante e il fatto che $ u_t $ sia un white noise:
$ E[y_t]=E[\mu+\phi_1 y_{t-1}+\phi_2 y_{t-2}+u_t]=\mu + \phi_1E[y_{t-1}]+ \phi_2 E[y_{t-2}] $
A questo punto uso che il processo gode della proprietà di stazionarietà debole quindi $ E[y_{t}]=E[y_{t-1}]=E[y_{t-2}] $ e ottengo:
$ E[y_t]=\frac{\mu}{ 1- \phi_1- \phi_2 } $
Modo 2:
Scrivo $ y_t $ come una combinazione lineare di white noise:
$ y_t=\frac{\mu}{ 1- \phi_1- \phi_2 }+\sum_{u=0}^{\infty} \psi_u \epsilon_{t-u} $
Passando alla media e sfruttando che $ \epsilon $ è un white-noise ottengo lo stesso.
corretti entrambi

"squalllionheart":
Per la varianza arrivo con un po' di passaggi a:
$ \gamma_0=\frac{\sigma_{\epsilon} ^2}{1-\phi_1^2} $
L'autocovarianza abbiamo:
$ \gamma_1=\frac{\sigma_{\epsilon} ^2 \phi_1}{1-\phi_1^2} $
sono entrambe sbagliate, ti sei persa un pezzo da qualche parte, quelle che scrivi valgono per un AR(1)
"squalllionheart":
(d) Non saprei come operare… help!!!
Non hai nessuna idea? Cosa intendi per efficente? che stimatori avete visto ?
Grazie markoviz per l'aiuto.
Penso che per efficiente intenda quello con varianza minima,tra le dispense del proff affermano il seguente asserto:
Il mio inglese maccheronico mi dice che usa OLS per trovare lo stimatore, e quindi nel mio caso visto che ho un AR(2), avrò che :
$\hat theta =arg min_{\theta \in \Theta } \sum_{t=3}^{T} (y_t-\phi_1 y_{t-1}-\phi_p y_{t-2})^2$
Mentre per $\mu$ uso la media campionaria:
$\hat \mu =\frac{1}{T} \sum_{t=1}^{T} y_t$
Per quanto riguarda il primo punto, penso di aver raccordato le idee, per scrivere un AR come processo lineare, deve essere lo devo scrivere come una combinazione di white noise, e per farlo effettivamente le radici del polinomio caratteristico devono essere in modulo maggiori di $1$ che in termini di coefficienti del processo significa:
$\phi_1+\phi_2<1$
$-\phi_1+\phi_2<1$
$-1<\phi_2<1$
Ho un dubbio di natura teorica, quando definisco sia i processi MA che i AR gli errori sono sempre white noise, o devono essere specificati. Perché sugli appunti del corso di statistica avanzata veniva sempre detto che erano white noise, mentre qui non è chiaro.
Grazie
Penso che per efficiente intenda quello con varianza minima,tra le dispense del proff affermano il seguente asserto:
Let us consider first the AR(p) case. it can be seen as a dynamic regression . This suggests to use OLS to estimate parameters:
$\hat theta =arg min_{\theta \in \Theta } \sum_{t=p+1}^{T} (y_y-\phi_1 y_{t-1}-...-\phi_p y_{t-p})^2$
This is called conditional sum of squares css estimator as we are practically assuming that $y_1,…,y_p$ given.
Il mio inglese maccheronico mi dice che usa OLS per trovare lo stimatore, e quindi nel mio caso visto che ho un AR(2), avrò che :
$\hat theta =arg min_{\theta \in \Theta } \sum_{t=3}^{T} (y_t-\phi_1 y_{t-1}-\phi_p y_{t-2})^2$
Mentre per $\mu$ uso la media campionaria:
$\hat \mu =\frac{1}{T} \sum_{t=1}^{T} y_t$
Per quanto riguarda il primo punto, penso di aver raccordato le idee, per scrivere un AR come processo lineare, deve essere lo devo scrivere come una combinazione di white noise, e per farlo effettivamente le radici del polinomio caratteristico devono essere in modulo maggiori di $1$ che in termini di coefficienti del processo significa:
$\phi_1+\phi_2<1$
$-\phi_1+\phi_2<1$
$-1<\phi_2<1$
Ho un dubbio di natura teorica, quando definisco sia i processi MA che i AR gli errori sono sempre white noise, o devono essere specificati. Perché sugli appunti del corso di statistica avanzata veniva sempre detto che erano white noise, mentre qui non è chiaro.
Grazie
Marcoviz stavo ripercorrendo il sentiero dei ricordi di questo esercizio. Per quanto riguarda la varianza e l'autocovarianza dove avevi giustamente osservato che erano sbagliate ho pensato che potrei usare la rappresentazione a media mobile e usare i risultati del media mobile oppure le equazioni di yule walker che dici che sia meglio?