Variabili i.i.d.
Ciao ragazzi, vorrei un aiuto su come risolvere questo esercizio. Date le due variabili aleatorie $x_{1}=k+\epsilon_{t}$ e $x_{2}=k+\epsilon_{t}$, dove k è una costante e $\epsilon_{t} ~ N(0;\sigma ^{2})$, dimostrare che sono $i.i.d.$. Grazie mille in anticipo.

Risposte
Quali sono i tuoi dubbi, dove non riesci a continuare? Esponi senza problemi e ti si aiuterà.
"hamming_burst":
Quali sono i tuoi dubbi, dove non riesci a continuare? Esponi senza problemi e ti si aiuterà.
Non so come dimostrare analiticamente che le due variabili sono i.i.d., nonostante sia evidente. Avevo pensato di usare la covarianza e mostrare che risulta nulla. Tuttavia così si dimostra che sono non correlate, ma ciò non implica che siano i.i.d., o sbaglio?
"Sergio":
Francamente l'esercizio mi lascia un po' perplesso, perché \(x_1\) e \(x_2\) sono definite esattamente nella stessa maniera, ma soprattutto perché \(\varepsilon\) ha un indice \(t\). Verrebbe da pensare che \(x_1\) e \(x_2\) non sono due variabili aleatorie, ma due successioni di variabili aleatorie.
Oppure si potrebbe pensare che \(x_1\) e \(x_2\) sono due termini di una sola successione, cioè che \(x_1=k+\varepsilon_1\) e \(x_2=k+\varepsilon_2\).
Nel caso di un white noise, si ha \(x_t=\varepsilon_t,\;E[\varepsilon_t]=0,\;\text{Var}(\varepsilon_t)=\sigma^2\) e soprattutto \(\text{Cov}(\varepsilon_t,\varepsilon_{t-j})=0\) per \(j\ne 0\). Se poi si tratta di un white noise gaussiano, \(\varepsilon_t\sim N(0,\sigma^2)\) e l'assenza di correlazione implica anche indipendenza.
Forse ti si chiede semplicemente di dimostrare che \(x_t\) è ancora normale, con \(\text{Cov}(x_t,x_{t-j})=0\), anche quando \(x_t\) è uguale a \(\varepsilon_t\) più una costante.
Altro proprio non mi viene in mente.
Grazie per la risposta. Mi scuso ma ho fatto un errore nello scrivere il testo dell'esercizio. Riporto il testo corretto: "Date le due variabili aleatorie $x_{1}=k+\epsilon_{1}$ e $x_{2}=k+\epsilon_{2}$, dove k è una costante e $\epsilon_{t} ~ N(0;\sigma ^{2})$, dimostrare che sono $i.i.d.$. In generale si ha $x_{t}=k+\epsilon_{t}$", si chiede in pratica di dimostrare che le $x_t$ sono tra di loro tutte i.i.d..
"Sergio":
[quote="fabio911swb"]Grazie per la risposta. Mi scuso ma ho fatto un errore nello scrivere il testo dell'esercizio. Riporto il testo corretto: "Date le due variabili aleatorie $x_{1}=k+\epsilon_{1}$ e $x_{2}=k+\epsilon_{2}$, dove k è una costante e $\epsilon_{t} ~ N(0;\sigma ^{2})$, dimostrare che sono $i.i.d.$. In generale si ha $x_{t}=k+\epsilon_{t}$", si chiede in pratica di dimostrare che le $x_t$ sono tra di loro tutte i.i.d..
Direi che o si pone anche \(\text{Cov}(\varepsilon_t,\varepsilon_{t-j})=0\) oppure è impossibile.
Peraltro, in molti casi una scrittura del tipo \(x_t=d+\varepsilon_t,\;\varepsilon_t\sim N(0,\sigma^2)\) viene intesa, in forma vettoriale, come \(\mathbf{x}=\mathbf{d}+\boldsymbol{\varepsilon},\;\boldsymbol{\varepsilon}\sim MN(\mathbf{0},\sigma^2\mathbf{I})\), e in questo caso è banale, perché si avrebbe \(\mathbf{x}\sim MN(\mathbf{d},\sigma^2\mathbf{I})\), una variabile aleatoria multinormale con componenti incorrelate e quindi, in quanto normali, anche indipendenti oltre che identicamente distribuite.[/quote]
Utilizzare la covarianza è stata la prima idea che ho avuto. Il mio dubbio è che la non correlazione non implica l'indipendenza, perchè in questo caso invece si? Inoltre, questo assicura anche che le $x_t$ sono identicamente distribuite o devo aggiungere qualcosa?
"Sergio":
[quote="fabio911swb"]Utilizzare la covarianza è stata la prima idea che ho avuto. Il mio dubbio è che la non correlazione non implica l'indipendenza, perchè in questo caso invece si?
Perché \(\mathbf{x}\) è multinormale.
"fabio911swb":
Inoltre, questo assicura anche che le $x_t$ sono identicamente distribuite o devo aggiungere qualcosa?
Se le \(x_t\) sono tutte normali, con stessa media (\(d\) è costante) e stessa varianza, sono ovviamente identicamente distribuite.[/quote]
Grazie mille per l'aiuto!!
