Ancora sulle Stime di max Verosimiglianza
Salve a tutti...avevo dei dubbi su un esercizio riguardante il metodo della massima verosimiglianza simile ai precedenti che ho postato ma con un paio di punti che non ho ben capito come risolvere. Ringrazio anticipatamente chiunque possa darmi una mano nella sua risoluzione.
Il testo dell'esercizio è il seguente:
Siano ($x_i,y_i$) determinazioni indipendenti di una variabile casiale bivariata(X,Y) con distribuzione congiunta definita come segue:
Y/X=x si ditribuisce come una Gamma$(x,1/lambda)$
X si distribuisce come Exp$(1/theta)$.
1)determinare lo stimatore di massima verosimiglianza $(hat lambda,hat theta)$ di $(lambda,theta)$ e calcolarne il valore sulla base dei dati forniti.
2)Stabilire se è corretto
3)calcolare la matrice di varianze e covarianze asintotica per $(hat lambda, hat theta)$ e confontarla con quella esatta
4)determinare lo stimatore di max verosimiglianza di $psi=theta*lambda$ e calcolarne media e varianza
5)Costruire il test basato sul rapporto di verosimiglianza per verificare il sistema di ipotesi:
$H_0:lambda*theta=1$ VS $H_1:lambda*theta!=1$
Soluzione:
Vi anticipo che la parte che maggiormente mi desta dubbi è quella relativa ai punti 4) e 5).Per quanto riguarda i primi punti posto qui i risultati a cui sono arrivato:
1) una volta scritta la funzione di verosimiglianza ho determinato quella di log-verosimiglianza.
In seguito ho derivato rispetto ai parametri di interesse ed uguagliando a zero ho ricavato l'espressione di questi stimatori che è:
$hat lambda$= $1/n*(sum_{i=1}^n y_i)/(sum_i^nx_i)$
$hat theta$= $1/n*sum_{i=1}^nx_i$
Per verificare che sia un massimo bisogna in seguito verificare che la matrice hessiana sia definita negativa e nel nostro caso possiamo affermare che i punti trovati siano di massimo.
2) Per la correttezza abbiamo che $theta$ è sicuramente corretto per via della legge dei grandi numeri (rappresentando difatti una media il suo valore converge quasi certamente al valore del parametro) mentre il valore ateso di $hat lambda$ non è corretto e risulta essere pari a:
E($hat lambda$)= $(theta*lambda)/n$
3)La matrice di varianze e covarianze esatta è data da
$Var(hat theta)$=$theta^2/n$
$Var(hat lambda)=(theta*lambda)^2/n^2$
$Cov(hat lambda,hat theta)$=0
mentre la matrice di varianze e covarianze asintotica si ottiene sfruttando l'inverso dell'informazione di Fisher e considerando, dunque, il valore atteso con segno negativo delle derivate seconde parziali (e miste) rispetto ai parametri di interesse, ottenendo perciò:
$theta^2/n$ per cui in questo caso (cioè per $theta$) la varianza asintotica coincide con quella esatta
e
$hat lambda^2/(n*(nhat theta-2hat theta))$ che non coincide con la varianza esatta.
La covarianza asintotica è pari a zero e quindi coincide con quella esatta.
4)Questo e il prossimo sono i punti che non ho capito.
In sostanza credo si debba sfruttare la proprietà di "INVARIANZA" o "equivarianza" per la quale quindi uno stimatore di:
$psi= theta*lambda$ è dato da $psi=hat theta*hat lambda$ ed è quindi pari a:
$hat psi=1/n^2*(sum_{i=1}^ny_i)/(sum_{i=1}^nx_i)$
e la sua media e la sua varianza sono pari a:
$E(hat psi)=(hat lambda*hat theta)/n^2$
$Var(hat psi)= (hat lambda^2*hat theta^2)/n^4$
5) Per quanto rigurda l'impostazione del test non so come operare poichè in sostanza l'ipotesi nulla è che $psi=1$ e quella alternativa è che $psi!=1$. Come scrivo la funzione di verosimiglianza in funzione di psi?...
Ringrazio anticipatamente tutti quelli che hanno avuto la pazienza di leggere quanto ho postato. Spero mi potrete dare una mano.
Il testo dell'esercizio è il seguente:
Siano ($x_i,y_i$) determinazioni indipendenti di una variabile casiale bivariata(X,Y) con distribuzione congiunta definita come segue:
Y/X=x si ditribuisce come una Gamma$(x,1/lambda)$
X si distribuisce come Exp$(1/theta)$.
1)determinare lo stimatore di massima verosimiglianza $(hat lambda,hat theta)$ di $(lambda,theta)$ e calcolarne il valore sulla base dei dati forniti.
2)Stabilire se è corretto
3)calcolare la matrice di varianze e covarianze asintotica per $(hat lambda, hat theta)$ e confontarla con quella esatta
4)determinare lo stimatore di max verosimiglianza di $psi=theta*lambda$ e calcolarne media e varianza
5)Costruire il test basato sul rapporto di verosimiglianza per verificare il sistema di ipotesi:
$H_0:lambda*theta=1$ VS $H_1:lambda*theta!=1$
Soluzione:
Vi anticipo che la parte che maggiormente mi desta dubbi è quella relativa ai punti 4) e 5).Per quanto riguarda i primi punti posto qui i risultati a cui sono arrivato:
1) una volta scritta la funzione di verosimiglianza ho determinato quella di log-verosimiglianza.
In seguito ho derivato rispetto ai parametri di interesse ed uguagliando a zero ho ricavato l'espressione di questi stimatori che è:
$hat lambda$= $1/n*(sum_{i=1}^n y_i)/(sum_i^nx_i)$
$hat theta$= $1/n*sum_{i=1}^nx_i$
Per verificare che sia un massimo bisogna in seguito verificare che la matrice hessiana sia definita negativa e nel nostro caso possiamo affermare che i punti trovati siano di massimo.
2) Per la correttezza abbiamo che $theta$ è sicuramente corretto per via della legge dei grandi numeri (rappresentando difatti una media il suo valore converge quasi certamente al valore del parametro) mentre il valore ateso di $hat lambda$ non è corretto e risulta essere pari a:
E($hat lambda$)= $(theta*lambda)/n$
3)La matrice di varianze e covarianze esatta è data da
$Var(hat theta)$=$theta^2/n$
$Var(hat lambda)=(theta*lambda)^2/n^2$
$Cov(hat lambda,hat theta)$=0
mentre la matrice di varianze e covarianze asintotica si ottiene sfruttando l'inverso dell'informazione di Fisher e considerando, dunque, il valore atteso con segno negativo delle derivate seconde parziali (e miste) rispetto ai parametri di interesse, ottenendo perciò:
$theta^2/n$ per cui in questo caso (cioè per $theta$) la varianza asintotica coincide con quella esatta
e
$hat lambda^2/(n*(nhat theta-2hat theta))$ che non coincide con la varianza esatta.
La covarianza asintotica è pari a zero e quindi coincide con quella esatta.
4)Questo e il prossimo sono i punti che non ho capito.
In sostanza credo si debba sfruttare la proprietà di "INVARIANZA" o "equivarianza" per la quale quindi uno stimatore di:
$psi= theta*lambda$ è dato da $psi=hat theta*hat lambda$ ed è quindi pari a:
$hat psi=1/n^2*(sum_{i=1}^ny_i)/(sum_{i=1}^nx_i)$
e la sua media e la sua varianza sono pari a:
$E(hat psi)=(hat lambda*hat theta)/n^2$
$Var(hat psi)= (hat lambda^2*hat theta^2)/n^4$
5) Per quanto rigurda l'impostazione del test non so come operare poichè in sostanza l'ipotesi nulla è che $psi=1$ e quella alternativa è che $psi!=1$. Come scrivo la funzione di verosimiglianza in funzione di psi?...
Ringrazio anticipatamente tutti quelli che hanno avuto la pazienza di leggere quanto ho postato. Spero mi potrete dare una mano.
Risposte
Mi sono iniziato a fare qualche conto;
a me vengono stimatori diversi (il $hat lambda$);
a me vengono stimatori diversi (il $hat lambda$);
sempre tu dajeforte...grazie!!!almeno posso avere un riscontro.Grazie ancora.

Tranquillo, con queste cose mi diverte icagliarci.
Comunque lo stiamtore mi viene così
$\hat lambda=(sum_(i=1)^nY_i)/(sum_(i=1)^nX_i)$ quindi non c'è $n$ (controlla);
poi c'è qualche cosa non molto chiara su alcune cose che dici;
e poi cerchiamo di fare il test che è quello che anche a me da dei problemi.
Risolviamolo insieme.
Comunque lo stiamtore mi viene così
$\hat lambda=(sum_(i=1)^nY_i)/(sum_(i=1)^nX_i)$ quindi non c'è $n$ (controlla);
poi c'è qualche cosa non molto chiara su alcune cose che dici;
e poi cerchiamo di fare il test che è quello che anche a me da dei problemi.
Risolviamolo insieme.
@ dajeforte:
per me va benissimo...possiamo cercare di risolverlo insieme...grazie della mano e della disponibilità!!!:)
Allora, io ho dato una ricontrollata ai calcoli che avevo scritto ed effettivamente ho notato che avevo sbagliato alcune cose, per cui ti riposto brevemente i risultati a cui sono giunto:
Stime:
$hat lamba= (sum_{i=1}^ny_i)/ (sum_{i=1}^nx_i)$ come avevo scritto tu; rivedendo i calcoli infatti non so dirti quel $1/n$ da dove lo avevo tirato fuori
;
$hat theta= 1/n*(sum_{i=1}^nx_i)$
Per quanto concerne la CORRETTEZZA, sono entrambi corretti; per $hat theta$ si tratta di una media campionaria quindi per la legge dei grandi numeri quasi certamente converge al suo valore atteso $theta$; per $hat lambda$ ho utilizzato il metodo del valore atteso iterato giungendo alla conferma che lo stimatore trovato coincida con il valore del parametro e quindi sia pari a $theta$.
Ho calcolato le varianze e la covarianza ottenendo:
$Var(hat theta)= theta^2/n$
$Var(hat lambda)= E(Var(hat lambda|X))+Var(E(hat lambda|X))$=
= $(lambda^3*n)/(n-1)+Var(lambda)$= qui ho considerato che $E(1/(sum_{i=1}^nx_i)= lambda*n/(n-1)$
considerando che la somma di esponenziali $(sum_{i=1}^nx_i)$ è una gamma $Gamma(n,lambda)$ e che $Var(lambda)=0$ allora:
= $(lambda^3*n)/(n-1)$
La covarianza è data da:
$Cov(hat lambda, hat theta)$= $E(hat theta*hat lambda)-E(hat lambda)*E(hat theta)$
considerando che $E(hat lambda)*E(hat theta)$ è pari a $theta*lambda$ dobbiamo calcolare soltanto $E(hat theta*hat lambda)$ che è pari a $theta*lambda$.
Per cui:
$Cov(hat lambda, hat theta)=0$
A questo punto abbiamo la matrice di varianze e covarianze è:
$Sigma$=$(((theta^2)/(n),0),(0,(lambda^3*n)/(n-1)))$
La matrice di varianze e covarianze asintotica invece, una volta calcolato il valore atteso con segno negativo delle derivate seconde rispetto ai parametri, è data da:
$I^-1(theta,lambda)=(((theta^2)/(n),0),(0,(lambda^2)/(n*theta)))
in sostanza si tratta dell'informazione attesa di Fisher che è rappresenta una stima della var-covar degli stimatori.
Quindi il valore atteso della derivata seconda rispetto a $theta$ coincide con la $var(hat theta)$ come pure la $cov(hat theta,hat lambda)$, ma la $var(hat lambda)$ non coincide con il valore atteso della derivata seconda rispetto a $lambda$ e quindi la matrice asintotica è diversa da quella esatta.
Fin qui ho rivisto i calcoli. Che ne dici ora possono andare?Tu ti ritrovi la stessa cosa?...
per me va benissimo...possiamo cercare di risolverlo insieme...grazie della mano e della disponibilità!!!:)
Allora, io ho dato una ricontrollata ai calcoli che avevo scritto ed effettivamente ho notato che avevo sbagliato alcune cose, per cui ti riposto brevemente i risultati a cui sono giunto:
Stime:
$hat lamba= (sum_{i=1}^ny_i)/ (sum_{i=1}^nx_i)$ come avevo scritto tu; rivedendo i calcoli infatti non so dirti quel $1/n$ da dove lo avevo tirato fuori

$hat theta= 1/n*(sum_{i=1}^nx_i)$
Per quanto concerne la CORRETTEZZA, sono entrambi corretti; per $hat theta$ si tratta di una media campionaria quindi per la legge dei grandi numeri quasi certamente converge al suo valore atteso $theta$; per $hat lambda$ ho utilizzato il metodo del valore atteso iterato giungendo alla conferma che lo stimatore trovato coincida con il valore del parametro e quindi sia pari a $theta$.
Ho calcolato le varianze e la covarianza ottenendo:
$Var(hat theta)= theta^2/n$
$Var(hat lambda)= E(Var(hat lambda|X))+Var(E(hat lambda|X))$=
= $(lambda^3*n)/(n-1)+Var(lambda)$= qui ho considerato che $E(1/(sum_{i=1}^nx_i)= lambda*n/(n-1)$
considerando che la somma di esponenziali $(sum_{i=1}^nx_i)$ è una gamma $Gamma(n,lambda)$ e che $Var(lambda)=0$ allora:
= $(lambda^3*n)/(n-1)$
La covarianza è data da:
$Cov(hat lambda, hat theta)$= $E(hat theta*hat lambda)-E(hat lambda)*E(hat theta)$
considerando che $E(hat lambda)*E(hat theta)$ è pari a $theta*lambda$ dobbiamo calcolare soltanto $E(hat theta*hat lambda)$ che è pari a $theta*lambda$.
Per cui:
$Cov(hat lambda, hat theta)=0$
A questo punto abbiamo la matrice di varianze e covarianze è:
$Sigma$=$(((theta^2)/(n),0),(0,(lambda^3*n)/(n-1)))$
La matrice di varianze e covarianze asintotica invece, una volta calcolato il valore atteso con segno negativo delle derivate seconde rispetto ai parametri, è data da:
$I^-1(theta,lambda)=(((theta^2)/(n),0),(0,(lambda^2)/(n*theta)))
in sostanza si tratta dell'informazione attesa di Fisher che è rappresenta una stima della var-covar degli stimatori.
Quindi il valore atteso della derivata seconda rispetto a $theta$ coincide con la $var(hat theta)$ come pure la $cov(hat theta,hat lambda)$, ma la $var(hat lambda)$ non coincide con il valore atteso della derivata seconda rispetto a $lambda$ e quindi la matrice asintotica è diversa da quella esatta.
Fin qui ho rivisto i calcoli. Che ne dici ora possono andare?Tu ti ritrovi la stessa cosa?...
Ciao slash;
ti dico i miei punti oscuri:
il primo riguarda la correttezza; tu hai scritto che essendo una media campionaria allora per la legge dei grandi numeri torna corretto;
ma questo vale quando n va a infinito e quindi riguarda la correttezza asintotica. Ti ricordo inoltre che gli stimatori di max vero hanno la propietà di essere asintoticamente corretti.
Per la correttezza lo devi dimostrare pe n finito.
Comunque sono entrambi corretti.
Sulle varianze:
$hat theta$ torna;
$hat lambda$ mi viene $lambda^2/((n-1)theta)$; il calcolo è stato un po' laborioso (forse non ho intrapeso la strada più diretta) però penso sia giusto perchè se poi ti vai a vedere il limite di Cramer Rao vengono simili e anche in questo caso lo stimatore di max vero, al tendere di n a infinito, tende ad avere varianza prossima a quella del limite. Inoltre per n che tende a infinito la varianza da te trovata non tende a 0 quindi non è consistente ( lo stimatore di max vero in alcune condizioni abbastanza generali è asintoticamente corretto).
Per quanto riguarda Cramer Rao la matrice è la stessa;
ti voglio solo far notare una cosa che è più legata ai vecchi esercizi,
se gli stimatori non sono corretti c'è anche da considerare una matrice di distorsione (che però non è il nostro caso).
ti dico i miei punti oscuri:
il primo riguarda la correttezza; tu hai scritto che essendo una media campionaria allora per la legge dei grandi numeri torna corretto;
ma questo vale quando n va a infinito e quindi riguarda la correttezza asintotica. Ti ricordo inoltre che gli stimatori di max vero hanno la propietà di essere asintoticamente corretti.
Per la correttezza lo devi dimostrare pe n finito.
Comunque sono entrambi corretti.
Sulle varianze:
$hat theta$ torna;
$hat lambda$ mi viene $lambda^2/((n-1)theta)$; il calcolo è stato un po' laborioso (forse non ho intrapeso la strada più diretta) però penso sia giusto perchè se poi ti vai a vedere il limite di Cramer Rao vengono simili e anche in questo caso lo stimatore di max vero, al tendere di n a infinito, tende ad avere varianza prossima a quella del limite. Inoltre per n che tende a infinito la varianza da te trovata non tende a 0 quindi non è consistente ( lo stimatore di max vero in alcune condizioni abbastanza generali è asintoticamente corretto).
Per quanto riguarda Cramer Rao la matrice è la stessa;
ti voglio solo far notare una cosa che è più legata ai vecchi esercizi,
se gli stimatori non sono corretti c'è anche da considerare una matrice di distorsione (che però non è il nostro caso).
Concordo con quello che hai scritto tu, ovvero per n finito risulta comunque corretto $theta$ mentre per $hat lambda$ rivedendo i conti a me viene una cosa del genere:
...riprendendo la formula:
$Var(hat lambda)=E(Var(hat lambda|X))+Var(E(hat lambda|X))=$
il secondo membro dopo l'uguaglianza è pari a 0, ovvero, $Var(E(hat lambda|X)=0$ mentre il primo membro è pari a:
$E(1/(sum_{i=1}^nx_i)*Var(Y|X))=E(1/(sum_{i=1}^nx_i)^2*(sum_{i=1}^nx_i)*lambda^2)=$
=$lambda^2*E(1/(sum_{i=1}^nx_i))$ ora considerando che $sum_{i=1}^nx_i$ è somma di variabili aleatorie esponenziali e che quindi si distribuisce come una gamma $Gamma(n,lambda)$ e ponendo $sum_{i=1}^nx_i$=$S_1$ allora ottengo che:
$n*E(1/S_1)$=$n* int_0^oo(1/s_1)*theta^n/(Gamma(n))*s_1^(n-1)*e^(-theta*s_1)ds_1 $=
=$n*(Gamma(n-1))/(Gamma(n))*theta*int_0^oo(1/s_1)*theta^(n-1)/(Gamma(n-1))*s_1^(n-2)*e^(-theta*s_1)ds_1 $=
=$n/(n-1)*theta$=
e quindi alla fine vien fuori:
$(lambda^2*theta)*(n/(n-1))$
mi scuso poichè avevo confuso i parametri precedentemente: avevo considerato $lambda$ anzichè $theta$ nel computo ottenendo quindi quel $lambda^3$.
Ora dovrebbero andare che ne dici?
...riprendendo la formula:
$Var(hat lambda)=E(Var(hat lambda|X))+Var(E(hat lambda|X))=$
il secondo membro dopo l'uguaglianza è pari a 0, ovvero, $Var(E(hat lambda|X)=0$ mentre il primo membro è pari a:
$E(1/(sum_{i=1}^nx_i)*Var(Y|X))=E(1/(sum_{i=1}^nx_i)^2*(sum_{i=1}^nx_i)*lambda^2)=$
=$lambda^2*E(1/(sum_{i=1}^nx_i))$ ora considerando che $sum_{i=1}^nx_i$ è somma di variabili aleatorie esponenziali e che quindi si distribuisce come una gamma $Gamma(n,lambda)$ e ponendo $sum_{i=1}^nx_i$=$S_1$ allora ottengo che:
$n*E(1/S_1)$=$n* int_0^oo(1/s_1)*theta^n/(Gamma(n))*s_1^(n-1)*e^(-theta*s_1)ds_1 $=
=$n*(Gamma(n-1))/(Gamma(n))*theta*int_0^oo(1/s_1)*theta^(n-1)/(Gamma(n-1))*s_1^(n-2)*e^(-theta*s_1)ds_1 $=
=$n/(n-1)*theta$=
e quindi alla fine vien fuori:
$(lambda^2*theta)*(n/(n-1))$
mi scuso poichè avevo confuso i parametri precedentemente: avevo considerato $lambda$ anzichè $theta$ nel computo ottenendo quindi quel $lambda^3$.
Ora dovrebbero andare che ne dici?
Onestamente non sono riuscito a comprendere i primi passaggi,
comunque quando arrivi all'inverso della gamma per primo non hai $n$ al numeratore (lo hai aggiunto devi calcolare $E[1/(S_1)]$ e non $nE[1/(S_1)]$) e poi le esponenziali sono di parametro $1/theta$ e quindi va al denominatore
comunque quando arrivi all'inverso della gamma per primo non hai $n$ al numeratore (lo hai aggiunto devi calcolare $E[1/(S_1)]$ e non $nE[1/(S_1)]$) e poi le esponenziali sono di parametro $1/theta$ e quindi va al denominatore
sì giusto..."n"non c'è e le esponenziali sono di parametro $1/(theta)$ e non $theta$...ok ci sono...viene fuori quello che hai ricavato tu...cioè:
$lambda^2/((n-1)*theta)$
i'm sorry...
$lambda^2/((n-1)*theta)$
i'm sorry...
Per cui ora per la proprietà di invarianza $psi$ sarà:
$psi=hat lambda*hat theta$= $1/(n)*(sum_{i=1}^ny_i)$
e quindi il suo valore atteso e la sua varianza seguendo un procedimento analogo a quello seguito precedentemente, sono:
$E(psi)=lambda/n$
e
$Var(psi)=1/(n^2)*(lambda^2theta^2)/((n-1)^2(n-2))$
tu ti ritrovi le stesse cose?
In sostanza ho considerato la riparametrizzazione $psi=h(theta)=theta*lambda$ e siccome la funzione "h" è invertibile allora $h^-1(psi)=h(hat theta)=(sum_{i=1}^ny_i)/(sum_{i=1}^nx_i)*(1/n)*(sum_{i=1}^nx_i)$
e quindi alla fine $hat psi=(1/(n))*(sum_{i=1}^ny_i)$
$psi=hat lambda*hat theta$= $1/(n)*(sum_{i=1}^ny_i)$
e quindi il suo valore atteso e la sua varianza seguendo un procedimento analogo a quello seguito precedentemente, sono:
$E(psi)=lambda/n$
e
$Var(psi)=1/(n^2)*(lambda^2theta^2)/((n-1)^2(n-2))$
tu ti ritrovi le stesse cose?
In sostanza ho considerato la riparametrizzazione $psi=h(theta)=theta*lambda$ e siccome la funzione "h" è invertibile allora $h^-1(psi)=h(hat theta)=(sum_{i=1}^ny_i)/(sum_{i=1}^nx_i)*(1/n)*(sum_{i=1}^nx_i)$
e quindi alla fine $hat psi=(1/(n))*(sum_{i=1}^ny_i)$
Lo stimatore di $psi$ presumo sia $hat lambda hat theta$.
Bisogna dimostrarlo; diciamo che molto probabilmente è quello anche poi considerando la forma di stimatore che viene fuori
che risulterebbe essere $hat psi=1/n sum_(i=1)^nY_i$.
Considerando questo stimatore la media viene
$E[\hat psi]=E[hat lambda hat theta]=Cov(hat lambda , hat theta)+E[hat lambda] E[hat theta]=lambda theta$.
Anche la varianza mi viene diversa
Bisogna dimostrarlo; diciamo che molto probabilmente è quello anche poi considerando la forma di stimatore che viene fuori
che risulterebbe essere $hat psi=1/n sum_(i=1)^nY_i$.
Considerando questo stimatore la media viene
$E[\hat psi]=E[hat lambda hat theta]=Cov(hat lambda , hat theta)+E[hat lambda] E[hat theta]=lambda theta$.
Anche la varianza mi viene diversa
Allora per il valore atteso ci sono in sostanza dalla formula della covarianza hai ricavato quella per il valore atteso del prodotto dei parametri ma la varianza a te quanto viene?
Io l'avevo calcolata considerando che si trattava di:
$Var(hat psi)=(1/(n^2))*var(sum_{i=1}^ny_i)=$
=$(1/(n^2)){E(Var(hat psi|X))+Var(E(hat psi|X))}=$
=$(1/(n^2))*((lambda^2*theta^2)/((n-1)^2*(n-2)))$
Io l'avevo calcolata considerando che si trattava di:
$Var(hat psi)=(1/(n^2))*var(sum_{i=1}^ny_i)=$
=$(1/(n^2)){E(Var(hat psi|X))+Var(E(hat psi|X))}=$
=$(1/(n^2))*((lambda^2*theta^2)/((n-1)^2*(n-2)))$
Ti rispondo frettolosamente che devo uscire;
non capisco come quel passaggio che fai (o meglio capisco la formula ma non come la applichi).
$Var(hat psi)=1/n^2 sum_(i=1)^n Var(Y_i)=$ questo perchè le $Y_i$ sono indipendenti
$= 1/n^2 sum_(i=1)^n {E[Var(Y_i|X_i)]+Var(E[Y_i|X_i])}=1/n^2 sum_(i=1)^n{lambda^2 theta+ lambda^2 theta^2}=(lambda^2 theta (1+theta))/n
non capisco come quel passaggio che fai (o meglio capisco la formula ma non come la applichi).
$Var(hat psi)=1/n^2 sum_(i=1)^n Var(Y_i)=$ questo perchè le $Y_i$ sono indipendenti
$= 1/n^2 sum_(i=1)^n {E[Var(Y_i|X_i)]+Var(E[Y_i|X_i])}=1/n^2 sum_(i=1)^n{lambda^2 theta+ lambda^2 theta^2}=(lambda^2 theta (1+theta))/n
Ciao Dajeforte...allora io ho ragionato in questo modo per applicare la formula di cui stiamo parlando:
$Var(psi)= (1/n^2)*sum_{i=1}^n{E[var(Y_i|X_i)]+Var(E[Y_i|X_i]}$=dato che conosciamo la distribuzione condizionata allora quando condizioniamo la x può essere portata fuori essendo una costante per cui:
=$ (1/n^2)*sum_{i=1}^n{E(1/(sum_{i=1}^nx_i^2)*(var(Y|X))+var(1/(sum_{i=1}^nx_i)*E(Y|X))}=$
=$(1/n^2)*sum_{i=1}^n{E[1/(sum_{i=1}^nx_i^2)*sum_{i=1}^nx_i*lambda^2]+var(1/(sum_{i=1}^nx_i)*sum_{i=1}^nx_i*lambda}=$
=$(1/n^2)*sum_{i=1}^n{E[1/(sum_{i=1}^nx_i)*lambda^2]+Var(lambda)}$= ora considerando un procedimento analogo a quello visto prima, ovvero considerando che la somma di esponenziali è una gamma di parametri n e $lambda$ e che il valore atteso di $(1/sum_{i=1}^nx_i)$ è pari a $(1/(n-1)*lambda)$ allora si ha:
=$(1/n^2)*sum_{i=1}^n{(1/(n-1)*(1/theta))*lambda^2]+0}=$
e quindi:
=$(1/n)*((1/(n-1)*(1/theta))*lambda^2)=$ ovvero:
=$(lambda^2)/(n*(n-1)*theta)=$
che ne dici potrebbe essere corretto?
$Var(psi)= (1/n^2)*sum_{i=1}^n{E[var(Y_i|X_i)]+Var(E[Y_i|X_i]}$=dato che conosciamo la distribuzione condizionata allora quando condizioniamo la x può essere portata fuori essendo una costante per cui:
=$ (1/n^2)*sum_{i=1}^n{E(1/(sum_{i=1}^nx_i^2)*(var(Y|X))+var(1/(sum_{i=1}^nx_i)*E(Y|X))}=$
=$(1/n^2)*sum_{i=1}^n{E[1/(sum_{i=1}^nx_i^2)*sum_{i=1}^nx_i*lambda^2]+var(1/(sum_{i=1}^nx_i)*sum_{i=1}^nx_i*lambda}=$
=$(1/n^2)*sum_{i=1}^n{E[1/(sum_{i=1}^nx_i)*lambda^2]+Var(lambda)}$= ora considerando un procedimento analogo a quello visto prima, ovvero considerando che la somma di esponenziali è una gamma di parametri n e $lambda$ e che il valore atteso di $(1/sum_{i=1}^nx_i)$ è pari a $(1/(n-1)*lambda)$ allora si ha:
=$(1/n^2)*sum_{i=1}^n{(1/(n-1)*(1/theta))*lambda^2]+0}=$
e quindi:
=$(1/n)*((1/(n-1)*(1/theta))*lambda^2)=$ ovvero:
=$(lambda^2)/(n*(n-1)*theta)=$
che ne dici potrebbe essere corretto?
Non capisco da dove tiri fuori la sommatoria al denominatore ovvero
$E[Var(Y_i|X_i)]=E[1/(sum_(i=1)^n x_i^2)Var(Y|X)]$ a parte il quadrato che dentro o fuori non è quello;
ma da dove la prendi questa somma? lo stesso vale per il secondo addendo
$E[Var(Y_i|X_i)]=E[1/(sum_(i=1)^n x_i^2)Var(Y|X)]$ a parte il quadrato che dentro o fuori non è quello;
ma da dove la prendi questa somma? lo stesso vale per il secondo addendo
Ok ora ci sono...è vero, hai ragione...avevo distrattamente confuso $hat psi$ con $hat lambda$ ovvero avevo considerato che $hat psi$ fosse pari a $(sum_{i=1}^ny_i)/(sum_{i=1}^nx_i)$ ma questo invece era il valore di $hat lambda$; invece $hat psi$ è pari a $sum_{i=1}^ny_i/n$...per cui sì non viene una cosa come quella che ho scritto io ma bensì il risultato scritto da te.
Ora però il problema è verificare il sistema di ipotesi...ovvero innanzitutto come poter scrivere la funzione di verosimiglianza e la funzione di log-verosimiglianza in modo tale da poter poi calcolare il numeratore del rapporto di verosimiglianza. Io avevo pensato di operare tenendo conto che:
$H_0:lambda*theta=1$ potrebbe essere scritto come $H_0:lambda=1/(theta)$ e quindi si tratterebbe di verificare un'ipotesi riguardante l'uguaglianza dei parametri del tipo più generale:
$(H_0:mu=eta) VS (H_1:mu!=eta)$
Tu che ne pensi?...
Ora però il problema è verificare il sistema di ipotesi...ovvero innanzitutto come poter scrivere la funzione di verosimiglianza e la funzione di log-verosimiglianza in modo tale da poter poi calcolare il numeratore del rapporto di verosimiglianza. Io avevo pensato di operare tenendo conto che:
$H_0:lambda*theta=1$ potrebbe essere scritto come $H_0:lambda=1/(theta)$ e quindi si tratterebbe di verificare un'ipotesi riguardante l'uguaglianza dei parametri del tipo più generale:
$(H_0:mu=eta) VS (H_1:mu!=eta)$
Tu che ne pensi?...
Allora scusa il ritardo ma ho una giornata impegnata che stasera devo partire e poi starò fuori per il week end;
quindi proviamo a farlo adesso.
Innanzitutto non sono molto ferrato in materia.
Dobbiamo prendere la funzione di vero e fare i rapporto mettendo al numeratore $theta=1/lambda$ e al denominatore il massimo che si ottiene nelle stime di max vero.
Potremmo senno provare a ragionare sulla distribuzione di $hat psi=1/n sum_(i=1)^nY_i$.
Ti faccio questa domanda che mi è venuta mentre scrivevo:
osserviamo due campioni (ciascuno con $2n$ osservazioni) e supponiamo che le $Y_i$ (o la loro somma) nei due campioni siano (sia) uguale; e le $X_i$ diverse; la stima di $psi$ risulta uguale
quindi proviamo a farlo adesso.
Innanzitutto non sono molto ferrato in materia.
Dobbiamo prendere la funzione di vero e fare i rapporto mettendo al numeratore $theta=1/lambda$ e al denominatore il massimo che si ottiene nelle stime di max vero.
Potremmo senno provare a ragionare sulla distribuzione di $hat psi=1/n sum_(i=1)^nY_i$.
Ti faccio questa domanda che mi è venuta mentre scrivevo:
osserviamo due campioni (ciascuno con $2n$ osservazioni) e supponiamo che le $Y_i$ (o la loro somma) nei due campioni siano (sia) uguale; e le $X_i$ diverse; la stima di $psi$ risulta uguale
Per quanto riguarda la domanda io penso di sì, ovvero la stima di $psi$ dovrebbe risultare uguale.
Per quello che concerne il test bisogna in sostanza calcolare per il numeratore del rapporto del test, il sup sotto $H_0$ della funzione di verosimiglianza. Nel nostro caso il numeratore dovrebbe essere calcolato massimizzando rispetto a $lambda$ la verosimiglianza con parametri $lambda$ e $lambda$ poichè sotto $H_0$: $lambda=1/theta$.
Per quello che concerne il denominatore esso è dato dalla funzione di verosimiglianza con valori dei parametri dati dagli stimatori di massima verosimiglianza $hat lambda$ e $hat theta$.
La mia domanda è quindi come poter ricavare il massimo della log-verosimiglianza a numeratore per ottenere diciamo $lambda_0$ che poi dovrà essere sostituito nella funzione di verosimiglianza a numeratore?
Inoltre si potrebbe utilizzare anche il test W che rappresenta una trasformazione monotona del TRV per cui ne conserva le proprietà caratteristiche ed è dato nel nostro caso da:
$W=2(l(hat lambda,hat theta;x,y)-l(lambda_0,lambda_0;x,y))$
ma sinceramente non riesco a ricavare $lambda_0$.
Per quello che concerne il test bisogna in sostanza calcolare per il numeratore del rapporto del test, il sup sotto $H_0$ della funzione di verosimiglianza. Nel nostro caso il numeratore dovrebbe essere calcolato massimizzando rispetto a $lambda$ la verosimiglianza con parametri $lambda$ e $lambda$ poichè sotto $H_0$: $lambda=1/theta$.
Per quello che concerne il denominatore esso è dato dalla funzione di verosimiglianza con valori dei parametri dati dagli stimatori di massima verosimiglianza $hat lambda$ e $hat theta$.
La mia domanda è quindi come poter ricavare il massimo della log-verosimiglianza a numeratore per ottenere diciamo $lambda_0$ che poi dovrà essere sostituito nella funzione di verosimiglianza a numeratore?
Inoltre si potrebbe utilizzare anche il test W che rappresenta una trasformazione monotona del TRV per cui ne conserva le proprietà caratteristiche ed è dato nel nostro caso da:
$W=2(l(hat lambda,hat theta;x,y)-l(lambda_0,lambda_0;x,y))$
ma sinceramente non riesco a ricavare $lambda_0$.