Differenza tra riparametrizzazione e trasformazione
Ciao a tutti, qulacuno mi sa spiegare (magari con un piccolo esempio) qual'è la differenza tra riparametrizzazione e trasformazione di variabili? Quali sono le condizioni per quali si usa l'una o l'altra?
Grazie
Grazie
Risposte
ok grazie Sergio, la mia domanda nasceva da alcuni esercizi che ho circa gli intervalli di confidenza.
Mi spiego, in questi due diversi esercizi trovo la distribuzione dello stimatore di massima verosimiglianza t* e poi in un esercizio viene posto j= t + k (ove k è costante) e in un altro viene posto j= - log(1-t).
Nel primo esercizio si procede trovando la distribuzione approssimata dello stimatore di massima verosimiglianza di j sfruttando la proprietà di equivarianza di t e il metodo delta o linearizzazione locale, ed infine dalla distribuzione approssimata mi calcolo l'intervallo di confidenza.
Nel secondo esercizio invece calcolo un intervallo di confidenza per t usando t* ad esempio (0.736 , 0.984) e a questo, siccome j è monotona crescente per t, calcolo l'intervallo per j del tipo (- log (1-0.736); - log (1-0.984) ).
Al fine di chiarirmi le idee su quanto studiato, ho capito la proprietà di equivarianza della stima di massima verosimiglianza, ma le j citate sopra sono riparametrizzazioni o trasformazioni di variabili? E poi nel metodo della linearizzazione locale ho studiato che la funzione deve essere derivabile due volte in t cosa che la prima j non rispetta, giusto?
Ed infine quando posso (come nel secondo esercizio) calcolarmi l'intervallo senza passare per la distribuzione di j?
Grazie sergio
Mi spiego, in questi due diversi esercizi trovo la distribuzione dello stimatore di massima verosimiglianza t* e poi in un esercizio viene posto j= t + k (ove k è costante) e in un altro viene posto j= - log(1-t).
Nel primo esercizio si procede trovando la distribuzione approssimata dello stimatore di massima verosimiglianza di j sfruttando la proprietà di equivarianza di t e il metodo delta o linearizzazione locale, ed infine dalla distribuzione approssimata mi calcolo l'intervallo di confidenza.
Nel secondo esercizio invece calcolo un intervallo di confidenza per t usando t* ad esempio (0.736 , 0.984) e a questo, siccome j è monotona crescente per t, calcolo l'intervallo per j del tipo (- log (1-0.736); - log (1-0.984) ).
Al fine di chiarirmi le idee su quanto studiato, ho capito la proprietà di equivarianza della stima di massima verosimiglianza, ma le j citate sopra sono riparametrizzazioni o trasformazioni di variabili? E poi nel metodo della linearizzazione locale ho studiato che la funzione deve essere derivabile due volte in t cosa che la prima j non rispetta, giusto?
Ed infine quando posso (come nel secondo esercizio) calcolarmi l'intervallo senza passare per la distribuzione di j?
Grazie sergio
Ok grazie, il che giustifica l'utilizzo del metodo delta anche se quel modo di procedere non mi è ancora chiaro..