Negative binomial e differenza
Salve ragazzi,
Ho fittato due modelli di negative binomial regression
Questi due modelli hanno le stesse variabili indipendenti ma due variabili dipendenti diverse.
Ora voglio testare se la differenza tra i coefficienti di due variabili indipendenti è significativa
Quello che ho provato a fare: volevo prendere la differenza tra le variabili dipendenti, ma tale differenza può essere negativa, quindi non ci posso fittare un negative binomial.
Se ci fitto un OLS spuntano tutti i problemi di omitting variable (test RESET) e eteroschedasticità (Breusch-Pagan, ma anche con il grafico residui vs fitted)
Come posso testare questa ipotesi?
Quindi ho due modelli:
\( y1 = \alpha_1 + \beta_1 x_1 + z_1 \)
\( y2 = \alpha_2 + \beta_2 x_1 + z_2 \)
La seconda \( x_1\) è uguale alla prima \(x_1\).
Voglio testare \( H_0: \beta_1 \neq \beta_2\)
I due modelli sono negative binomial, e mentre \( y_1, y_2 \in \mathbb{N} \), \( y1 - y_2 \in \mathbb{Z} \) , in particolare, \( y1 - y_2 \) può essere negativo
(spero che il testo sia chiaro, senno chiedete)
Ho fittato due modelli di negative binomial regression
Questi due modelli hanno le stesse variabili indipendenti ma due variabili dipendenti diverse.
Ora voglio testare se la differenza tra i coefficienti di due variabili indipendenti è significativa
Quello che ho provato a fare: volevo prendere la differenza tra le variabili dipendenti, ma tale differenza può essere negativa, quindi non ci posso fittare un negative binomial.
Se ci fitto un OLS spuntano tutti i problemi di omitting variable (test RESET) e eteroschedasticità (Breusch-Pagan, ma anche con il grafico residui vs fitted)
Come posso testare questa ipotesi?
Quindi ho due modelli:
\( y1 = \alpha_1 + \beta_1 x_1 + z_1 \)
\( y2 = \alpha_2 + \beta_2 x_1 + z_2 \)
La seconda \( x_1\) è uguale alla prima \(x_1\).
Voglio testare \( H_0: \beta_1 \neq \beta_2\)
I due modelli sono negative binomial, e mentre \( y_1, y_2 \in \mathbb{N} \), \( y1 - y_2 \in \mathbb{Z} \) , in particolare, \( y1 - y_2 \) può essere negativo
(spero che il testo sia chiaro, senno chiedete)
Risposte
In pratica ti sei risposto da solo: se gli stimatori non sono corretti e consistenti il resto è inutile.
"Injuria":
In pratica ti sei risposto da solo: se gli stimatori non sono corretti e consistenti il resto è inutile.
Injuria, tu hai la mente statistica ma io no e non ti capisco

Per dimostrare che ci ho pensato ho detto che volevo fare una regressione usando come variabile dipendente \( y_3 = y_2 - y_1\). ma \( y_3 \) è negativa e non posso usare la binomiale negativa, e se uso la regressione lineare ho problemi con le ipotesi che non vengono rispettate (questo verosimilmente perchè \(y_3\) così definita non è continua. Un po' come usare la regressione lineare su una variabile binaria)
Ma non è obbligatorio regredire \( y_3 = y_2 - y_1 \). Possibile che non ci sia un altro modo?
Scusa Injuria,
ma se \( \beta_1 \) e \( \beta_2 \) sono normalmente distribuiti, la differenza è anch'essa normalmente distribuita no?
Posso testare \( \beta_1 - \beta_2 = 0\) sapendo che \( \beta_1 - \beta_2 \sim \mathcal{N}(\beta_1 - \beta_2, \sigma_{\beta_1}^2 + \sigma_{\beta2}^2 )\)
Oppure prendo gli intervalli di confidenza al 95% e vedo se si sovrappongono ....
ma se \( \beta_1 \) e \( \beta_2 \) sono normalmente distribuiti, la differenza è anch'essa normalmente distribuita no?
Posso testare \( \beta_1 - \beta_2 = 0\) sapendo che \( \beta_1 - \beta_2 \sim \mathcal{N}(\beta_1 - \beta_2, \sigma_{\beta_1}^2 + \sigma_{\beta2}^2 )\)
Oppure prendo gli intervalli di confidenza al 95% e vedo se si sovrappongono ....

ma se β1 e β2 sono normalmente distribuiti, la differenza è anch'essa normalmente distribuita no?
Se i tuoi stimatori lo sono è vero (però avevi accennato a correlazioni fra errore a variabile indipendente dovuti a variabili omesse?). Premetto che non conosco i tuoi dati, però io ti suggerirei di partire sempre da un confronto fra le proporzioni (come nell'altro post) prima di buttarsi su modelli difficilmente interpretabili.
"Injuria":
Se i tuoi stimatori lo sono è vero (però avevi accennato a correlazioni fra errore a variabile indipendente dovuti a variabili omesse?).
Se stimo una OLS su \( y_2 - y_1\) si, ma i modelli per le due variabili sono binomiali negative. Il test RESET di Ramsey non è solo per i modelli lineari?
Premetto che non conosco i tuoi dati, però io ti suggerirei di partire sempre da un confronto fra le proporzioni (come nell'altro post) prima di buttarsi su modelli difficilmente interpretabili.
Si l'ho fatto
Devi capire che tipo di stimatore viene usato per calcolare i parametri, se usi un software econometrico lo controlli sulla guida. Probabile che sia uno stimatore di massima verosimiglianza. In questo caso controllerai condizioni di regolarità per confermare il fatto che non sia uno stimatore distorto. Il confronto pone delle problematiche in quanto, in ogni caso, la stima della varianza è distorta. Aspetto altri interventi per suggerimenti, ma rimango dell'opinione che non stai adottando un metodo adatto al problema in questione.
Ho risolto, grazie
