Confronto tra modello ristretto e non ristretto
Mi sorge un dubbio.
Nel conbtesto ML della regressione lineare normale (anche se si potrebbe generalizzare ...), il confronto tra modello ristretto $R$ e non ristretto $UR$ (il ristretto è annidato) si svolge attraverso il rapporto di verosimiglianza del tipo $2*((logL(UR)) / (logL(R)))$ ma, ipotizzando di avere a disposizione le stime del modello non ristretto, il modello ristretto:
1) prevede la ristima del modello con meno parametri ?
2) si usano le stime già trovate nel modello non ristretto per detti parametri ?
Nel conbtesto ML della regressione lineare normale (anche se si potrebbe generalizzare ...), il confronto tra modello ristretto $R$ e non ristretto $UR$ (il ristretto è annidato) si svolge attraverso il rapporto di verosimiglianza del tipo $2*((logL(UR)) / (logL(R)))$ ma, ipotizzando di avere a disposizione le stime del modello non ristretto, il modello ristretto:
1) prevede la ristima del modello con meno parametri ?
2) si usano le stime già trovate nel modello non ristretto per detti parametri ?
Risposte
"Sergio":
[quote="markowitz"]ipotizzando di avere a disposizione le stime del modello non ristretto, il modello ristretto:
1) prevede la ristima del modello con meno parametri ?
Certo.[/quote]
Era quello che pensavo

però ho un dubbio:
mettiamo che il modello vero sia
$y=beta_0 + beta_1 x_1 + beta_2 x_2 + epsilon$
e come modello non ristretto effettivamente stimo questa forma. Ed ottengo stime non distorte anche di: $beta_0$ e $beta_1$
se invece come modello ristretto stimo
$y=beta_0 + beta_1 x_1 + epsilon$
ottengo stime distorte
ovvero il modello non ristretto dovrebbe battere comunque quello ristretto, eppure i due modelli ristretti non sono uguali. Quello al primo caso incorpora stime non distorte. Perché prendere il secondo?
"Sergio":
E perché?
Otterresti stime distorte se \( x_2 \) fosse correlato a \( x_1 \)
hai ragione, ed inoltre se la correlazione è assente il modello ristretto offrirebbe anche stime più efficenti. E mi convinco ancora di più che conviene ristimare il modello.
Però se sono correlate ...distorsione...
"Sergio":
D'altra parte tutto questo ha senso solo se puoi usare stimatori OLS. Gli stimatori ML godono di ottime proprietà solo nell'asintotico e nulla garantisce la loro non distorsione con piccoli campioni.
... questo mi convince poco.
Diciamo che invece di parlare di distorsione dobbiamo parlare di inconsistenza. Ma se la variabile era effettivamente omessa la grandezza del campione non mi salva. Anzi il test di cui si parlava potrebbe mirare ad indagare proprio l'eventuale omissione.
In questo caso penso che il test offrirebbe un valore più sfavorevole al modello ristretto ripetendo la stima piuttosto che non ripetendola.
Ma perché in generale è necessario ripetere la stima e non si possono usare le stime gia pronte?
Nel contesto OLS, che alla fine restituisce praticamente lo stesso output, i test sui parametri li possiamo fare lavorando su un solo modello. ma in realtà anche qui possiamo ragionare di modello ristretto e non ristretto.
Lo so che spesso vado border line tra OLS, ML ed adesso anche mondo Bayesiano, ma che ci vuoi fare ho sta mania...provo a farlo con sensatezza ... alla fine si cerca di rispondere alle stesse domande.
"Sergio":
[quote="markowitz"]Ma perché in generale è necessario ripetere la stima e non si possono usare le stime gia pronte?
Scusa ma parlando in astratto si resta... nell'astratto.
Mi fai un esempio concreto di rapporto di verosimiglianza in cui usi le stime del modello non ristretto anche per il modello ristretto?
[/quote]
Il modello di prima:
dove invece di stimare il modello non ristretto del tipo
$y= theta_0 + theta_1 x_1 +u$
utilizzo al posto dei $theta_i$ i
$beta_0$ e $beta_1$ trovati precedentemente
poi faccio qualche conto ed arrivo al rapporto $LR$, nei due casi verranno risultati diversi.
"Sergio":
[quote="markowitz"]Nel contesto OLS, che alla fine restituisce praticamente lo stesso output, i test sui parametri li possiamo fare lavorando su un solo modello. ma in realtà anche qui possiamo ragionare di modello ristretto e non ristretto.
Certo, ma anche qui stimi sia il modello ristretto che quello non ristretto.[/quote]
si, ma ad esempio se voglio testare $H_0 : beta_2=0$ posso:
1) fare un test sul parametro, mettiamo che non rifiuto la nulla. Allora, ripeto il test per $beta_1$ e $beta_0$ e posso rifiutare la nulla, allora mi posso fermare al modello con solo questi due parametri che posso considerare accurati (per semplicità mettiamo che i regressori non sono correlati).
2) posso stimare un modello ristretto come quello precedente, allora non rifiuto il ristretto e lo posso accettare come accurato.
il tutto si può fare anche con test per ipotesi congiunte.
Insomma posso sia ristimare il modello che no.
Perché con il $LR$ devo per forza ristimare ?
Prima di tutto grazie per la spiegazione fatta con tanto di codice, sicuramente utile ma non credo colga nel segno.
Non ho capito che test fai.
[/quote]
sempre lo stesso, $ H_0 : beta_2=0 $, poi ripeto i test su $beta_1$ e $beta_0$ solo per essere sicuro (in questo esempio) che l'unica variabile di troppo era effettivamente $x_2$.
calcolo i residui "innestando" le stime dei parametri del modello non ristretto in quello "restretto sintetico" (non stimato) e trovo una nuova verosimiglianza, R-quadro, ecc
forse è proprio qui il problema.
Però euristicamente ci sta che se $beta_2$ non è significativo contribuisce poco alla massimizzazione della verosimiglianza, quindi la verosimiglianza del modello che ho chiamato ristretto sintetico (forse posso interpretarla come ottimizzazione vincolata ?) dovrebbe essere vicina. Quindi nuovamente e giustamente non rifiuteremmo l'ipotesi $beta_2=0$.
Il punto è che il ragionamento non funziona solo in moido euristico. Avevo fatto i conti su un modello analogo a quello illustrato, ma con test congiunto $H_0: beta_1=beta_2=0$ e i conti fatti sul modello "ristretto sintetico" mi restituiscono esattamente lo stesso risultato numerico di un test di Wald che sottopone a test la stessa ipotesi. Se uso il modello ristretto effettivamente ristimato i conti non tornano esattamente.
"Sergio":
[quote="markowitz"]si, ma ad esempio se voglio testare $ H_0 : beta_2=0 $ posso:
1) fare un test sul parametro, mettiamo che non rifiuto la nulla. Allora, ripeto il test per $ beta_1 $ e $ beta_0 $ e posso rifiutare la nulla, allora mi posso fermare al modello con solo questi due parametri che posso considerare accurati (per semplicità mettiamo che i regressori non sono correlati).
2) posso stimare un modello ristretto come quello precedente, allora non rifiuto il ristretto e lo posso accettare come accurato.
Non ho capito che test fai.
[/quote]
sempre lo stesso, $ H_0 : beta_2=0 $, poi ripeto i test su $beta_1$ e $beta_0$ solo per essere sicuro (in questo esempio) che l'unica variabile di troppo era effettivamente $x_2$.
"Sergio":
In realtà volevo capire proprio cosa intendi per "faccio qualche conto".
calcolo i residui "innestando" le stime dei parametri del modello non ristretto in quello "restretto sintetico" (non stimato) e trovo una nuova verosimiglianza, R-quadro, ecc
"Sergio":
In ogni caso, direi che da una parte usi una verosimiglianza massimizzata, dall'altra una verosimiglianza non massimizzata.
Che senso può avere il loro rapporto?
forse è proprio qui il problema.
Però euristicamente ci sta che se $beta_2$ non è significativo contribuisce poco alla massimizzazione della verosimiglianza, quindi la verosimiglianza del modello che ho chiamato ristretto sintetico (forse posso interpretarla come ottimizzazione vincolata ?) dovrebbe essere vicina. Quindi nuovamente e giustamente non rifiuteremmo l'ipotesi $beta_2=0$.
Il punto è che il ragionamento non funziona solo in moido euristico. Avevo fatto i conti su un modello analogo a quello illustrato, ma con test congiunto $H_0: beta_1=beta_2=0$ e i conti fatti sul modello "ristretto sintetico" mi restituiscono esattamente lo stesso risultato numerico di un test di Wald che sottopone a test la stessa ipotesi. Se uso il modello ristretto effettivamente ristimato i conti non tornano esattamente.
"Sergio":
Se si tratta di test \( t \), i test effettuati su \( \beta_0 \) e \( \beta_1 \) nel modello ristretto non ti danno gli stessi risultati che ti danno nel modello non ristretto: cambiano gli standard error, cambiano i gradi di libertà.
Ogni volta che aggiungi o togli una variabile devi procedere a una nuova stima.
Si certo, si tratta di test \( t \)
Quel che dici lo capisco, però so anche che sottoporre a test restrizioni su singoli parametri o sottoinsiemi di parametri direttamente nel modello non ristretto non è illecito. Anche nel contesto ML, non solo LS, il test di Wald (o anche il test z per singoli parametri) funziona cosi, no?
Eppure dall'esempio che hai fatto sembra che non sia proprio lecito perché nel modello non ristretto $beta_1$ è decisamente positivo, mentre dal ristretto risulta non significativamente diverso da zero. Io avrei giustificato tale circostanza solo attraverso un'importante correlazione tra $x_1$ ed $x_2$ da cui ... ma tu dici che sono ortogonali. La situazione mi lascia sempre più perplesso ... d'altra parte dici che devo ristimare. I dubbi anzi che diradarsi aumentano ! Aiuto

"Sergio":
Puoi sottoporre a test quello che ti pare in un modello stimato.
Non puoi prendere pezzi di un'analisi e impiantarli in un'altra, non puoi usare pezzi di un modello stimato per valutare un modello che non hai stimato.
In senso generale questo è indiscutibile oltre ad essere ovvio anche solo intuitivamente. Non sono diventato pazzo

Se però entro in un caso speciale dove ti dico che, magari per comodità, i "pezzi" che prendo da un modello per impiantarli in un'altro sono stimatori consistenti delle stesse quantità ignote, ed $N$ è abbastanza grande ... allora almeno intuitivamente diventa meno ovvio che si stia facendo una cazzata ... dal punto di vista rigoroso ... non lo so, è quello che volevo capire. Ma da quanto hai detto, se ben intendo, è illecito e basta.
"Sergio":
[quote="markowitz"]Eppure dall'esempio che hai fatto sembra che non sia proprio lecito perché nel modello non ristretto $ beta_1 $ è decisamente positivo, mentre dal ristretto risulta non significativamente diverso da zero. Io avrei giustificato tale circostanza solo attraverso un'importante correlazione tra $ x_1 $ ed $ x_2 $ da cui ... ma tu dici che sono ortogonali.
Che siano ortogonali è evidente. Il "problema" è che, per evitare di appesantire, ho generato solo quattro osservazioni.
[/quote]
questo spiega tutto, se $n$ cresce gli intervalli di confidenza tenderanno allora ad eguagliarsi.
In definitiva come massima generale alla quale faccio riferimento (anche se non l'ho letta da nessuna parte):
se la domanda che mi pongo è la stessa, alla fine è quella che conta e non il criterio statistico e le sue tecnicalità, dovrei essere libero di usare tutti i test possibili tra quelli a disposizione e la risposta dovrebbe essere, almeno asintoticamente, la stessa.
Nel caso di prima $beta_2$ va escluso si o no dal modello? Io partivo dall'assunto che $x_2$ fosse una variabile irrilevante, il modello vero è bivariato (il tuo esempio è diverso). Allora il tipico test t sul parametro o la tecnica del modello ristretto contro il non ristretto mi devono dire entrambi che $x_2$ va escluso.
"Sergio":
Inoltre, nel modello "vero" il coefficiente di \( x_2 \) è il più grande, quindi escludendolo si riesce a spiegare solo una parte modesta della variabilità. In altri termini, \( \beta_1 \) da solo "non ce la fa" a spiegare più di tanto.
questo dovrebbe influire sull'$R^2$ ma non sulla significatività di $beta_1$ e $beta_0$, che in generale dovrebbe rimanere simile a quella del modello non ristretto. Dopodiché se ragioniamo di rapporto di verosimiglianza forse le cose sono più delicate, ma è un modello diverso da quello che avevo in mente io; qui il modello ristretto, mal specificato o no che sia, lo dovremmo rifiutare.
"Sergio":
D'altra parte, quando c'è un'importante correlazione tra variabili può capitare il contrario di quello che ti aspetti: aggiungendo variabili le stime peggiorano!
siamo d'accordo in questi caso le cose "strane" accadono per colpa della distorsione delle stime. In mano abbiamo, almeno, un modello mal specificato.
Prima di tutto grazie per la diffusa spiegazione
Peraltro direi che stiamo divagando ... ed in questo campo, se si vuole capire veramente, direi che è sconveniente
Tuttavia:
devo dire che la cosa mi incuriosisce. Apprezzo il Verbeek ... peccato che su google libri proprio lapagina 32 è assente
e non ho il testo immediatamente a disposizione, ma verificherò.
su questo temi mi avevi già detto qualcosa da qualche parte. Resta che su alcuni appunti e testi di Econometria il passaggio a $n$ grande è trattato solo alla stregua analitica senza dare giustificazioni metodologiche sulla filosoifia statistica sottostante (almeno non espicite); e se ricordo bene proprio il Verbeek è uno di questi. Forse si rende tutto "troppo facile"? E va be dai
Mica tanto! Fermo restando che puoi fare tutti i testi che ti pare (tenendo però presente che non sono equivalenti, che tendono a dare comunque risposte positive se \( n \) è grande ecc.), la scelta del modello statistico con tutte le sue "tecnicalità" è fondamentale.
[/quote]
Tu porti esempi in cui presupponi il confronto tra risultati di modelli in cui almeno uno, per qualche motivo più o meno importante, è mal specificato e se ne possono fare molti. E' evidente che quanto dicevo presuppone modelli ben specificati o comunque leciti (almeno a giudicare dal grado di conoscenza da cui ci si muove. Per inciso con ben specificato intendo un modello che offre stime consistenti dei parametri coinvolti). E modelli leciti e diversi per affrontare lo stesso problema ce ne sono. Un esempio interessante:
ho un qualche modello econometrico dove devo considerare l'eteroschedasticità:
1) uso gli errori standard di White (o comunque ho una matrice dove specifico l'eter. in qualche modo)
2) lascio gli OLS ed uso i FGLS (magari specificando l'eter.allo stesso modo)
si potrebbero fare ragionamenti di appropriatezza su una o l'altra tecnica sul caso di specie...
tuttavia sulle grandezze d'interesse ho, in campioni finiti, delle differenze che in campioni grandi dovrebbero ridursi per sparire asintoticamente. Altrimenti c'è un problema nascosto da qualche parte.
Ragionando solo sui test si possono fare ragionamenti analoghi.
Questo intendevo con quella frase.
In particolare poi, nel caso di prima, se il modello vero ha un regressore solo e ne stimo uno dove aggiungo una variabile irrilevante, a prescindere dai test che faccio, devo avere che $beta_2$ non è significativamente diverso da zero e per gli altri due parametri devo trovare le stesse stime puntuali e gli stessi intervalli di confidenza e qualsiasi altra grandezza rilevante non dovrebbe mostrare differenze.
Questo almeno asintoticamente dovrebbe valere.
Questo intendevo con quella frase.
Nell'esempio numerico che fai tu ci si porta dietro problemi di errata specificazione sul modello ristretto; l'esempio del grasso corporeo e le spiegazioni che dai discendono da questi problemi ... coefficenti che catturano l'effetto della variabile a cui si riferiscono "più altro" sono un'esempio di distorsione del parametro che è il contraltare di un'errata specificazione (in questo caso particolare da variabili omesse). Forse l'esempio che faccio io è troppo facile ma è quello che volevo intendere
mi riferivo esplicitamente al mio esempio dove la variabile da togliere era irrilevante, e la ribadisco in generale a più variabili se quelle che aggiungo e tolgo sono irrilevanti. E chiaro che non può valere in generale, ne sono ben consapevole, perché avremmo tra le mani modelli bene e male specificati.
siamo d'accordo in questi caso le cose "strane" accadono per colpa della distorsione delle stime. In mano abbiamo, almeno, un modello mal specificato.[/quote]
E perché mai? Considera l'esempio del grasso corporeo. Per misurare con esattezza il grasso corporeo di un soggetto bisognerebbe immergerlo in acqua: poco pratico. Si cercano quindi indicatori più "economici". Spessore della plica tricipitale, circonferenza del braccio e della coscia sono ovviamente correlati (aumentano tutti all'aumentare del grasso corporeo) e hai risultati apparentemente "strani", come il fatto che se li consideri da soli sono più significativi che se li consideri insieme. Non è un male: considerandoli insieme hai comunque una migliore spiegazione della variabilità (migliora l'R-quadro, anche quello corretto), quindi è buona cosa usare tutte e tre le misure per valutare il grasso corporeo, invece che una sola.
[/quote]
io direi che la distorsione c'è, almeno se quello che ti interessa è trovare i "veri" coefficenti dei regressori sulla dipendente; ovvero il modello con un solo regressore non è più semplice, è sbagliato! quello con più variabili non è solo migliore ma potenzialmente è quello corretto! (l'effeto sui parametri è tipico di una situazione di questo tipo, se quelle che aggiungi fossero variabili non omesse gli altri coefficenti non dovrebbero cambiare molto e neppure gli standard error intendo sempre $n$ grande e $n>>k$ dove k=num parametri). Se poi ti muovi da un'altro paradigma dove quello che conta sono, in sostanza, solo gli SE di regressione magari possiamo fare anche solo considerazioni di modello che spiega meglio o peggio.
Detto questo torno all'ovile. Hai detto che innestare le stime del non ristretto (chiaro non un modello qualsiasi) nel ristretto è sbagliato in sostanza perché non massimizzi la verosimiglianza ne minimizzi i quadrati dei residui.
E' vero(*), però ho notato che un test del rapporto di verosimiglianza scritto in questo modo mi restituisce esattamente gli stessi risultati di un Wald dove ragiono sulle stesse restrizioni. Questo almeno nel modello di regressione lineare normale. Euristicamente ha un senso, numericamente non penso torni per caso, analiticamente ci sarà qualche equivalenza. Anch'io ho letto che il modello ristretto si deve ristimare. Tuttavia volevo sapere se c'era una pezza teorica in questo senso per la procedura descritta.
(*)in realtà una qualche verosimiglianza forse la si massimizza, farei conti imponendo $beta_2=0$ non rappresenta forse una massimizzazione vincolata ?

Peraltro direi che stiamo divagando ... ed in questo campo, se si vuole capire veramente, direi che è sconveniente

Tuttavia:
"Sergio":
\( N \) abbastanza grande non rileva più di tanto (v. sotto).
...
Sì e no. Da una parte tendono a restringersi, quindi a somigliarsi. Dall'altra però, dato che all'aumentare di \( n \) gli standard error tendono comunqe a diventare sempre più piccoli, si dovrebbe compensare questo effetto aumentando il livello di confidenza dal tradizionale 95% al 99% e più. Così Marno Verbeek, A Guide to Modern Econometrics, John Wiley & Sons, 2008, terza edizione, p. 32. Non ha quindi molto senso confrontare intervalli al 95% tra piccoli e grandi campioni.
devo dire che la cosa mi incuriosisce. Apprezzo il Verbeek ... peccato che su google libri proprio lapagina 32 è assente

"Sergio":
In realtà, infatti, la ricerca della consistenza ha senso soprattutto quando la correttezza è fuori luogo (in quanto si basa sulla possibilità di ripetere infinite volte uno stesso esperimento nelle stesse condizioni), ma ricercarla aumentando la dimensione del campione comporta il rischio di rendere tutto "troppo facile".
su questo temi mi avevi già detto qualcosa da qualche parte. Resta che su alcuni appunti e testi di Econometria il passaggio a $n$ grande è trattato solo alla stregua analitica senza dare giustificazioni metodologiche sulla filosoifia statistica sottostante (almeno non espicite); e se ricordo bene proprio il Verbeek è uno di questi. Forse si rende tutto "troppo facile"? E va be dai

"Sergio":
[quote="markowitz"]In definitiva come massima generale alla quale faccio riferimento (anche se non l'ho letta da nessuna parte):
se la domanda che mi pongo è la stessa, alla fine è quella che conta e non il criterio statistico e le sue tecnicalità, dovrei essere libero di usare tutti i test possibili tra quelli a disposizione e la risposta dovrebbe essere, almeno asintoticamente, la stessa.
Mica tanto! Fermo restando che puoi fare tutti i testi che ti pare (tenendo però presente che non sono equivalenti, che tendono a dare comunque risposte positive se \( n \) è grande ecc.), la scelta del modello statistico con tutte le sue "tecnicalità" è fondamentale.
[/quote]
Tu porti esempi in cui presupponi il confronto tra risultati di modelli in cui almeno uno, per qualche motivo più o meno importante, è mal specificato e se ne possono fare molti. E' evidente che quanto dicevo presuppone modelli ben specificati o comunque leciti (almeno a giudicare dal grado di conoscenza da cui ci si muove. Per inciso con ben specificato intendo un modello che offre stime consistenti dei parametri coinvolti). E modelli leciti e diversi per affrontare lo stesso problema ce ne sono. Un esempio interessante:
ho un qualche modello econometrico dove devo considerare l'eteroschedasticità:
1) uso gli errori standard di White (o comunque ho una matrice dove specifico l'eter. in qualche modo)
2) lascio gli OLS ed uso i FGLS (magari specificando l'eter.allo stesso modo)
si potrebbero fare ragionamenti di appropriatezza su una o l'altra tecnica sul caso di specie...
tuttavia sulle grandezze d'interesse ho, in campioni finiti, delle differenze che in campioni grandi dovrebbero ridursi per sparire asintoticamente. Altrimenti c'è un problema nascosto da qualche parte.
Ragionando solo sui test si possono fare ragionamenti analoghi.
Questo intendevo con quella frase.
In particolare poi, nel caso di prima, se il modello vero ha un regressore solo e ne stimo uno dove aggiungo una variabile irrilevante, a prescindere dai test che faccio, devo avere che $beta_2$ non è significativamente diverso da zero e per gli altri due parametri devo trovare le stesse stime puntuali e gli stessi intervalli di confidenza e qualsiasi altra grandezza rilevante non dovrebbe mostrare differenze.
Questo almeno asintoticamente dovrebbe valere.
Questo intendevo con quella frase.
Nell'esempio numerico che fai tu ci si porta dietro problemi di errata specificazione sul modello ristretto; l'esempio del grasso corporeo e le spiegazioni che dai discendono da questi problemi ... coefficenti che catturano l'effetto della variabile a cui si riferiscono "più altro" sono un'esempio di distorsione del parametro che è il contraltare di un'errata specificazione (in questo caso particolare da variabili omesse). Forse l'esempio che faccio io è troppo facile ma è quello che volevo intendere

"Sergio":
Non capisco da dove trai questa bizzarra idea che se il coefficiente di una variabile è significativo, rimane tale quante e quali siano le altre variabili considerate. Ripeto: se aggiungi o togli variabili cambia tutto, cambiano le stime (salvo il caso un po' astratto dell'ortogonalità), cambiano gli standard error, cambiano i gradi di libertà delle statistiche \( t \) o \( F \), cambia l'R-quadro, cambiano gli indicatori come AIC ecc. ecc.
mi riferivo esplicitamente al mio esempio dove la variabile da togliere era irrilevante, e la ribadisco in generale a più variabili se quelle che aggiungo e tolgo sono irrilevanti. E chiaro che non può valere in generale, ne sono ben consapevole, perché avremmo tra le mani modelli bene e male specificati.
"Sergio":
[quote="markowitz"][quote="Sergio"]D'altra parte, quando c'è un'importante correlazione tra variabili può capitare il contrario di quello che ti aspetti: aggiungendo variabili le stime peggiorano!
siamo d'accordo in questi caso le cose "strane" accadono per colpa della distorsione delle stime. In mano abbiamo, almeno, un modello mal specificato.[/quote]
E perché mai? Considera l'esempio del grasso corporeo. Per misurare con esattezza il grasso corporeo di un soggetto bisognerebbe immergerlo in acqua: poco pratico. Si cercano quindi indicatori più "economici". Spessore della plica tricipitale, circonferenza del braccio e della coscia sono ovviamente correlati (aumentano tutti all'aumentare del grasso corporeo) e hai risultati apparentemente "strani", come il fatto che se li consideri da soli sono più significativi che se li consideri insieme. Non è un male: considerandoli insieme hai comunque una migliore spiegazione della variabilità (migliora l'R-quadro, anche quello corretto), quindi è buona cosa usare tutte e tre le misure per valutare il grasso corporeo, invece che una sola.
[/quote]
io direi che la distorsione c'è, almeno se quello che ti interessa è trovare i "veri" coefficenti dei regressori sulla dipendente; ovvero il modello con un solo regressore non è più semplice, è sbagliato! quello con più variabili non è solo migliore ma potenzialmente è quello corretto! (l'effeto sui parametri è tipico di una situazione di questo tipo, se quelle che aggiungi fossero variabili non omesse gli altri coefficenti non dovrebbero cambiare molto e neppure gli standard error intendo sempre $n$ grande e $n>>k$ dove k=num parametri). Se poi ti muovi da un'altro paradigma dove quello che conta sono, in sostanza, solo gli SE di regressione magari possiamo fare anche solo considerazioni di modello che spiega meglio o peggio.
Detto questo torno all'ovile. Hai detto che innestare le stime del non ristretto (chiaro non un modello qualsiasi) nel ristretto è sbagliato in sostanza perché non massimizzi la verosimiglianza ne minimizzi i quadrati dei residui.
E' vero(*), però ho notato che un test del rapporto di verosimiglianza scritto in questo modo mi restituisce esattamente gli stessi risultati di un Wald dove ragiono sulle stesse restrizioni. Questo almeno nel modello di regressione lineare normale. Euristicamente ha un senso, numericamente non penso torni per caso, analiticamente ci sarà qualche equivalenza. Anch'io ho letto che il modello ristretto si deve ristimare. Tuttavia volevo sapere se c'era una pezza teorica in questo senso per la procedura descritta.
(*)in realtà una qualche verosimiglianza forse la si massimizza, farei conti imponendo $beta_2=0$ non rappresenta forse una massimizzazione vincolata ?