Interpolazione statistica
Salve a tutti, dopo aver cercato per giorni sia su internet che sulle slide di tutte le università proprio non riesco a capire come si fa ad inserire, o per lo meno, a sapere quanto vale una sommatoria all'interno di una retta di interpolazione base (y=b0+bx).
Il mio problema è che se avessi i1,i2,i3,...,in riuscirei a farlo, ma con i soli dati della retta base mi viene chiesto di trovare il valore della sommatoria. Questi sono due esempi e come potete vedere non ci sono dati che cerco.


Grazie in anticipo, veramente non riesco ad uscirne ci ho provato tutti i modi ma senza la i non so come fare e non trovo niente nemmeno su internet
Il mio problema è che se avessi i1,i2,i3,...,in riuscirei a farlo, ma con i soli dati della retta base mi viene chiesto di trovare il valore della sommatoria. Questi sono due esempi e come potete vedere non ci sono dati che cerco.


Grazie in anticipo, veramente non riesco ad uscirne ci ho provato tutti i modi ma senza la i non so come fare e non trovo niente nemmeno su internet
Risposte
giusto perché sei appena iscritto e per farti vedere la semplicità dei quesiti che proponi ti mostro come fare ma, a partire dal tuo prossimo eventuale topic, mi aspetto che tu lo scriva nel pieno rispetto del regolamento, ovvero con le formule scritte per benino e una bella bozza risolutiva (sei avvisato):
Primo esercizio:
$sum_(i=1)^(N)[2hat(y)_i-y_i]=2(sum_(i=1)^(N)hat(y)_i)-sum_(i=1)^(N)y_i=2Nmu-Nmu=Nmu$
(dove con $mu$ il testo intende la media di $y$)
Secondo esercizio:
Il secondo quesito è ovviamente zero, essendo una delle 4 proprietà fondamentali dei residui di regressione. Vediamo come dimostrarlo:
Il problema della stima ai minimi quadrati consiste appunto nel miminizzare la seguente funzione rispetto ad $a$ e $b$
$sum_i(y_i-a-bx_i)^2="min"$
Come di consueto, per minimizzare una funzione, è necessario azzerare le derivate prime; in questo caso, rispetto ai due parametri della retta $a$ e $b$, ottenendo molto semplicemente (con le consuete regole di derivazione) quello che si definisce "Sistema di equazioni normali di Regressione"
${{: ( (partialsum_i(y_i-a-bx_i)^2)/(partiala)=0 ),( (partialsum_i(y_i-a-bx_i)^2)/(partialb)=0 ) :}rarr{{: ( sum_i(y_i-hat(y)_i)=0 ),( sum_i(y_i-hat(y)_i)x_i=0 ) :}$
Ora prendiamo il testo del tuo problema
$sum_i(y_i-hat(y)_i)hat(y)_i=sum_i(y_i-hat(y)_i)(a+bx_i)=asum_i(y_i-hat(y)_i)+b sum_i(y_i-hat(y)_i)x_i=0$
perché, come si vede agevolmente, sono proprio le condizioni di minimizzazione imposte dalle equazioni normali di regressione.
cordiali saluti
Primo esercizio:
$sum_(i=1)^(N)[2hat(y)_i-y_i]=2(sum_(i=1)^(N)hat(y)_i)-sum_(i=1)^(N)y_i=2Nmu-Nmu=Nmu$
(dove con $mu$ il testo intende la media di $y$)
Secondo esercizio:
Il secondo quesito è ovviamente zero, essendo una delle 4 proprietà fondamentali dei residui di regressione. Vediamo come dimostrarlo:
Il problema della stima ai minimi quadrati consiste appunto nel miminizzare la seguente funzione rispetto ad $a$ e $b$
$sum_i(y_i-a-bx_i)^2="min"$
Come di consueto, per minimizzare una funzione, è necessario azzerare le derivate prime; in questo caso, rispetto ai due parametri della retta $a$ e $b$, ottenendo molto semplicemente (con le consuete regole di derivazione) quello che si definisce "Sistema di equazioni normali di Regressione"
${{: ( (partialsum_i(y_i-a-bx_i)^2)/(partiala)=0 ),( (partialsum_i(y_i-a-bx_i)^2)/(partialb)=0 ) :}rarr{{: ( sum_i(y_i-hat(y)_i)=0 ),( sum_i(y_i-hat(y)_i)x_i=0 ) :}$
Ora prendiamo il testo del tuo problema
$sum_i(y_i-hat(y)_i)hat(y)_i=sum_i(y_i-hat(y)_i)(a+bx_i)=asum_i(y_i-hat(y)_i)+b sum_i(y_i-hat(y)_i)x_i=0$
perché, come si vede agevolmente, sono proprio le condizioni di minimizzazione imposte dalle equazioni normali di regressione.
cordiali saluti