Regressione lineare & derivata.

Ciobix
Salve a tutti.

Il mio problema è il seguente: ho due variabili Y e X, che osservo (ho le serie storiche). La mia ipotesi è che Y sia funzione (anche) di X. In particolare, ipotizzo che la derivata prima sia negativa e la seconda positiva. Tali ipotesi sono basate su assunti teorici; voglio quindi testarle empiricamente.
La mia idea era quella di impostare una regressione bivariata in cui la variabile dipendente è la variazione di Y e i regressori sono le variazioni di primo e secondo ordine di X. In simboli:

$dY = a*dX + b/(2*(dX)^2)$

I coefficienti a e b andrebbero interpretati come la derivata prima e la derivata seconda di Y rispetto a X (cioè la retta di regressione andrebbe vista come un'espansione in serie di Taylor al secondo ordine). Secondo voi ha senso? Non riesco a capire se la più grande caxxata del secolo o se abbia un senso :-k
Tnx

P.S. Come potrei stimare tali derivate altrimenti?

Risposte
mathbells
Non vorrei dire sciocchezze, ma mi viene da fare un'osservazione: stai utilizzando il metodo di regressione lineare per stimare una funzione che ha la derivata seconda diversa da zero...non ti sembra una contraddizione? :wink:

Ciobix
Non saprei... Effettivamente appare una contraddizione, ma non ne sono sicuro poiché la linearità della regressione è nei parametri, non nei regressori.

mathbells
"Ciobix":
poiché la linearità della regressione è nei parametri, non nei regressori.


Sei sicuro? :roll: Ricontrolla perché credo che la linearità invece sia proprio nei regressori e cioè nelle variabili indipendenti.

Ciobix
Grazie.

"Sergio":

Interpretare quello che viene fuori è un altro paio di maniche...


True :lol:

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.