Kriging - derivata di sommatoria

DomCobb
Buongiorno, avrei una domanda di semplice matematica, anche se il contesto è quello della statistica (equazioni di Kriging).

Arrivato ad un certo punto della dimostrazione mi ritrovo a dover minimizare la seguente objective function:

$L(\lambda_{0i},\mu)=2sum_{i=1}^N \lambda_{0i} \gamma (x_i-x_0)-sum_(i = 1)^N sum_(j = 1)^N \lambda_{0i}\lambda_{0j} \gamma (x_i-x_j)+2\mu (sum_{i=1}^N \lambda_{0i}-1)$

rispetto a $\lambda_{0i}$ e $\mu$ (nel caso di quest'ultimo direi che è piuttosto banale, non essendo i primi due termini dipendenti da $\mu$). Nel caso di $\lambda_{0i}$ non riesco invece ad arrivare al risultato corretto, sicuramente c'è un inghippo che mi sfugge sulla seconda sommatoria nel caso in cui $i=j$.

$(partial L)/(partial \lambda_{0i})=2sum_{i=1}^N \gamma (x_i-x_0)-?+2\muN=0$
$(partial L)/(partial \mu)=2 (sum_{i=1}^N \lambda_{0i}-1)=0$

Come potrei procedere?

Grazie.

Risposte
Lo_zio_Tom
Dunque premesso che, come hai già osservato, il problema posto non è di Statistica ma solo di calcolo e non conoscendo il resto del problema diventa comunque difficile rispondere (quindi prendi ciò che ti dico con beneficio di inventario)....i calcoli che hai fatto derivando rispetto al parametro $lambda_(0i)$ mi sembrano errati.

Io farei così:

Per la prima somma, $2sum_{i=1}^N \lambda_{0i} \gamma (x_i-x_0)$

derivando ottieni

$2gamma(x_i-x_0), AAi$, non ci va la $N$ perché le derivate rispetto agli altri parametri sono zero.

Per la seconda somma $sum_(i = 1)^N sum_(j = 1)^N \lambda_{0i}\lambda_{0j} \gamma (x_i-x_j)$ farei così:

derivando ottieni

$sumsum_(i != j)lambda_(0j)gamma(x_i-x_j)$ perché quando $i=j rarr(x_i-x_j)=0$.

Stesso discorso per la terza sommatoria....la derivata rispetto a $lambda_(0i)$ mi risulta $2mu$....non vedo perché moltiplicare per $N$ :|


Se invece non è così allora prova a specificare meglio i dati del problema per rendere più facile la risposta da parte degli utenti eventualmente interessati...
Data la natura del problema sarei propenso a spostarlo in Analisi Matematica di Base, sei d'accordo?

DomCobb
Mi sono dimenticato di specificare che $\gamma$ è il variogramma, quindi una funzione. Nello specifico la funzione assume il valore 0 solo nel caso in cui $x_i=x_j$ quindi credo sia comunque giusto ragionare come hai fatto te. Tuttavia il risultato sulle mie slide è:
$sum_{j=1}^N \lambda_{0j}\gamma(x_i-x_j) + \mu = \gamma(x_i-x_0)$
e qua non mi torna né il segno di $\mu$, tantomeno il coefficiente 2 che sparisce nel nulla.


Provo a scrivere il problema ma è più una dimostrazione che altro, quindi non saprei nemmeno da dove partire :?

Sostanzialmente si vuole calcolare il valore di una funzione random $Z(x)$ in un punto $x_0$, partendo dalle misurazioni effettuate in $N$ altre località $x_1,x_2,...,x_N$. Per farlo si usa un'interpolazione lineare pesata:
$Z'_0 = sum_{i=1}^N \lambda_{0i}Z_i$
denotando con $'$ il valore stimato ed essendo $Z'_0=Z'(x_0)$ e $Z_i=Z(x_i)$.
Si impone poi che lo stimatore sia non distorto:
$E[Z'_0-Z_0]=0$
da cui:
(1) $sum_{i=1}^N \lambda_{0i}=1$
e che la varianza dell'errore sia minima:
(2) $var[Z'_0-Z_0]=E[(Z'_0-Z_0)^2]=min$

Facendo qualche trick matematico si arriva a:
(2') $var[Z'_0-Z_0]=2sum_{i=1}^N \lambda_{0i} \gamma (x_i-x_0)-sum_(i = 1)^N sum_(j = 1)^N \lambda_{0i}\lambda_{0j} \gamma (x_i-x_j)$

essendo $\gamma$ il variogramma che per chi non lo conoscesse è definito come:
$\gamma(x_i-x_j)=\sigma_Z^2-cov[Z_i,Z_j]$
ove $\sigma_Z^2$ è la varianza di $Z$ (pertanto è 0 se $i=j$, come dicevo).

Il problema che si pone ora è che il minimo della varianza non soddisfa la (1) e quindi si procede con un'ottimizazione con vincoli (ossia minimizzare la $L$ del mio primo messaggio) - $\mu$ è il coefficiente di Lagrange.

Come sia stata definita $L$ e le successive derivate però, appunto, non mi sono chiare.


Comunque sono d'accordo nel spostare il topic. E intanto grazie per la risposta!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.