Scambiare derivata e valore atteso
Se $X(t)$ è una variabile aleatoria (discreta o continua) per ogni $t\in[0,1]$, di quali condizioni ho bisogno per poter affermare che
$\exists d/(dt)E[X(t)] = E[d/(dt)X(t)]$ ?
(con $E[.]$ indico il valore atteso)
$\exists d/(dt)E[X(t)] = E[d/(dt)X(t)]$ ?
(con $E[.]$ indico il valore atteso)
Risposte
Hai bisogno di qualche teorema di passaggio al limite, da applicare al rapporto incrementale (fatto rispetto al parametro $t$). Per esempio se il rapporto incrementale $\frac{X(t+h)-X(t)}{h}$ è dominato da qualche v.a. sommabile per ogni $h$, tutto fila liscio. Guarda negli appunti di Soardi, c'è un paragrafo intitolato Integrali dipendenti da parametro (pag.55 della numerazione del file) che fa al caso tuo.
Grazie! Adesso darò un'occhiata.
Ma se invece di una distribuzione continua ho una distribuzione discreta (quindi ho una serie al posto di un integrale), ho qualche altro teorema a disposizione?
Ma se invece di una distribuzione continua ho una distribuzione discreta (quindi ho una serie al posto di un integrale), ho qualche altro teorema a disposizione?
In linea teorica è sempre lo stesso discorso. Dal punto di vista della teoria della misura, infatti, il valore atteso della v.a. [tex]X[/tex] definita sullo spazio dei campioni [tex](\Omega, \mathfrak{F}, \mathbf{P})[/tex] è:
[tex]$\mathbf{E}(X)=\int_{\Omega}X\, d\mathbf{P}[/tex]
quindi è sempre un integrale di Lebesgue e come tale ha a disposizione i relativi teoremi di passaggio al limite, in particolar modo quelli della convergenza dominata e monotona. Nei casi particolari di v.a. assolutamente continue e discrete questo integrale così astratto si specializza in un integrale su [tex]\mathbb{R}[/tex] con la misura di Lebesgue e in una serie, rispettivamente; i teoremi di passaggio al limite restano a nostra disposizione.
Nell'ultimo caso abbiamo in più i teoremi classici di derivazione per serie di funzioni: se una serie di funzioni derivabili è convergente, e la serie delle derivate è uniformemente convergente, allora anche la serie originaria è uniformemente convergente ad una funzione derivabile e si può derivare termine a termine.
[tex]$\mathbf{E}(X)=\int_{\Omega}X\, d\mathbf{P}[/tex]
quindi è sempre un integrale di Lebesgue e come tale ha a disposizione i relativi teoremi di passaggio al limite, in particolar modo quelli della convergenza dominata e monotona. Nei casi particolari di v.a. assolutamente continue e discrete questo integrale così astratto si specializza in un integrale su [tex]\mathbb{R}[/tex] con la misura di Lebesgue e in una serie, rispettivamente; i teoremi di passaggio al limite restano a nostra disposizione.
Nell'ultimo caso abbiamo in più i teoremi classici di derivazione per serie di funzioni: se una serie di funzioni derivabili è convergente, e la serie delle derivate è uniformemente convergente, allora anche la serie originaria è uniformemente convergente ad una funzione derivabile e si può derivare termine a termine.