Valor medio di somma di due uniformi
Ciao, come faccio a dimostrare che vale:
[tex]E[X^2 + Y^2 \leq 1] = \frac{\pi}{4}[/tex]
con \(X, Y \sim U(-1,1) \) ?
Ciao e grazie
-s.fox
[tex]E[X^2 + Y^2 \leq 1] = \frac{\pi}{4}[/tex]
con \(X, Y \sim U(-1,1) \) ?
Ciao e grazie
-s.fox
Risposte
"superfox":
Ciao, come faccio a dimostrare che vale:
[tex]E[X^2 + Y^2 \leq 1] = \frac{\pi}{4}[/tex]
con \(X, Y \sim U(-1,1) \) ?
Non mi torna tanto quello che hai scritto: dentro le parentesi quadrate dovrebbe forse esserci una variabile aleatoria, mentre a me $X^2 + Y^2 \leq 1$ sembra più un evento.
anche a me sembra una strana notazione...
uhm... definisco Z = 1 se \(X^2 + Y^2 \leq 1\), Z = 0 altrimenti. Mi chiedo \( E[Z] = \frac{\pi}{4} \) ?
Che poi il valor medio sia proprio la prob. dell'espressione possiamo anche evitare di rimarcarlo onde evitar antipatici imbarazzi, oky?;)
Ciaps
-s.fox
Che poi il valor medio sia proprio la prob. dell'espressione possiamo anche evitare di rimarcarlo onde evitar antipatici imbarazzi, oky?;)
Ciaps
-s.fox
"superfox":
uhm... definisco Z = 1 se \(X^2 + Y^2 \leq 1\), Z = 0 altrimenti. Mi chiedo \( E[Z] = \frac{\pi}{4} \) ?
OK, grazie, ora ho capito. Non avevo mai visto quella notazione. Dove l'hai imparata?
Adesso che abbiamo chiarito le notazioni, bisognerebbe rispettare il regolamento del forum che chiede a chi ha posto la domanda di "dimostrare lo sforzo che ha fatto per cercare di risolvere la difficoltà, indicare la strada che ha cercato di intraprendere e in ogni caso indicare aspetti specifici da chiarire": cosa hai provato a fare?
Il procedimento che ho seguito è questo :
Siano \(X \sim U(-1,1)\) e \(Y = X^2 \), allora considerando la densità:
[tex]f(x) = \frac{1}{2}[/tex] in [-1, 1], 0 altrove
[tex]f(y) = \frac{1}{2\sqrt{y}}[/tex] in [0, 1], 0 altrove
rimane da calcolare la probabilità \( Prob{\{Y_1 + Y_2 \leq 1\}} \) = ?
Io ho considerato :
[tex]\int_0^1 \! \mathit{P}\{ Y_1 \leq \epsilon, Y_2 \leq 1 - \epsilon \} \, \mathrm{d}\epsilon =
\int_0^1 \! \mathit{P}\{ Y_1 \leq \epsilon\} \mathit{P}\{Y_2 \leq 1 - \epsilon \} \, \mathrm{d}\epsilon =
\int_0^1 (
\int_0^{\epsilon} \frac{y_1^{-\frac{1}{2}}}{2} \mathrm{d}y_1
\int_0^{1 - \epsilon} \frac{y_2^{-\frac{1}{2}}}{2} \mathrm{d}y_2
) \mathrm{d}\epsilon[/tex]
solo che ora mi sono accorto che ho sbagliato a fare il conto... ma il procedimento va bene?
ciao e grazie
-s.fox
Siano \(X \sim U(-1,1)\) e \(Y = X^2 \), allora considerando la densità:
[tex]f(x) = \frac{1}{2}[/tex] in [-1, 1], 0 altrove
[tex]f(y) = \frac{1}{2\sqrt{y}}[/tex] in [0, 1], 0 altrove
rimane da calcolare la probabilità \( Prob{\{Y_1 + Y_2 \leq 1\}} \) = ?
Io ho considerato :
[tex]\int_0^1 \! \mathit{P}\{ Y_1 \leq \epsilon, Y_2 \leq 1 - \epsilon \} \, \mathrm{d}\epsilon =
\int_0^1 \! \mathit{P}\{ Y_1 \leq \epsilon\} \mathit{P}\{Y_2 \leq 1 - \epsilon \} \, \mathrm{d}\epsilon =
\int_0^1 (
\int_0^{\epsilon} \frac{y_1^{-\frac{1}{2}}}{2} \mathrm{d}y_1
\int_0^{1 - \epsilon} \frac{y_2^{-\frac{1}{2}}}{2} \mathrm{d}y_2
) \mathrm{d}\epsilon[/tex]
solo che ora mi sono accorto che ho sbagliato a fare il conto... ma il procedimento va bene?
ciao e grazie
-s.fox
"retrocomputer":
bisognerebbe rispettare il regolamento del forum che chiede a chi ha posto la domanda di "dimostrare lo sforzo che ha fatto per cercare di risolvere la difficoltà, indicare la strada che ha cercato di intraprendere e in ogni caso indicare aspetti specifici da chiarire": cosa hai provato a fare?
"superfox":
Il procedimento che ho seguito è questo :
Siano \(X \sim U(-1,1)\) e \(Y = X^2 \), allora considerando la densità:
[tex]f(x) = \frac{1}{2}[/tex] in [-1, 1], 0 altrove
[tex]f(y) = \frac{1}{2\sqrt{y}}[/tex] in [0, 1], 0 altrove
rimane da calcolare la probabilità \( Prob{\{Y_1 + Y_2 \leq 1\}} \) = ?
E cosa sono le $Y_i$?
Immagino che tu intendessi definire $Y_i=X^2$ per $i=1,2$... In tal caso penso che non vada bene...
Ah, $X$ e $Y$ sono indipendenti?
sì, \( Y_i = X_i^2 \) e la relazione è \( X_1^2 + X_2^2 \leq 1 \) con \( X_i \sim U(-1, 1) \)
qual è l'approccio da seguire?
ciao & grazie
- s.fox
edit: sì \(X_1, X_2\) sono indipendenti
qual è l'approccio da seguire?
ciao & grazie
- s.fox
edit: sì \(X_1, X_2\) sono indipendenti
A me è venuta in mente una dimostrazione intuitiva (e poco formale): consideriamo il valore assunto dalla $X$ come un valore sull'asse delle ascisse e il valore assunto dalla $Y$ come ordinata. Di conseguenza i possibili valori assunti dalle due variabili casuali sono tutti quelli contenuti nel luogo dei punti aventi ascissa e ordinata comprese tra $-1$ e $1$, ovvero un quadrato di lato $2$ e di area di conseguenza $4$. Tenendo in conto l'indipendenza tra le due variabili casuali, ciascun punto bidimensionale all'interno di questo quadrato ha la stessa densità di probabilità (fuori di esso la densità è costantemente nulla).
L'evento che a noi interessa si verifica quando viene estratto un punto all'interno del cerchio unitario centrato in $0$. Tale cerchio è ovviamente contenuto interamente nel quadrato ed ha area $pi$. Di conseguenza la probabilità che si verifichi l'evento è uguale all'area del cerchio divisa per l'area del quadrato, proprio $pi/4$.
Questa è una dimostrazione mooolto informale, però credo che non sia così difficile replicarla in maniera un po' più rigorosa utilizzando le funzioni di ripartizione delle due v.a.
Lascio a te questo ingrato compito
L'evento che a noi interessa si verifica quando viene estratto un punto all'interno del cerchio unitario centrato in $0$. Tale cerchio è ovviamente contenuto interamente nel quadrato ed ha area $pi$. Di conseguenza la probabilità che si verifichi l'evento è uguale all'area del cerchio divisa per l'area del quadrato, proprio $pi/4$.
Questa è una dimostrazione mooolto informale, però credo che non sia così difficile replicarla in maniera un po' più rigorosa utilizzando le funzioni di ripartizione delle due v.a.
Lascio a te questo ingrato compito

ciao deckard, in effetti il tuo ragionamento torna..
mi piacerebbe far tornare anche il mio, solo che non so come si calcola la densità congiunta X+Y con X, Y due var. aleatorie indip. ??
Ciau
- Dean
mi piacerebbe far tornare anche il mio, solo che non so come si calcola la densità congiunta X+Y con X, Y due var. aleatorie indip. ??
Ciau
- Dean
"superfox":
uhm... definisco Z = 1 se \(X^2 + Y^2 \leq 1\), Z = 0 altrimenti. Mi chiedo \( E[Z] = \frac{\pi}{4} \) ?
intendi che la funzione di densità della congiunta di $Z = (X,Y)$ con \(X,Y \sim \mathcal{U}(-1,1)\) indipendenti, è:
$f(x,y) = {(1 if x^2 + y^2 <= 1),(0\ \text{other}):}$
lo confermi? Mi pare un po' particolare come è definita...
"hamming_burst":
[quote="superfox"]uhm... definisco Z = 1 se \(X^2 + Y^2 \leq 1\), Z = 0 altrimenti. Mi chiedo \( E[Z] = \frac{\pi}{4} \) ?
intendi che la funzione di densità della congiunta di $Z = (X,Y)$ con \(X,Y \sim \mathcal{U}(-1,1)\) indipendenti, è:
$f(x,y) = {(1 if x^2 + y^2 <= 1),(0\ \text{other}):}$
lo confermi? Mi pare un po' particolare come è definita...[/quote]
no aspetta, ho definito la variabile aleatoria Z come una bernoulli:
$Z= {(1 if x^2 + y^2 <= 1),(0\ \text{other}):}$
ma la sua densità mi sfugge..
Ciaps
- s.fox
"superfox":
mi piacerebbe far tornare anche il mio, solo che non so come si calcola la densità congiunta X+Y con X, Y due var. aleatorie indip. ??
Conosci la formula della convoluzione?
Però in questo modo prima ti calcoli la densità di $X^2$ e poi quella della somma $X^2+Y^2$, OK?
boh io di convoluzione conosco:
[tex]x(t) \otimes y(t) = \int_{-\infty}^{+\infty} x(\alpha) y(t - \alpha) \mathrm{d}\alpha[/tex]
ne esiste un'altra?
Ciau
-s.fox
[tex]x(t) \otimes y(t) = \int_{-\infty}^{+\infty} x(\alpha) y(t - \alpha) \mathrm{d}\alpha[/tex]
ne esiste un'altra?
Ciau
-s.fox
"superfox":
boh io di convoluzione conosco:
[tex]x(t) \otimes y(t) = \int_{-\infty}^{+\infty} x(\alpha) y(t - \alpha) \mathrm{d}\alpha[/tex]
ne esiste un'altra?
Dicevo quella. Ma scritta così sembra che l'integrale a secondo membro è la densità congiunta, mentre invece è (forse dopo avere scambiato x con y) la densità della differenza.
A te comunque serve la densità della somma ($t+\alpha$ invece di $t-\alpha$).
"superfox":
no aspetta, ho definito la variabile aleatoria Z come una bernoulli:
$Z= {(1 if x^2 + y^2 <= 1),(0\ \text{other}):}$
ma la sua densità mi sfugge..
Ciaps
- s.fox
ok, capito cosa intendi. Hai definito semplicemente la funzione indicatrice per questa v.a.
Ma secondo me l'esercizio è più semplice di tutti questi calcoli.
Sai che $Z$ è la distribuzione sul cerchio unitario, definito dalla congiunta $(X,Y)$ che sono uniforme nell'intervallo $(-1,1)$. Tale v.a. è centrata nell'origine, il suo valor medio non può esser altro che $0$.
che ne pensi?
scusate, mi rendo di aver fatto un po' di casino qua e là utilizzando i simboli precedentemente definiti in modo non coerente.
Cerco di fare meno casino possibile:
Siano $X, Y \sim U(-1, 1)$, allora definisco le variabili aleatorie $W= X^2 + Y^2$ e
[tex]Z =
\begin{cases}
1 & \text{se } W \leq 1 \\
0 & \text{altrimenti}
\end{cases}[/tex]
mi chiedo quanto vale la sua media:
[tex]E[Z] = P(W \leq 1) = P(X^2 + Y^2 \leq 1)[/tex]
L'interpretazione geometrica fornita da Deckard in questo post http://www.matematicamente.it/forum/valor-medio-di-somma-di-due-uniformi-t98906.html#p655794 mi sembra ragionevole, stavo cercando di capire come arrivarci per via analitica.
Dicevo quella. Ma scritta così sembra che l'integrale a secondo membro è la densità congiunta, mentre invece è (forse dopo avere scambiato x con y) la densità della differenza.
A te comunque serve la densità della somma ($t+\alpha$ invece di $t-\alpha$).[/quote]
Ho fatto i conti ed il risultato è corretto, quanto soprendente, solo che è con $t-\alpha$ o ho sbagliato a calcolare gli intervalli?
[tex]\int_{t-1}^t f_{y_1}(\alpha) f_{y_2}(t- \alpha) \mathrm{d}\alpha[/tex]
con $Y_i$ = $X_i^2$. Come ci sei arrivato a questa formula?
Ciau & grazie a tutti
- s.fox
"hamming_burst":
Sai che $Z$ è la distribuzione sul cerchio unitario, definito dalla congiunta $(X,Y)$ che sono uniforme nell'intervallo $(-1,1)$. Tale v.a. è centrata nell'origine, il suo valor medio non può esser altro che $0$.
Cerco di fare meno casino possibile:
Siano $X, Y \sim U(-1, 1)$, allora definisco le variabili aleatorie $W= X^2 + Y^2$ e
[tex]Z =
\begin{cases}
1 & \text{se } W \leq 1 \\
0 & \text{altrimenti}
\end{cases}[/tex]
mi chiedo quanto vale la sua media:
[tex]E[Z] = P(W \leq 1) = P(X^2 + Y^2 \leq 1)[/tex]
L'interpretazione geometrica fornita da Deckard in questo post http://www.matematicamente.it/forum/valor-medio-di-somma-di-due-uniformi-t98906.html#p655794 mi sembra ragionevole, stavo cercando di capire come arrivarci per via analitica.
"retrocomputer":
[quote="superfox"]boh io di convoluzione conosco:
[tex]x(t) \otimes y(t) = \int_{-\infty}^{+\infty} x(\alpha) y(t - \alpha) \mathrm{d}\alpha[/tex]
ne esiste un'altra?
Dicevo quella. Ma scritta così sembra che l'integrale a secondo membro è la densità congiunta, mentre invece è (forse dopo avere scambiato x con y) la densità della differenza.
A te comunque serve la densità della somma ($t+\alpha$ invece di $t-\alpha$).[/quote]
Ho fatto i conti ed il risultato è corretto, quanto soprendente, solo che è con $t-\alpha$ o ho sbagliato a calcolare gli intervalli?
[tex]\int_{t-1}^t f_{y_1}(\alpha) f_{y_2}(t- \alpha) \mathrm{d}\alpha[/tex]
con $Y_i$ = $X_i^2$. Come ci sei arrivato a questa formula?
Ciau & grazie a tutti
- s.fox
"superfox":
Ho fatto i conti ed il risultato è corretto, quanto soprendente, solo che è con $t-\alpha$ o ho sbagliato a calcolare gli intervalli?
[tex]\int_{t-1}^t f_{y_1}(\alpha) f_{y_2}(t- \alpha) \mathrm{d}\alpha[/tex]
Con un cambio di variabile si passa da somma a differenza, quindi anche la tua formula dovrebbe andare bene. A me risulterebbe che si deve mettere $\alpha -t$ al posto di $t-\alpha$, però nel tuo caso è forse indifferente.
Il ragionamento di Deckard va benissimo ed è formale.
Basta osservare che $ E[Z]=P((X,Y) in A) = int_{RR^2} 1_A f_{X,Y}(x,y) dxdy = int_A f_{X,Y}(x,y) dxdy $ dove
$A={(x,y) | x^2+y^2<1}$.
Sostituisci la densità ed ottieni il risultato.
@retro: quella definita è la convoluzione e la sua interpretazione è immediata.
Se hai x+y=t, ponendo (ad esempio) x=a hai che y=t-a per ogni a in R. Somma in a ed ottieni il risultato. Questa è la trasposizione non formale di quanto accade per le v.a. discrete.
Basta osservare che $ E[Z]=P((X,Y) in A) = int_{RR^2} 1_A f_{X,Y}(x,y) dxdy = int_A f_{X,Y}(x,y) dxdy $ dove
$A={(x,y) | x^2+y^2<1}$.
Sostituisci la densità ed ottieni il risultato.
@retro: quella definita è la convoluzione e la sua interpretazione è immediata.
Se hai x+y=t, ponendo (ad esempio) x=a hai che y=t-a per ogni a in R. Somma in a ed ottieni il risultato. Questa è la trasposizione non formale di quanto accade per le v.a. discrete.
Io non ho capito perchè con X+Y viene fuori una convoluzione? L'operazione la conosco perchè è il risultato di un segnale applicato ad una certa risposta impulsiva di un sistema linear time invariant. Solo che l'analogia con la densità congiunta X,Y nn la vedo granchè..
Ciaps
- s.fox
Ciaps
- s.fox