Proprietà delle probabilita nelle variabili casuali

_Matteo_C1
Salve, ho un problema nell'applicare le proprietà della funzione "Probabilità di un evento" P(E) nel caso in cui l'evento è una variabile casuale.

Si dimostra in generale che, se $E$ ed $F$ sono eventi Indipendenti (ossia il manifestarsi di$ E$ non ha alcun influenza sul manifestarsi di$ F$, e viceversa) risulta:
$P(EnnF) = P(E) P(F)$.
Nel caso di una variabile casuale continua, ciò si traduce in:
$int_(E nn F )^() f(x) dx = int_(E)^() f(x) dx *int_(F)^() f(x) dx$

dove $E=[a,b]$
e $F=[alpha,beta]$

Volevo capire matematicamente quali condizioni devono soddisfare gli intervalli $ [a,b]$ e $[alpha,beta]$, affinche l'identità di sopra sia verificata.
Ciò equivale a capire in che senso due intervalli di numeri sono "indipendenti".
Grazie.

Risposte
fu^2
se l'evento è una variabile aleatoria, allora $E$ deve essere scritto come una v.a... (per esempio $E=X\in A$, con $A\subset \mathbb{R}$ per esempio.

Inoltre $f$ cos'è nella tua descrizione dei fatti?

io direi che nel continuo si traduce in un altro modo. Se $X,Y$ hanno (per esempio) densità continue $f_X$ ed $f_Y$ allora $P(X\in I, Y\in J)=P((X,Y)\in IxJ)=P(X\in I)P(Y\in J)$ si traduce nel richiedere che $\int_{I x J} f_{XY}(x,y)dxdy=\int_{I}f_X(x)dx \int_{J}f_Y(y)dy$. Non trovi?

DajeForte
"_Matteo_C":
Si dimostra in generale che, se $E$ ed $F$ sono eventi Indipendenti (ossia il manifestarsi di$ E$ non ha alcun influenza sul manifestarsi di$ F$, e viceversa) risulta:
$P(EnnF) = P(E) P(F)$.

Io questa la prendo come la definizione di indipendenza tra due eventi (più precisamente l'indipendenza riguarda le sigma algebre)
"_Matteo_C":
Nel caso di una variabile casuale continua, ciò si traduce in:
$int_(E nn F )^() f(x) dx = int_(E)^() f(x) dx *int_(F)^() f(x) dx$

dove $E=[a,b]$
e $F=[alpha,beta]$

Volevo capire matematicamente quali condizioni devono soddisfare gli intervalli $ [a,b]$ e $[alpha,beta]$, affinche l'identità di sopra sia verificata.
Ciò equivale a capire in che senso due intervalli di numeri sono "indipendenti".
Grazie.


Questo pure ha qualcosa di strano nel senso che o stai parlando di due variabili aleatorie (quindi come dice fu); se ivece la variabile è una sola è starno perchè dipende da come è fatta la variabile cioè si parla di casi particolari.

Per esempio potresti dire che se $P(X in (a,b)) P(X in (alpha,beta))=0$ (almeno uno dei due ha probabilità 0) allora sono indipendenti; lo stesso se uno dei due ha probabilità 1. Puoi anche dire che se entrambe hanno probabilità diversa da 0 ed 1 e sono disgiunti (intersezione vuota) allora sono dipendenti.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.