Proprietà delle probabilita nelle variabili casuali
Salve, ho un problema nell'applicare le proprietà della funzione "Probabilità di un evento" P(E) nel caso in cui l'evento è una variabile casuale.
Si dimostra in generale che, se $E$ ed $F$ sono eventi Indipendenti (ossia il manifestarsi di$ E$ non ha alcun influenza sul manifestarsi di$ F$, e viceversa) risulta:
$P(EnnF) = P(E) P(F)$.
Nel caso di una variabile casuale continua, ciò si traduce in:
$int_(E nn F )^() f(x) dx = int_(E)^() f(x) dx *int_(F)^() f(x) dx$
dove $E=[a,b]$
e $F=[alpha,beta]$
Volevo capire matematicamente quali condizioni devono soddisfare gli intervalli $ [a,b]$ e $[alpha,beta]$, affinche l'identità di sopra sia verificata.
Ciò equivale a capire in che senso due intervalli di numeri sono "indipendenti".
Grazie.
Si dimostra in generale che, se $E$ ed $F$ sono eventi Indipendenti (ossia il manifestarsi di$ E$ non ha alcun influenza sul manifestarsi di$ F$, e viceversa) risulta:
$P(EnnF) = P(E) P(F)$.
Nel caso di una variabile casuale continua, ciò si traduce in:
$int_(E nn F )^() f(x) dx = int_(E)^() f(x) dx *int_(F)^() f(x) dx$
dove $E=[a,b]$
e $F=[alpha,beta]$
Volevo capire matematicamente quali condizioni devono soddisfare gli intervalli $ [a,b]$ e $[alpha,beta]$, affinche l'identità di sopra sia verificata.
Ciò equivale a capire in che senso due intervalli di numeri sono "indipendenti".
Grazie.
Risposte
se l'evento è una variabile aleatoria, allora $E$ deve essere scritto come una v.a... (per esempio $E=X\in A$, con $A\subset \mathbb{R}$ per esempio.
Inoltre $f$ cos'è nella tua descrizione dei fatti?
io direi che nel continuo si traduce in un altro modo. Se $X,Y$ hanno (per esempio) densità continue $f_X$ ed $f_Y$ allora $P(X\in I, Y\in J)=P((X,Y)\in IxJ)=P(X\in I)P(Y\in J)$ si traduce nel richiedere che $\int_{I x J} f_{XY}(x,y)dxdy=\int_{I}f_X(x)dx \int_{J}f_Y(y)dy$. Non trovi?
Inoltre $f$ cos'è nella tua descrizione dei fatti?
io direi che nel continuo si traduce in un altro modo. Se $X,Y$ hanno (per esempio) densità continue $f_X$ ed $f_Y$ allora $P(X\in I, Y\in J)=P((X,Y)\in IxJ)=P(X\in I)P(Y\in J)$ si traduce nel richiedere che $\int_{I x J} f_{XY}(x,y)dxdy=\int_{I}f_X(x)dx \int_{J}f_Y(y)dy$. Non trovi?
"_Matteo_C":
Si dimostra in generale che, se $E$ ed $F$ sono eventi Indipendenti (ossia il manifestarsi di$ E$ non ha alcun influenza sul manifestarsi di$ F$, e viceversa) risulta:
$P(EnnF) = P(E) P(F)$.
Io questa la prendo come la definizione di indipendenza tra due eventi (più precisamente l'indipendenza riguarda le sigma algebre)
"_Matteo_C":
Nel caso di una variabile casuale continua, ciò si traduce in:
$int_(E nn F )^() f(x) dx = int_(E)^() f(x) dx *int_(F)^() f(x) dx$
dove $E=[a,b]$
e $F=[alpha,beta]$
Volevo capire matematicamente quali condizioni devono soddisfare gli intervalli $ [a,b]$ e $[alpha,beta]$, affinche l'identità di sopra sia verificata.
Ciò equivale a capire in che senso due intervalli di numeri sono "indipendenti".
Grazie.
Questo pure ha qualcosa di strano nel senso che o stai parlando di due variabili aleatorie (quindi come dice fu); se ivece la variabile è una sola è starno perchè dipende da come è fatta la variabile cioè si parla di casi particolari.
Per esempio potresti dire che se $P(X in (a,b)) P(X in (alpha,beta))=0$ (almeno uno dei due ha probabilità 0) allora sono indipendenti; lo stesso se uno dei due ha probabilità 1. Puoi anche dire che se entrambe hanno probabilità diversa da 0 ed 1 e sono disgiunti (intersezione vuota) allora sono dipendenti.