Significato di una funzione di verosimiglianza
Ciao, amici! Si conduce un esame su un campione di $n$ oggetti con tempi di vita esponenziali di media incognita $\theta$ interrompendo l'esperimento quando il numero di oggetti che si guastano raggiunge il numero fissato $r\leq n$. Gli $r$ tempi di vita registrati sono $x_1\leq...\leq x_r$. Identificando con gli indici $i_1,...,i_r$ gli oggetti che si guastano per $j$-esimi con $j=1,...,r$ e chiamando i rispettivi tempi di vita $X_{i_j}$, che hanno densità di probabilità $f_{X_{i_j}}(x_j)=1/\theta e^{-x_j/\theta}$, si ha naturalmente che la densità congiunta delle $X_{i_1},...,X_{i_r}$ è\[f_{X_{i_1},...,X_{i_r}}(x_1,...,x_r)=\prod_{j=1}^r \frac{1}{\theta} e^{-\frac{x_j}{\theta}}=\frac{1}{\theta^r}e^{-\sum_{j=1}^{r}\frac{1}{\theta}x_j }\]mentre si ha che\[P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)=e^{-\frac{(n-r)x_r}{\theta}}.\]Il mio libro dice che la funzione di verosimiglianza è quindi\[L(x_1,...,x_r,i_1,...,i_r|\theta)=f_{X_{i_1},...,X_{i_r}}(x_1,...,x_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)=\frac{1}{\theta^r}e^{-\frac{1}{\theta}\sum_{j=1}^{r}x_j-\frac{(n-r)x_r}{\theta}}\]
Perdonatemi per l'ignoranza, ma non mi è chiaro che cosa rappresenti questa likelihood: si tratta della funzione di densità di probabilità di che cosa?
L'integrale \(\int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r\)
\(=\int_{0}^{x_r}...\int_{0}^{x_1}\frac{1}{\theta^r}e^{-\frac{1}{\theta}\sum_{j=1}^{r}t_j-\frac{(n-r)t_r}{\theta}}\text{d}t_1...\text{d}t_r=\) coincide forse con \(P(\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)\})\)?
Grazie di cuore a chi mi aiuterà a capirci qualcosa...
Perdonatemi per l'ignoranza, ma non mi è chiaro che cosa rappresenti questa likelihood: si tratta della funzione di densità di probabilità di che cosa?
L'integrale \(\int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r\)
\(=\int_{0}^{x_r}...\int_{0}^{x_1}\frac{1}{\theta^r}e^{-\frac{1}{\theta}\sum_{j=1}^{r}t_j-\frac{(n-r)t_r}{\theta}}\text{d}t_1...\text{d}t_r=\) coincide forse con \(P(\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)\})\)?

Grazie di cuore a chi mi aiuterà a capirci qualcosa...
Risposte
Non capisco bene il tuo problema.
Stai chiedendo spiegazioni sul significato di likelihood in generale oppure non capisci come si ottiene la tua likelihood?
Stai chiedendo spiegazioni sul significato di likelihood in generale oppure non capisci come si ottiene la tua likelihood?
Grazie, niandra82!!! In generale penso di aver chiara la definizione di funzione di likelihood, ma non vorrei essermi convinto di una cosa sbagliata nel pensare che\[\int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r=P(\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)\})\]
È corretta la mia interpretazione?
\(\infty\) grazie ancora!!!
È corretta la mia interpretazione?
\(\infty\) grazie ancora!!!
Non va confusa la distribuzione congiunta con la verosimiglianza, sebbene la loro forma sia uguale.
La prima è funzione delle x e il suo integrale in x è pari a 1 (quindi è una misura di probabilità), mentre la verosimiglianza è una funzione in $\theta$ e niente di assicura che il suo integrale (in $\theta$) sia unitario segue che non è una probabilità
La prima è funzione delle x e il suo integrale in x è pari a 1 (quindi è una misura di probabilità), mentre la verosimiglianza è una funzione in $\theta$ e niente di assicura che il suo integrale (in $\theta$) sia unitario segue che non è una probabilità
Grazie di cuore per la risposta! I mio libro utilizza però una definizione di funzione di verosimiglianza come funzione di densità, per variabili continue, oppure di massa di probabilità, per quelle discrete, quindi suppongo che anche quella \(L(x_1,...,x_r,i_1,...,i_r|\theta)\) abbia integrale unitario sul dominio \((0,+\infty)^r\) e possa essere integrata trovando una probabilità... o do i numeri?
$+\infty$ grazie ancora!!!
EDIT: precisate le variabili rispetto a cui intendevo l'integrale e messo l'esponente all'intervallo.
$+\infty$ grazie ancora!!!
EDIT: precisate le variabili rispetto a cui intendevo l'integrale e messo l'esponente all'intervallo.
Il tuo libro scrive correttamente, sei tu che non stai capendo 
Facciamo un semplice esempio. Hai una sola variabile $x$ che si distribuisce normalmente. La sua densità è $f(x)=(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2})$ se consideri di conoscere la media e la varianza, allora abbiamo che
$\int_{- \infty}^{\infty}(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2}) dx = 1$ e questa è una probabilità.
Se invece consideriamo $x$ e $\sigma^2$ conosciuti e $\mu$ incognito, allora avremmo che
$\int_{- \infty}^{\infty}(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2}) d\mu ne 1$.
Quindi $(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2})$ come funzione di $\mu$ è la likelihood della media. Si usa nelle stime perchè è immediato realizzare che il valore più grande che assume la funzione, è quello che rendi più probabile (likelihood in inglese) osservare $x$. Nel caso di una sola variabile, il valore di $\mu$ che massimizza la likelihood è proprio $\mu=x$

Facciamo un semplice esempio. Hai una sola variabile $x$ che si distribuisce normalmente. La sua densità è $f(x)=(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2})$ se consideri di conoscere la media e la varianza, allora abbiamo che
$\int_{- \infty}^{\infty}(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2}) dx = 1$ e questa è una probabilità.
Se invece consideriamo $x$ e $\sigma^2$ conosciuti e $\mu$ incognito, allora avremmo che
$\int_{- \infty}^{\infty}(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2}) d\mu ne 1$.
Quindi $(2 \pi \sigma^2)^{-0.5} exp(-frac{(y- \mu)^2}{2 \sigma^2})$ come funzione di $\mu$ è la likelihood della media. Si usa nelle stime perchè è immediato realizzare che il valore più grande che assume la funzione, è quello che rendi più probabile (likelihood in inglese) osservare $x$. Nel caso di una sola variabile, il valore di $\mu$ che massimizza la likelihood è proprio $\mu=x$
Questa è la densità congiunta $l(x_1, .... , x_r , i_1, .... i_r | \theta)$, la likelihood è $L(\theta | x_1, ... , x_r , i_1, .... i_r)$
Scusa se mi sono espresso male: intendevo che, come mi confermi e come da definizione del Ross, l'integrale $\int_{0}^{+\infty}...\int_{0}^{+\infty}L(t_1,...,t_r,i_1,...,i_r|\theta)\text{d}t_1...\text{d}t_r$ deve essere unitario.
Alla luce di questo chiarimento, ti sembra corretta la mia interpretazione, cioè che\[\int_{0}^{x_r}...\int_{0}^{x_1} L(t_1,...,t_r,i_1,...,i_r|\theta)\text{d}t_1...\text{d}t_r=P(\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)\})?\]
$\int_0^{\infty}\text{grazie d}x$!!
Alla luce di questo chiarimento, ti sembra corretta la mia interpretazione, cioè che\[\int_{0}^{x_r}...\int_{0}^{x_1} L(t_1,...,t_r,i_1,...,i_r|\theta)\text{d}t_1...\text{d}t_r=P(\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r)\})?\]
$\int_0^{\infty}\text{grazie d}x$!!

Ci dovrei pensar eun po' meglio, ma in linea di massima mi sembra corretta
Aspetta, l'integrale
$\int_{0}^{\infty} .... \int_{0}^{\infty} L(t_1, ..., t_r , i_1 , ... i_r)dt_1 ... dt_r= L( i_1 , ... i_r) $.
perchè le $i$ sono una variabile aleatoria e quello che fai è una marginalizzazione. Se vuoi che sia pari a 1 devi sommare anche per tutti i possibili valori che assume la variabile $i$
$\int_{0}^{\infty} .... \int_{0}^{\infty} L(t_1, ..., t_r , i_1 , ... i_r)dt_1 ... dt_r= L( i_1 , ... i_r) $.
perchè le $i$ sono una variabile aleatoria e quello che fai è una marginalizzazione. Se vuoi che sia pari a 1 devi sommare anche per tutti i possibili valori che assume la variabile $i$
Benissimo, credo di esserci: in effetti dovevo specificare che intendevo la probabilità che i primi $r$ oggetti a guastarsi fossero proprio, fissati $i_1,...,i_r$, gli oggetti che hanno tempo di vita $X_{i_1},...,X_{i_r}$ (ho sottinteso la cosa per essere conciso e per non imbarocchire, come faccio spesso, ciò che scrivo di notazioni che cerco di rendere dettagliate, ma a volte un po' "pesanti"). Senza aver fissato le $i_j$, in caso di scelta aleatoria delle $X_{i_1},...,X_{i_r}$, data l'identica distribuzione di tutte le $X_j$, bisogna moltiplicare la probabilità, e ovviamente la densità, per le disposizioni $(n!)/((n-r)!)$, come fa notare anche il Ross.
$\aleph_1$ grazie!!! (è il caso di aumentare la cardinalità per la tua pazienza...)
$\aleph_1$ grazie!!! (è il caso di aumentare la cardinalità per la tua pazienza...)

se intendi fissare gli $i$, allora questi vanno alla destra del simbolo $|$, visto che sono dati/conosciuti e quindi si condiziona al loro valore.
Sì, certo, ma mi sono ancora espresso male...
Sarà il caldo... 
Intendevo che il significato che volevo dare all'integrale è\[ \int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r=P(E)\]dove\[E=\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r\}\cap\{\text{l'ordine assunto dalle }X_{i_j}\text{ è }X_{i_1},...,X_{i_r}\}\]e natualmente la probabilità di tale evento non sarebbe unitaria neanche facendo tendere le $x_j$ all'infinito, dato che tale ordine delle $X_{i_j}$ è solo uno tra i possibili contemplabili nel nostro spazio degli eventi.
Al contrario mi pare che, chiamando $F=\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r\}$, si abbia \[P(F|\{\text{l'ordine assunto dalle }X_{i_j}\text{ è }X_{i_1},...,X_{i_r}\})=\]\[=\frac{n!}{(n-r)!} \int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r\]
O i miei deliri si stanno aggravando?
$\aleph_2$ grazie!


Intendevo che il significato che volevo dare all'integrale è\[ \int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r=P(E)\]dove\[E=\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r\}\cap\{\text{l'ordine assunto dalle }X_{i_j}\text{ è }X_{i_1},...,X_{i_r}\}\]e natualmente la probabilità di tale evento non sarebbe unitaria neanche facendo tendere le $x_j$ all'infinito, dato che tale ordine delle $X_{i_j}$ è solo uno tra i possibili contemplabili nel nostro spazio degli eventi.
Al contrario mi pare che, chiamando $F=\{X_{i_1}\leq x_1,...,X_{i_r}\leq x_r\}\cap\{\forall j\notin\{i_1,...,i_r\}\text{ }X_j>x_r\}$, si abbia \[P(F|\{\text{l'ordine assunto dalle }X_{i_j}\text{ è }X_{i_1},...,X_{i_r}\})=\]\[=\frac{n!}{(n-r)!} \int_{0}^{x_r}...\int_{0}^{x_1} f_{X_{i_1},...,X_{i_r}}(t_1,...,t_r)P(\forall j\notin\{i_1,...,i_r\}\text{ }X_j>t_r)\text{d}t_1...\text{d}t_r\]
O i miei deliri si stanno aggravando?

$\aleph_2$ grazie!
