Lo Stimatore sulla Wikipedia
Stamattina stavo studiando la verosimiglianza e gli stimatori (parlo di inferenza statistica parametrica
) quando mi sono detto: andiamo a vedere cosa dice la Wikipedia in proposito, visto che 'sta storia dello stimatore non è che mi sia tanto chiara...
Non so se è possibile da regolamento, ma mi piacerebbe che questo thread che mi accingo a iniziare fosse un qualcosa di simile alla sezione Discussione della Wikipedia, ma precedente, cioè una sorta di preDiscussione
http://it.wikipedia.org/wiki/Stimatore
Comunque, anche se non fosse possibile, tra le varie cose che non mi tornato c'è intanto l'uso della speranza nell'esempio:
$\mu=\mathbb{E}[x_i]$
che vedo essere già stato notato da un altro utente della Wikipedia che ha scritto il suo commento nella Discussione, al contrario di me che non ne ho avuto il coraggio
Che io sappia, la speranza si applica alle variabili aleatorie e non a $x_i$ che è, direi, una realizzazione della non definita variabile aleatoria proiezione sulla $i$-esima componente: si tratta di un abuso generalmente accettato?
No perché guarda caso, i miei attuali dubbi riguardano proprio il concetto di campione che non ho ancora capito se è un gruppo di $n$ individui presi a caso dalla popolazione, una $n$-upla di variabili aleatorie indipendenti e isonome o un elemento dell'insieme $\Omega$ su cui sono definite le suddette variabili e che è, direi, l'insieme delle osservazioni sui diversi gruppi di $n$ individui...


Non so se è possibile da regolamento, ma mi piacerebbe che questo thread che mi accingo a iniziare fosse un qualcosa di simile alla sezione Discussione della Wikipedia, ma precedente, cioè una sorta di preDiscussione

http://it.wikipedia.org/wiki/Stimatore
Comunque, anche se non fosse possibile, tra le varie cose che non mi tornato c'è intanto l'uso della speranza nell'esempio:
$\mu=\mathbb{E}[x_i]$
che vedo essere già stato notato da un altro utente della Wikipedia che ha scritto il suo commento nella Discussione, al contrario di me che non ne ho avuto il coraggio

Che io sappia, la speranza si applica alle variabili aleatorie e non a $x_i$ che è, direi, una realizzazione della non definita variabile aleatoria proiezione sulla $i$-esima componente: si tratta di un abuso generalmente accettato?
No perché guarda caso, i miei attuali dubbi riguardano proprio il concetto di campione che non ho ancora capito se è un gruppo di $n$ individui presi a caso dalla popolazione, una $n$-upla di variabili aleatorie indipendenti e isonome o un elemento dell'insieme $\Omega$ su cui sono definite le suddette variabili e che è, direi, l'insieme delle osservazioni sui diversi gruppi di $n$ individui...

Risposte
"retrocomputer":
No perché guarda caso, i miei attuali dubbi riguardano proprio il concetto di campione che non ho ancora capito se è un gruppo di $n$ individui presi a caso dalla popolazione, una $n$-upla di variabili aleatorie indipendenti e isonome o un elemento dell'insieme $\Omega$ su cui sono definite le suddette variabili e che è, direi, l'insieme delle osservazioni sui diversi gruppi di $n$ individui...
Non è una questione fresca...il mio consiglio è dunque di prendere un buon libro di inferenza e leggere.
Ti dico quello che ricordo:
Hai una popolazione finita di $N$ individui ${1,...,N}$ (ovviamente individui sta per quello che vuoi, persone, lampadine, aziende, ecc...)
Un campione è un (diciamo) sottoinsieme di questa popolazione di $n$ unità.
Ora come puoi costruire questo campione, ovvero quali vincoli hai nella sua determinazione?
Generalmente si determinano quattro forme principali di campionamento che sono determinate dalla possibilità di ripetizione o meno degli individui e dal fatto che l'ordinamento sia importante.
Ora l'idea è che secondo lo schema di campionamento andrai ad estrarre dalla popolazione gli individui che apparterrano al campione. La distribuzione di probabilità potrà essere quella naturale (ovvero uniforme) oppure potrai assegnarla secondo i tuoi scopi.
Di questi 4 schemi il più importante è quello bernulliano che prevede la ripetizione e l'ordinamento.
In questo caso hai $N^n$ possibili campioni diversi.
Di questa popolazione tu vorrai studiarne una caratteristica $X$ (che zpotrà tranquillamente essere multidimensionale)
Nel campione bernulliano viene fuori che queste variabili $X_1$ ... $X_n$ sono i.i.d.
Questo schema viene poi utilizzato per campionamento da popolazioni infinite infatti anche la si prendono campioni dove le variabili sono i.i.d. (idealizzando una sorta di campionamento con ripetizione ordinato)
Questo è un brevissimo sommario di quanto mi ricordo che appunto ho studiato su libri che dedicavano pagine e pagine all'argomento...è un inizio vedi un po'
Se poi serve, posta i tuoi dubbi.
Ciao.
"DajeForte":
Ti dico quello che ricordo:
Hai una popolazione finita di $N$ individui ${1,...,N}$ (ovviamente individui sta per quello che vuoi, persone, lampadine, aziende, ecc...)
Un campione è un (diciamo) sottoinsieme di questa popolazione di $n$ unità.
E fin qui ci siamo... Il campione è un sottoinsieme della popolazione... Diciamo $x_1,...,x_n$
Di questi 4 schemi il più importante è quello bernulliano che prevede la ripetizione e l'ordinamento.
In questo caso hai $N^n$ possibili campioni diversi.
Di questa popolazione tu vorrai studiarne una caratteristica $X$ (che zpotrà tranquillamente essere multidimensionale)
Nel campione bernulliano viene fuori che queste variabili $X_1$ ... $X_n$ sono i.i.d.
Leggo da più parti che il vettore aleatorio $X_1,...,X_n$ è anche lui chiamato campione, un vettore aleatorio definito una volta individuata una legge di probabilità (parzialmente incognita)...
Insomma,
1. abbiamo la popolazione (hard disk importati dalla Cina),
2. ne estraiamo un campione, diciamo, grezzo (10 hard disk presi a caso),
3. stabiliamo quale caratteristica vogliamo studiare (la probabilità che un hard disk funzioni),
4. si effettua l'osservazione del campione e si individua una legge di probabilità (l'hard disk o funziona o non funziona: legge binomiale di parametro $\theta$ ignoto, la caratteristica di cui sopra),
5. costruiamo un modello statistico il cui spazio $\Omega$ non sarà l'insieme di tutti i campioni di $n$ elementi estratti dalla popolazione, ma sarà un insieme di $n$-uple di osservazioni ($\Omega=\{0,1\}^n$ con $\sigma$-algebra di tutte le parti e misura di probabilità prodotto di $n$ copie della legge di Bernoulli di parametro $\theta$),
6. ora le variabili aleatorie $X_1,...,X_n$ saltano fuori come proiezioni canoniche (possiamo chiamarle campione di taglia $n$ e legge binomiale di parametro $\theta$).
Va bene?
A me piacerebbe aggiungere un ulteriore punto tra 4 e 5 in cui dico dov'è andata a finire la popolazione e soprattutto il campione che ho chiamato grezzo... Che ruolo ha il campione grezzo nel modello statistico?
Proviamo a fare questo esempio.
Supponi che gli hard disk della cina siano $N=10$ di cui due rotti.
Quindi se scegliamo un hard disk la distribuzione è Bernulliana di parametro $8/10$.
Supponiamo di estrarre un campione di dimensione $n=2$ con ripetizione ed ordinato in maniera casuale (uniforme).
Quindi $Omega$ sarà da 100 elementi (i possibili campioni), perchè alla prima ne scegli una delle 10 ed alla seconda una sempre delle 10.
La v.a. doppia $(X_1,X_2)$ assumerà i 4 valori (0,0)(1,0)(0,1)(1,1)
Con quali probabilità?
(0,0) con $2/(10)2/(10)=4/(100)$
(0,1) con $2/(10)8/(10)=(16)/(100)$
(1,0) con $2/(10)8/(10)=(16)/(100)$
(1,1) con $8/(10)8/(10)=(64)/(100)$
Ovviamente con somma 1.
Fatti la tabella a doppia entrata e calcolati le due marginali del primo elemento ($X_1$) e del secondo ($X_2$)
Ti vengono entrambe bernoulliane di parametro $8/10$ e vedi che sono anche indipendenti. Questo era quello che dicevo che con il campionamento bernoulliano ottieni v.a. che sono i.i.d.
Proviamo a fare la stessa cosa con uno schema di campionamento senza ripetizione ma sempre con ordinamento.
In questo caso le possibili uscite sono $10*9=90$
La v.a. doppia assumerà probabilità
(0,0) con $2/(10)1/(9)=2/(90)$
(0,1) con $2/(10)8/(9)=(16)/(90)$
(1,0) con $8/(10)2/(9)=(16)/(90)$
(1,1) con $8/(10)7/(9)=(56)/(90)$
Fai le marginali:
$X_1$ assume valore 0 con probabilità $18/(90)=2/(10)$ e 1 con $72/90=8/(10)$ e lo stesso $X_2$.
Come vedi sono sempre distribuite come la bernoulliana della popolazione ma non sono più indipendenti, infatti:
$P((X_1,X_2)=(0,0))=2/(90) != (18)/(90)(18)/(90)=P(X_1=0)P(X_2=0)$.
Quindi questo schema perde l'indipendenza tra le $X_i$ del campione.
Quando poi passi a popolazioni infinite fai una sorta di passaggio nel quale ipotizzi una forma di campionamento che ricalca lo schema bernoulliano e quindi estrai un campione ed ipotizzi che le v.a. del campione siano i.i.d.
Controlla se questi calcoli ti tornano poi magari andiamo avanti.
Supponi che gli hard disk della cina siano $N=10$ di cui due rotti.
Quindi se scegliamo un hard disk la distribuzione è Bernulliana di parametro $8/10$.
Supponiamo di estrarre un campione di dimensione $n=2$ con ripetizione ed ordinato in maniera casuale (uniforme).
Quindi $Omega$ sarà da 100 elementi (i possibili campioni), perchè alla prima ne scegli una delle 10 ed alla seconda una sempre delle 10.
La v.a. doppia $(X_1,X_2)$ assumerà i 4 valori (0,0)(1,0)(0,1)(1,1)
Con quali probabilità?
(0,0) con $2/(10)2/(10)=4/(100)$
(0,1) con $2/(10)8/(10)=(16)/(100)$
(1,0) con $2/(10)8/(10)=(16)/(100)$
(1,1) con $8/(10)8/(10)=(64)/(100)$
Ovviamente con somma 1.
Fatti la tabella a doppia entrata e calcolati le due marginali del primo elemento ($X_1$) e del secondo ($X_2$)
Ti vengono entrambe bernoulliane di parametro $8/10$ e vedi che sono anche indipendenti. Questo era quello che dicevo che con il campionamento bernoulliano ottieni v.a. che sono i.i.d.
Proviamo a fare la stessa cosa con uno schema di campionamento senza ripetizione ma sempre con ordinamento.
In questo caso le possibili uscite sono $10*9=90$
La v.a. doppia assumerà probabilità
(0,0) con $2/(10)1/(9)=2/(90)$
(0,1) con $2/(10)8/(9)=(16)/(90)$
(1,0) con $8/(10)2/(9)=(16)/(90)$
(1,1) con $8/(10)7/(9)=(56)/(90)$
Fai le marginali:
$X_1$ assume valore 0 con probabilità $18/(90)=2/(10)$ e 1 con $72/90=8/(10)$ e lo stesso $X_2$.
Come vedi sono sempre distribuite come la bernoulliana della popolazione ma non sono più indipendenti, infatti:
$P((X_1,X_2)=(0,0))=2/(90) != (18)/(90)(18)/(90)=P(X_1=0)P(X_2=0)$.
Quindi questo schema perde l'indipendenza tra le $X_i$ del campione.
Quando poi passi a popolazioni infinite fai una sorta di passaggio nel quale ipotizzi una forma di campionamento che ricalca lo schema bernoulliano e quindi estrai un campione ed ipotizzi che le v.a. del campione siano i.i.d.
Controlla se questi calcoli ti tornano poi magari andiamo avanti.
"DajeForte":
Supponi che gli hard disk della cina siano $N=10$ di cui due rotti.
OK, abbiamo una popolazione di 10 dischi $P=\{h_1,...,h_{10}\}$
Quindi se scegliamo un hard disk la distribuzione è Bernulliana di parametro $8/10$.
1 con probabilità $8/(10)$ (il disco funziona)
0 con probabilità $2/(10)$ (il disco non funziona)
Supponiamo di estrarre un campione di dimensione $n=2$ con ripetizione ed ordinato in maniera casuale (uniforme).
Quindi $Omega$ sarà da 100 elementi (i possibili campioni), perchè alla prima ne scegli una delle 10 ed alla seconda una sempre delle 10.
$\Omega=\{(h_i,h_j)|h_i,h_j\in P\}$
La v.a. doppia $(X_1,X_2)$ assumerà i 4 valori (0,0)(1,0)(0,1)(1,1)
Con quali probabilità?
$(X_1,X_2):\Omega\to\{0,1\}^2$
Fatti la tabella a doppia entrata e calcolati le due marginali del primo elemento ($X_1$) e del secondo ($X_2$)
In realtà credo che l'indipendenza e il fatto che siano bernoulliane e isonome si veda già dai conti che hai fatto tu per le probabilità di $(0,0),...,(1,1)$ dove hai praticamente dimostrato che
$\mathbb{P}\{(X_1,X_2)=(i,j)\}=\mathbb{P}\{X_1=i\}\mathbb{P}\{X_2=j\}$ per $i,j\in\{0,1\}$
e ne hai esibito le leggi

Proviamo a fare la stessa cosa con uno schema di campionamento senza ripetizione ma sempre con ordinamento.
.....
Come vedi sono sempre distribuite come la bernoulliana della popolazione ma non sono più indipendenti, infatti:
.....
Quindi questo schema perde l'indipendenza tra le $X_i$ del campione.
Questo è interessante!
"DajeForte":
Controlla se questi calcoli ti tornano poi magari andiamo avanti.
Ritorno sulla questione dopo un periodo meditativo

Da quello che penso di avere capito, la tua introduzione riguarda la fase di scelta del campione (inteso come sottoinsieme della popolazione) che forse posso inserire nel settore della statistica chiamato teoria dei campioni, settore del quale, prima del tuo intervento non conoscevo nemmeno l'esistenza

Nello specchietto che ho scritto nel mio... Secondo messaggio, credo che la si possa inserire tra i punti 1 e 2 (la scelta è proprio il punto 2).
Io starei invece studiando l'inferenza statistica che, se non ho capito male, si occupa di trarre (inferire?) informazioni sulla popolazione da un campione già scelto.
Ora, la domanda "ufficiale" del thread che ho iniziato riguardava la pagina sullo stimatore della Wikipedia e i suoi eventuali errori, mentre le mie considerazioni finali riguardavano, in pratica, la differenza formale tra il campione di individui scelto nella popolazione (2 hard disk da un lotto di 10) e quello definito come variabile aleatoria sull'insieme $\Omega=\{0,1\}^n$ nell'ambito dell'inferenza statistica.
Vediamo se riesco a inquadrare la situazione:
- ho la mia popolazione di 10 hard disk $h_1,...,h_{10}$;
- decido di estrarre un campione con reinserimento e stimare la percentuale di dischi rotti;
- l'insieme dei possibili campioni di 2 hard disk ha cardinalità $10^2$ e lo chiamo $\Omega$;
- osservando un campione, ogni hard disk può funzionare (e gli do il valore $1$) o non funzionare (e gli do il valore $0$), con legge di Bernoulli di parametro $\theta$: queste due osservazioni si traducono in altrettante variabili aleatorie $Y_1$ e $Y_2$ il cui blocco $Y=(Y_1,Y_2)$ è una variabile aleatoria da $\Omega$ a $(\{0,1\}^2,\mathcal{P}(\{0,1\}^2),\mathcal{B}(2,\theta))$;
- ora, leggo da più parti in statistica inferenziale la seguente definizione di campione: un campione di taglia $n$ e legge $p_\theta$ è una famiglia $(X_1,...,X_n)$ di variabili aleatorie indipendenti e isonome di legge $p_\theta$. E andrebbe anche bene, prendendo nel nostro caso $X_i=Y_i$ per $i=1,2$;
- però poi vedo che nella teoria, si definisce invece il modello $(\{0,1\}^2,\mathcal{P}(\{0,1\}^2),\mathcal{B}(2,\theta))$ e si definisce $X=(X_1,...,X_n)$ sul suddetto spazio probabilizzato e non su $\Omega$;
- ecco ciò che mi ha confuso: definendo la variabile $X$ su $\{0,1\}^2$ invece che su $\Omega$, ho la sensazione di perdere qualcosa o di essermi dimenticato un passaggio, formalmente parlando... Gli elementi di $\Omega$ sono più di quelli di $\{0,1\}^2$...
Penso che ai fini della stima di $\theta$ mi basti lavorare sul più piccolo insieme dei risultati (mi servono solo i risultati delle osservazioni e il tipo di legge) e che il passaggio da $\Omega$ a $\{0,1\}^2$ sia la scelta del campione che non rientra propriamente nella statistica inferenziale ma fa parte della teoria dei campioni... E' così?

Innanzitutto diciamo che la costruzione e formazione del campione è un punto chiave nell'inferenza, infatti sotto l'idea che nela statistica inferenziale tu voglia estrarre informazioni su di una popolazione a partire da un campione, allora la costruzione del campione diventa fondamentale (pensa ad esempio alla sceta della numerosità, della legge con la quae costruisci i campione, vari problemi legati al campionamento stratificato, a grappoli, ecc...).
In genere un buon libro di inferenza parte con una discussione sul campionamento.
Veniamo alla tua questione; parto da lontano.
Hai uno spazio di probabilità $(Omega,mathcal(F),P)$; una v.a. reale $X$ è una funzione da $Omega$ in $RR^k$ misurabile, dove la misurabilità è intesa rispetto alle due sigma algebre definite sul dominio e codominio.
Quella del dominio è ovviamente $mathcal(F)$, sul codominio si lavora generalmente con la sigma algebra di Borel (che chiamo $mathcal(B)$).
Hai dunque sul codominio uno spazio misurabile $(RR^k,mathcal(B))$.
Un grande risultato (facile da dimostrare, che ti lascio se non lo hai già fatto) è che la v.a. $X$ induce sullo spazio misurabile codominio una misura di probabilità, ovvero la misura $P$ viene scaricata sul codominio mediante la v.a..
Come?
Definendo $P_X(.):\ mathcal(B) mapsto [0,1]$ come $P_X(B)=P(X^(-1)(B))$ per ogni $B in mathcal(B)$ ed ecco un punto chiave dove è necessaria la misurabilità della v.a.; infatti per far si che tuto sia ben definito si richiede che $X^(-1)(B) in mathcal(F)$.
Questo è un passaggio chiave perchè in moltissime applicazioni che richiedono l'uso di variabili aleatorie possiamo direttamente andare a lavorare sullo spazio di probabilità del codominio senza problemi di definizione dello spazio di probabilità primario (ovvero quello che sarebbe del dominio) ma giusto sapere che esso c'è senza problemartiche di definizione di questo.
Veniamo al tuo problema.
L'idea è c'è uno spazio dominio formato da $Omega={(h_i,h_j), \quad h_i,h_j in "Pop"}$, la sigma algebra che è il power set e la misura di probabilità; questi tre oggetti dipendono ovviamente da come fai il campionamento (questo ricalca il bernoulliano e come avevi fatto te, correttamente, due post fa).
Abbiamo ora le due variabili $(X_1,X_2)$ che saranno 0,1 blablabla...
A questo punto il codominio è $RR^2$ (qua come dici te ci possiamo restringere a studiare ${0,1}^2$ non c'è bisogno di prendere tutto $RR^2$); la sigma algebra (che sarà Borel in un caso o il powerset di ${0,1}^2$ nell'atro).
Ora la misura di probabilità; qua hai commesso un errore, non sarà una binomiale ma sarà la misura $P_(X_1,X_2)$ definita sulla sigmaalgebra codominio.
Prebdi ad esempio che consideriamo ${0,1}^2$, ed il powerset,
Prendi l'insieme $B=(0,0) uu (1,0)$ allora $P_(X_1,X_2)(B)=P("i campioni tali che la v.a. ha immagine in quei due valori")=4/(100)+(16)/(100)$ se non ricordo male.
Questa misura è quella che ti ho descritto io nel mio post precedente ed è proprio questa quella che tu chiami $p_(theta)$.
Quindi quando vedi abbiamo un campione $(X_1,...,X_n)$ che lavora in uno spazio di probabilità $(Omega=RR^(k*n),mathcal(B),P_X)$ stai direttamente passando allo spazio codominio; ovviamente c'è uno spazio dominio sula struttura campionaria, ma proprio per quello che ti ho detto prima non ce ne curiamo bene dela sua definizione ma andiamo a lavorare direttamente su questo.
In genere un buon libro di inferenza parte con una discussione sul campionamento.
Veniamo alla tua questione; parto da lontano.
Hai uno spazio di probabilità $(Omega,mathcal(F),P)$; una v.a. reale $X$ è una funzione da $Omega$ in $RR^k$ misurabile, dove la misurabilità è intesa rispetto alle due sigma algebre definite sul dominio e codominio.
Quella del dominio è ovviamente $mathcal(F)$, sul codominio si lavora generalmente con la sigma algebra di Borel (che chiamo $mathcal(B)$).
Hai dunque sul codominio uno spazio misurabile $(RR^k,mathcal(B))$.
Un grande risultato (facile da dimostrare, che ti lascio se non lo hai già fatto) è che la v.a. $X$ induce sullo spazio misurabile codominio una misura di probabilità, ovvero la misura $P$ viene scaricata sul codominio mediante la v.a..
Come?
Definendo $P_X(.):\ mathcal(B) mapsto [0,1]$ come $P_X(B)=P(X^(-1)(B))$ per ogni $B in mathcal(B)$ ed ecco un punto chiave dove è necessaria la misurabilità della v.a.; infatti per far si che tuto sia ben definito si richiede che $X^(-1)(B) in mathcal(F)$.
Questo è un passaggio chiave perchè in moltissime applicazioni che richiedono l'uso di variabili aleatorie possiamo direttamente andare a lavorare sullo spazio di probabilità del codominio senza problemi di definizione dello spazio di probabilità primario (ovvero quello che sarebbe del dominio) ma giusto sapere che esso c'è senza problemartiche di definizione di questo.
Veniamo al tuo problema.
L'idea è c'è uno spazio dominio formato da $Omega={(h_i,h_j), \quad h_i,h_j in "Pop"}$, la sigma algebra che è il power set e la misura di probabilità; questi tre oggetti dipendono ovviamente da come fai il campionamento (questo ricalca il bernoulliano e come avevi fatto te, correttamente, due post fa).
Abbiamo ora le due variabili $(X_1,X_2)$ che saranno 0,1 blablabla...
A questo punto il codominio è $RR^2$ (qua come dici te ci possiamo restringere a studiare ${0,1}^2$ non c'è bisogno di prendere tutto $RR^2$); la sigma algebra (che sarà Borel in un caso o il powerset di ${0,1}^2$ nell'atro).
Ora la misura di probabilità; qua hai commesso un errore, non sarà una binomiale ma sarà la misura $P_(X_1,X_2)$ definita sulla sigmaalgebra codominio.
Prebdi ad esempio che consideriamo ${0,1}^2$, ed il powerset,
Prendi l'insieme $B=(0,0) uu (1,0)$ allora $P_(X_1,X_2)(B)=P("i campioni tali che la v.a. ha immagine in quei due valori")=4/(100)+(16)/(100)$ se non ricordo male.
Questa misura è quella che ti ho descritto io nel mio post precedente ed è proprio questa quella che tu chiami $p_(theta)$.
Quindi quando vedi abbiamo un campione $(X_1,...,X_n)$ che lavora in uno spazio di probabilità $(Omega=RR^(k*n),mathcal(B),P_X)$ stai direttamente passando allo spazio codominio; ovviamente c'è uno spazio dominio sula struttura campionaria, ma proprio per quello che ti ho detto prima non ce ne curiamo bene dela sua definizione ma andiamo a lavorare direttamente su questo.
"DajeForte":
In genere un buon libro di inferenza parte con una discussione sul campionamento.
Cosa mi proporresti?
Definendo $P_X(.):\ mathcal(B) mapsto [0,1]$ come $P_X(B)=P(X^(-1)(B))$ per ogni $B in mathcal(B)$ ed ecco un punto chiave dove è necessaria la misurabilità della v.a.; infatti per far si che tuto sia ben definito si richiede che $X^(-1)(B) in mathcal(F)$.
E' la legge di X...
Ora la misura di probabilità; qua hai commesso un errore, non sarà una binomiale ma sarà la misura $P_(X_1,X_2)$ definita sulla sigmaalgebra codominio.
Giusto, si tratta, in questo caso, della misura prodotto di due copie della legge binomiale: $\mathcal{B}(2,\theta)\otimes\mathcal{B}(2,\theta)$, e non una come ho scritto prima, giusto?
Quindi quando vedi abbiamo un campione $(X_1,...,X_n)$ che lavora in uno spazio di probabilità $(Omega=RR^(k*n),mathcal(B),P_X)$ stai direttamente passando allo spazio codominio; ovviamente c'è uno spazio dominio sula struttura campionaria, ma proprio per quello che ti ho detto prima non ce ne curiamo bene dela sua definizione ma andiamo a lavorare direttamente su questo.
Sì, forse ho capito


Io ho studiato su "Appunti di inferenza" di Mario Badaloni
Staistica inferenziale di Rizzi,
e su un libro di cui non ricordo neanche il nome
(non lo ho con me) di Ornello Vitali
e sfogliando qua e la dispense varie
Il secondo lo trovi sicuro: è semplice e chiaro ma forse finj troppo semplice; quindi se vuoi base quello va benissimo se vuoi qualcosa in più gli altri sono un po meglio ma penso siano impossibili da trovare.
Vedi la tua biblioteca cosa ti offre.
Per la misura si tratta del prodotto di due bernoulliane (binomiali ma di parametro 1).
Staistica inferenziale di Rizzi,
e su un libro di cui non ricordo neanche il nome

e sfogliando qua e la dispense varie
Il secondo lo trovi sicuro: è semplice e chiaro ma forse finj troppo semplice; quindi se vuoi base quello va benissimo se vuoi qualcosa in più gli altri sono un po meglio ma penso siano impossibili da trovare.
Vedi la tua biblioteca cosa ti offre.
Per la misura si tratta del prodotto di due bernoulliane (binomiali ma di parametro 1).
"DajeForte":
Per la misura si tratta del prodotto di due bernoulliane (binomiali ma di parametro 1).
Sì, $\mathcal{B}(1,\theta)\otimes\mathcal{B}(1,\theta)$


Grazie ancora!
"DajeForte":
Il secondo lo trovi sicuro: è semplice e chiaro ma forse finj troppo semplice; quindi se vuoi base quello va benissimo se vuoi qualcosa in più gli altri sono un po meglio ma penso siano impossibili da trovare.
Quello di Alfredo Rizzi (che forse si chiama "Inferenza statistica" della UTET?) mi sa che non si trova già più... Ho comunque solo dato un occhiata in rete e non ho chiesto nelle librerie... Intanto sono andato in un negozio di libri usati e ho trovato questo "Probabilità e statistica per l'ingegneria e le scienze" di Sheldon M. Ross: qualcuno l'ha utilizzato?