Perchè la "significatività" si chiama proprio così?

Koller1
ciao a tutti!
ho una domanda un pò strana: non riesco a spiegarmi il motivo per il quale la probabilità di errore del primo tipo si chiama "significatività del test".. cosa vuol dire che un test è più significativo rispetto ad un altro? in particolare mi disturba il fatto che il test più significativo sia anche il test i cui risultati sono meno attendibili (la significatività è la probabilità che io mi stia sbagliando)..

Risposte
Lo_zio_Tom
Si chiama così perché in un test di ipotesi si va a testare la differenza fra il valore osservato e il valore fissato come ipotesi nulla del parametro in questione.
Se la differenza trovata è "significativa" si rigetta l'ipotesi nulla. A tal proposito si parla anche di "significatività" del test se l'ampiezza è pari a $alpha=0,05$ oppure di "alta significatività" se l'ampiezza del test è pari a $alpha=0,01$

Se invece accettiamo l'ipotesi di lavoro vuol dire che il valore trovato dalla statistica campionaria, anche se è diverso dal valore fissato del parametro dell'ipotesi nulla, ha una differenza "non significativa" (P-value alto) e quindi diciamo che il test "non è significativo"; tale differenza è quindi imputabile solo alla variabilità del fenomeno e non ad una causa specifica.

Cosideriamo il seguente grafico della distribuzione sotto ipotesi nulla (puramente esemplificativo) relativo al seguente sistema di ipotesi:

${{: ( H_(0)=mu ),( H_(1)>mu ) :}$



dove indichiamo con

$mu$ il parametro da stimare sotto ipotesi nulla $H_(0)$

$ul(x)$ il valore della statistica campionaria scelto in base al UMP test

$alpha=0,05$

in tal caso, come si vede dal grafico, accettiamo l'ipotesi di lavoro in quanto la differenza fra $ul(x)$ e $mu$ non è "significativa".

Se invece $ul(x)$ si trovasse nella regione di rifiuto (o regione critica), cioè nell'intervallo di ascissa corrispondente all'area grigia, allora diremmo che il test è significativo. Oppure, ciò che è lo stesso, che la differenza trovata fra la statistica campionaria ed il valore fissato di ipotesi nulla è significativa e quindi non può essere da imputare solamente alla variabilità della distribuzione.


spero di essermi spiegato bene....

Koller1
non ho capito come mai hai detto che per $\alpha=0,01$ si parla di "alta significatività"; io avrei detto che $\alpha=0,01$ è un basso livello di significatività! se $\alpha$ è la probabilità di errore del primo tipo io sarei d'accordo se tu mi dicessi che la significatività del test è $(1-\alpha)100%$..

Lo_zio_Tom
"Koller":
non ho capito come mai hai detto che per $\alpha=0,01$ si parla di "alta significatività"; io avrei detto che $\alpha=0,01$ è un basso livello di significatività .. diciamo che se $\alpha$ è la probabilità di errore del primo tipo io sarei più propenso a dire che la significatività del test è $(1-\alpha)100%$..


se fissiamo un $alpha$ molto piccolo vuol dire che la soglia critica di differenza che consideriamo "normale" è molto alta....ovvero accettiamo delle differenze anche molto significative fra il parametro e il valore della statistica osservata in base al campione.

In altri termini: significatività del test si riferisce alla significatività della differenza fra il valore osservato e il valore che vogliamo provare....

se non è chiaro così mi arrendo...

Koller1
secondo me stiamo parlando di due cose diverse, devo per forza aver sbagliato qualche definizione. per me $\alpha=text{probabilità errore del I tipo}$ è la significatività e come può essere vero che un test con $\alpha_1=0.00001$ è più significativo di un'altro test con $\alpha_2=0.1$?
$0,000001$ è un numero più piccolo quindi, se è giusta la definizione di significatività che io sto utilizzando (probabilità di errore del primo tipo), dovremmo essere d'accordo sul fatto che il primo test è meno significativo.

Lo_zio_Tom
"Koller":
secondo me sto sbagliando la definizione di significatività. detta $\alpha=text{probabilità errore del I tipo}$ significatività come può essere vero che un test con $\alpha_1=0.00001$ è più significativo di un'altro test con $\alpha_2=0.1$?
$0,000001$ è un numero più piccolo quindi, se è giusta la definizione di significatività che io sto utilizzando (probabilità di errore del primo tipo), dovremmo essere d'accordo sul fatto che il primo test è meno significativo.


perché se rifiuto un test con $alpha$ fissato a $0,00001$ vuol dire che sicuramente le differenze che ho trovato sono DAVVERO MOLTO GRANDI

Se invece rifiuto il test con un $alpha=0,49$ allora vuol dire sì che rifiuto il test....ma che non è molto significativo perché rifiuto anche situazioni in cui il valore osservato diverso ma di molto poco rispetto al parametro.....



ora ti faccio una domanda


se in un test ti si dice che il p-value=0,00001 il test è significativo oppure no?

axpgn
@tommik
[ot]Scrivi così tanto e così velocemente che hai mandato in confusione anche il "contatore" del forum ... :lol: :lol: :lol:

[/ot]

Cordialmente, Alex

Koller1
"axpgn":
ora ti faccio una domanda


se in un test ti si dice che il p-value=0,00001 il test è significativo oppure no?


io, utilizzando il buon senso, direi che se il p-value è molto piccolo posso rifiutare $H_0$ per livelli di $\alpha$ via via decrescenti e quindi posso, molto ragionevolmente, affermare che l'ipotesi nulla è falsa. il test è molto significativo poichè la conclusione a cui giungo è fortemente motivata dai dati (il p-value è piccolo dunque se l'ipotesi nulla fosse vera starei osservando un "outlier").

Lo_zio_Tom
"Koller":

io, utilizzando il buon senso, direi che se il p-value è molto piccolo posso rifiutare $H_0$ per livelli di $\alpha$ via via decrescenti e quindi posso, molto ragionevolmente, affermare che l'ipotesi nulla è falsa.[size=150] il test è molto significativo[/size] poichè la conclusione a cui giungo è fortemente motivata dai dati (il p-value è piccolo dunque se l'ipotesi nulla fosse vera starei osservando un "outlier").


tu l'hai detto eh.....mica io.....

il p-value e $alpha$ sono la stessa cosa....solo che il p-value è calcolato sulla base delle evidenze mentre l''$alpha$ è il valore fissato....ma entrambi rappresentano l'area della coda della distribuzione

se non è chiaro ora........

Koller1
devo riflettere un pò.. in ogni caso tu sei d'accordo che la significatività è la probabilità di errore del primo tipo?

Lo_zio_Tom
"Koller":
devo riflettere un pò.. in ogni caso tu sei d'accordo che la significatività è la probabilità di errore del primo tipo?


non è che devo essere d'accordo io...è una definizione. punto e stop. Anzi è una definizione che posso capire generi incomprensioni....pensa che è anche un po' desueta e su molti testi si chiama "ampiezza" del test....così va meglio?

il termine "significatività" si riferisce (come ti ho già detto più volte) alla significatività della differenza che vedi sulle ascisse tra il valore del parametro sotto ipotesi nulla e il valore della statistica del test

Ora di dò un altro spunto di riflessione:

considera la seguente variabile

$X={{: ( 0 , 1 ),( 1/2 , 1/2 ) :}$

come mai la media $mu=1/2$ si chiama "valore atteso" se i valori che ci attendiamo dalla variabile sono $0$ oppure $1$??

Non sarebbe meglio chiamarla "valore non atteso"?

Koller1
ho riletto per bene tutto quanto e direi che adesso ho capito. in effetti parlare di "ampiezza del test" mi pare molto più consono: un test più ampio è un test con una regione critica più estesa.
ti ringrazio vivamente per avermi dato retta. fa sempre piacere avere qualcuno che ti dice quando stai dicendo delle stupidate.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.