[Statistica] Scelta test

sirbotler
Ciao a tutti, chiedo subito venia per la mia ignoranza in ambito statistico e per gli eventuali strafalcioni che scriverò in questo post... Cercherò di spiegarmi il meglio possibile per descrivere il problema che ho con una ricerca che sto portando avanti in università.

Sto usando un software ingegneristico per sovrapporre modelli digitali molto simili fra loro, che sono riuscito a generare usando 3 diversi apparati. per ogni apparato, ho generato 15 modelli. Con lo stesso software ingegneristico, posso calcolare le differenze dimensionali che ci sono tra i modelli sovrapposti. In pratica il software appaia i modelli a coppie, poi calcola le differenze che ci sono tra ogni punto del modello A ed il corrispettivo punto del modello B. le differenze possono essere espresse in valori positivi o negativi, a seconda di quale sia il modello preso in considerazione. Per ogni coppia di modelli, il software mi fornisce una media delle differenze, positiva o negativa, e una deviazione standard. Per ogni apparato da me usato, riesco ad ottenere 105 sovrapposizioni, quindi 105 valori indicanti la media delle differenze dimensionali, ± deviazione standard.

Qui sorge il mio dubbio amletico: come faccio a confrontare tutti sti benedetti valori? essendo i singoli valori delle medie, non penso di poter considerare solo quelle, facendo ad esempio la media delle medie, senza tenere conto delle singole deviazioni standard... O sbaglio? voi come vi comportereste?
Io pensavo di considerare solamente i valori delle deviazioni standard, facendo la media delle deviazioni standard e confrontando il valore così ottenuto, ma anche questo metodo temo che non sia corretto...

Spero di aver spiegato correttamente il problema, altrimenti cercherò di esprimermi più dettagliatamente...
aspetto i vostri espertissimi pareri

grazie

Edo

Risposte
hamming_burst
Ciao Benvenuto,
non mi è chiaro cosa tu voglia "testare". Che risultati vorresti ottenere, cosa avresti in mente di trovare eseguendo in qualche test un qualche cambiamento? Questo è importante per trovare il test adatto.

topi1
Prendiamo il primo apparato. Hai generato 15 modelli che dovrebbero avvicinarsi all' apparato- Ogni modello è un po' diverso dall' altro ed hai misurato la differenza (in ogno punto, nella media, e dev standard) fra ogni modello ed ogni altro modello. E' così?
Non è possibile misurare la differenza fra modello ed apparato? Se non è possibile fare questo è impossibile testare se un modello è migliore di un altro.
Ti consiglio di spiegare meglio il tuo problema

sirbotler
"topi":
Prendiamo il primo apparato. Hai generato 15 modelli che dovrebbero avvicinarsi all' apparato- Ogni modello è un po' diverso dall' altro ed hai misurato la differenza (in ogno punto, nella media, e dev standard) fra ogni modello ed ogni altro modello. E' così?
Non è possibile misurare la differenza fra modello ed apparato? Se non è possibile fare questo è impossibile testare se un modello è migliore di un altro.
Ti consiglio di spiegare meglio il tuo problema


Sì, è proprio come hai descritto. ho tanti modelli tridimensionali ottenuti con diversi apparati, o scanner. i modelli tridimensionali differiscono tutti un pò uno dall'altro, e la differenza tra i modelli stabilisce praticamente l'errore di ripetibilità che ha lo scanner. maggiori sono le differenze minore è la ripetibilità o precisione dello scanner.
io ovviamente paragono tra loro solo i modelli ottenuti con lo stesso scanner, cioè: ho 15 modelli ottenuti con lo scanner A e li confronto tra loro per valutare le differenze. Poi prendo i 15 modelli ottenuti con lo scanner B e li confronto, e faccio lo stesso con quelli dello scanner C.
Le differenze tra 2 modelli mi vengono espresse come una media ± DS, del tipo 5 micron ± 10. Una volta confrontati tutti i modelli fra loro, per ogni scanner io ho un tot di valori indicanti la differenza media ± deviazione standard che c'è tra i modelli. il mio problema è come fare a utilizzare questi valori per confrontare la precisione degli scanner.
Per quello che ho potuto notare, i valori delle medie sono molto aleatori, poichè sono dati dalla somma delle differenze positive e negative... nella maggior parte dei casi si avvicinano allo 0, visto che ci sono sempre dei punti in cui la differenza è positiva e altri in cui la differenza è negativa, e questi vanno più o meno a compensarsi.
La deviazione standard invece è un parametro molto più utile: più è bassa, più lo scanner è effettivamente preciso.
Ha senso secondo voi che io consideri solo i valori di deviazione standard, facendone la media e calcolando poi la deviazione standard della media? così avrei un singolo valore per ogni scanner, e potrei procedere con un one way anova o qualcosa del genere... o ho detto una boiata?? :D

topi1
Se ho ben capito tu vuoi qualificare lo scanner e poter dire "questo scanner è migliore di quello".
Con uno stesso scanner applicato ad uno stesso oggetto hai fatto 15 scansioni; ed ogni scansione comprende un certo numero di misure (distanza fra punti).
Io non confronteri le scansioni a due a due, ottenedo 105 confronti.
Io confronterei la stessa misura presa 15 volte e mi calcolerei la deviazione standard per quella misura; abbiamo così un valore che rappresenta la ripetibilità buona o meno buona relativamente alla misura fra due punti. Farei lo stesso per tutte le altre misure ottenendo tante deviazioni standard.A quel punto si potrà capire se le DS crescono all' aumentare delle dimensioni o sono costanti (test di appartenenza/ non appartenenza ad una stessa distribuzione)- In ogni caso ha senso fare una media fra le DS ed ottenere una "DS media". Ripetere con aòtro scanner e confrontare la sua "DS media" e confrontarle.
Saluti

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.