Interpolazione come migliore approssimazione?
Salve.
Ho un problema di natura statistica; però prima vorrei premettere una domanda di natura epistemologica diciamo.
Vorrei sapere se la curva che si utilizza per approssimare una nube di punti è tanto più attendibile quanto minore è la distanza media dei punti dal grafico della stessa.
Questa conclusione mi viene suggerita dal metodo dei minimi quadrati che si applica per trovare la curva approssimante che scaturisce dall’operazione di minimizzazione di questa distanza media, da cui il nome di “metodo dei minimi quadrati”. Procedendo con questa logica, la massima attendibilità per fare previsioni su un punto, che non rappresenta un nodo e di cui quindi non si conosce l’ordinata, dovrebbe essere garantita dalla curva interpolante, che è la curva che passa proprio per questi punti e quindi approssima al meglio, rendendo la distanza media succitata nulla. Quindi si dovrebbe optare sempre per la curva interpolante, che esiste sempre, almeno se parliamo di polinomi. Ma questo non sempre succede anzi molto spesso ci si accontenta di un approssimazione con grado più basso ma che non interpola. A questo punto mi chiedo perché si adotti il metodo della regressione lineare o quadratica o al massimo del terzo ordine senza provare ad interpolare i punti, anche se magari il grado del polinomio può essere elevato. Naturalmente il ragionamento è valido qualora l’ipotesi di lavoro fatta inizialmente, cioè che l’attendibilità nelle previsioni sia garantita da una distanza media sempre più piccola, sia vera.
Nel mio caso mi servirebbe trovare una curva che approssimi una nube di punti in un piano cartesiano. La nube che ho, infatti, non si adatta bene al grafico della retta di regressione lineare. L’andamento dei punti è abbastanza particolare e io "ci vedrei" meglio una funzione polinomiale di grado abbastanza elevato, in modo da avere un certo numero di “sali e scendi” che potrebbero fare al caso mio. Infatti, la retta di regressione non riesce ad approssimare bene i punti del grafico e la nube appare diffusa rispetto al grafico. Sulla scorta della premessa di sopra, io ho pensato al’interpolazione polinomiale come possibile metodo risolutivo, ma non so se sia giusto o meno, visto che, secondo la teoria , il grado del polinomio è di un’unità inferiore, cioè n, se n+1 sono i punti. I questo caso, avendo molte osservazioni, il grado del polinomio diventerebbe molto elevato, ma avrei la sicurezza di un’approssimazione perfetta della nube.
E’ un ragionamento che si può fare oppure ci sono degli errori statistici o di altro tipo?
Queste le immagini rappresentanti i grafici a cui faccio riferimento nel post.


Cordiali saluti.
Ho un problema di natura statistica; però prima vorrei premettere una domanda di natura epistemologica diciamo.
Vorrei sapere se la curva che si utilizza per approssimare una nube di punti è tanto più attendibile quanto minore è la distanza media dei punti dal grafico della stessa.
Questa conclusione mi viene suggerita dal metodo dei minimi quadrati che si applica per trovare la curva approssimante che scaturisce dall’operazione di minimizzazione di questa distanza media, da cui il nome di “metodo dei minimi quadrati”. Procedendo con questa logica, la massima attendibilità per fare previsioni su un punto, che non rappresenta un nodo e di cui quindi non si conosce l’ordinata, dovrebbe essere garantita dalla curva interpolante, che è la curva che passa proprio per questi punti e quindi approssima al meglio, rendendo la distanza media succitata nulla. Quindi si dovrebbe optare sempre per la curva interpolante, che esiste sempre, almeno se parliamo di polinomi. Ma questo non sempre succede anzi molto spesso ci si accontenta di un approssimazione con grado più basso ma che non interpola. A questo punto mi chiedo perché si adotti il metodo della regressione lineare o quadratica o al massimo del terzo ordine senza provare ad interpolare i punti, anche se magari il grado del polinomio può essere elevato. Naturalmente il ragionamento è valido qualora l’ipotesi di lavoro fatta inizialmente, cioè che l’attendibilità nelle previsioni sia garantita da una distanza media sempre più piccola, sia vera.
Nel mio caso mi servirebbe trovare una curva che approssimi una nube di punti in un piano cartesiano. La nube che ho, infatti, non si adatta bene al grafico della retta di regressione lineare. L’andamento dei punti è abbastanza particolare e io "ci vedrei" meglio una funzione polinomiale di grado abbastanza elevato, in modo da avere un certo numero di “sali e scendi” che potrebbero fare al caso mio. Infatti, la retta di regressione non riesce ad approssimare bene i punti del grafico e la nube appare diffusa rispetto al grafico. Sulla scorta della premessa di sopra, io ho pensato al’interpolazione polinomiale come possibile metodo risolutivo, ma non so se sia giusto o meno, visto che, secondo la teoria , il grado del polinomio è di un’unità inferiore, cioè n, se n+1 sono i punti. I questo caso, avendo molte osservazioni, il grado del polinomio diventerebbe molto elevato, ma avrei la sicurezza di un’approssimazione perfetta della nube.
E’ un ragionamento che si può fare oppure ci sono degli errori statistici o di altro tipo?
Queste le immagini rappresentanti i grafici a cui faccio riferimento nel post.


Cordiali saluti.
Risposte
"anonymous_c046ce":
Vorrei sapere se la curva che si utilizza per approssimare una nube di punti è tanto più attendibile quanto minore è la distanza media dei punti dal grafico della stessa.
Ipotizziamo che il tuo modello sia $y=f(x)+\epsilon$ , con $\epsilon$ una variabile normale con media nulla e varianza $\sigma^2$. Se è vero il tuo modello allora nella tua misurazione y c'è una parte dipendente da x e una indipendente, non osservata e quindi non prevedibile. Quello che devi trovare è la funzione $f(x)$, ed ipotizziamo che non debba essere per forza lineare. Se ad esempio, per rendere il caso limite e quindi più comprensibile, ipotizziamo che la tua funzione $\hat{f(x)}$ stimata passi esattamente per i punti avresti la seguente identità $hat{f(x)}=f(x)+\epsilon$. Quindi non hai trovato la funzione ma la funzione più l'errore. Per l'ipotesi del modello l'errore non è prevedibile e quindi la tua funzione non è accettabile. Per approfondire prova a leggere del problema dell'overfitting
"anonymous_c046ce":
e io "ci vedrei" meglio una funzione polinomiale di grado abbastanza elevato, in modo da avere un certo numero di “sali e scendi” che potrebbero fare al caso mio
Esistono le splines o la regressione locale, oppure passa ai modelli GAM (generalized additive model
"anonymous_c046ce":)
I questo caso, avendo molte osservazioni, il grado del polinomio diventerebbe molto elevato, ma avrei la sicurezza di un’approssimazione perfetta della nube.
Sicuro che l'interesse è in una interpolazione precise e non nel capire il contributo della variabile x sulla spiegazione della y?
Perchè se usi un polinomio di grado elevato avresti si un'interpolazione fatta bene, ma non sapresti dire niente circa, ad esempio, cosa succede ad y se x aumenta..
"anonymous_c046ce":
Queste le immagini rappresentanti i grafici a cui faccio riferimento nel post.
Il primo grafico è praticamente perfetto, tranne per quell'osservazione con y molto elevata. Ma generalmente va bene.
Il secondo anche va bene, da un po' fastidio l'osservazione con x basso e y sopra la media, che sposta un po' la retta di regressione...
@ Sergio.
Cioè cosa vuoi dire esattamente? Che le due nubi di punti si possono approssimare con grafici lineari diversi?
Tu quindi mi stai invitando a separare le due nubi e a capire in cosa differiscano, cioè in quale carattere differiscano, la nube di sotto e quella di sopra ed trattare le due nubi separatamente?
Allora per spiegare meglio a voi la situazione al fine di riceverne un aiuto che sia valido il più possibile, vi segnalo che nello specifico i punti sono coppie ascissa/ordinata in cui l'ascissa rappresenta una somma pesata di valutazioni date a diverse caratteristiche associate a ciascuna unità statistica. Si tratta di immobili a cui viene assegnato un punteggio derivante dalla somma pesata di diverse valutazioni. Le valutazioni sono assegnate a caratteristiche dell'immobile quali ad esempio i comfort, la panoramicità, le caratteristiche tecniche eccetera eccetera.
Io avevo pensato di filtrare i dati in base al fatto di stare sopra o sotto il grafico della retta con i filtri di Excel. Una volta filtrati i dati sulla base di questa caratteristica, analizzare i punteggi assegnati alle caratteristiche degli immobili della nube di sopra e di quelli della nube di sotto. E vedere se si possono estrarre delle caratteristiche comuni al primo insieme di immobili, e delle caratteristiche comuni al secondo insieme di immobili. Cioè vedere cosa accomuna il primo insieme di immobili al secondo insieme di immobili dal punto di vista delle valutazioni assegnate alle caratteristiche degli immobili stessi. Cioè potrebbe saltare fuori ad esempio che gli immobili della nube di sopra hanno una valutazione in certe caratteristiche che si attesta intorno al 3, 4 e sempre nelle stesse caratteristiche e quelli della nube di sotto ce l'hanno che si attesta sul 2,3 tutti sempre nelle stesse caratteristiche. A questo punto cosa potrei fare? Fare delle statistiche separate, cioè dei grafici predittivi separati a seconda dell'appartenenza all'uno o all'altro insieme di dati? E, poi, comunque dovrei cercare di spiegare perché valutazioni diverse degli immobili in certe caratteristiche portano gli immobili stessi ad avere punteggi diversi, magari migliori.
A h ho qualche difficoltà tecnica nell'applicazione dei filtri in Excel. Voi sapete qualcosa in proposito, cioè su come applicarli?
Cioè cosa vuoi dire esattamente? Che le due nubi di punti si possono approssimare con grafici lineari diversi?
Tu quindi mi stai invitando a separare le due nubi e a capire in cosa differiscano, cioè in quale carattere differiscano, la nube di sotto e quella di sopra ed trattare le due nubi separatamente?
Allora per spiegare meglio a voi la situazione al fine di riceverne un aiuto che sia valido il più possibile, vi segnalo che nello specifico i punti sono coppie ascissa/ordinata in cui l'ascissa rappresenta una somma pesata di valutazioni date a diverse caratteristiche associate a ciascuna unità statistica. Si tratta di immobili a cui viene assegnato un punteggio derivante dalla somma pesata di diverse valutazioni. Le valutazioni sono assegnate a caratteristiche dell'immobile quali ad esempio i comfort, la panoramicità, le caratteristiche tecniche eccetera eccetera.
Io avevo pensato di filtrare i dati in base al fatto di stare sopra o sotto il grafico della retta con i filtri di Excel. Una volta filtrati i dati sulla base di questa caratteristica, analizzare i punteggi assegnati alle caratteristiche degli immobili della nube di sopra e di quelli della nube di sotto. E vedere se si possono estrarre delle caratteristiche comuni al primo insieme di immobili, e delle caratteristiche comuni al secondo insieme di immobili. Cioè vedere cosa accomuna il primo insieme di immobili al secondo insieme di immobili dal punto di vista delle valutazioni assegnate alle caratteristiche degli immobili stessi. Cioè potrebbe saltare fuori ad esempio che gli immobili della nube di sopra hanno una valutazione in certe caratteristiche che si attesta intorno al 3, 4 e sempre nelle stesse caratteristiche e quelli della nube di sotto ce l'hanno che si attesta sul 2,3 tutti sempre nelle stesse caratteristiche. A questo punto cosa potrei fare? Fare delle statistiche separate, cioè dei grafici predittivi separati a seconda dell'appartenenza all'uno o all'altro insieme di dati? E, poi, comunque dovrei cercare di spiegare perché valutazioni diverse degli immobili in certe caratteristiche portano gli immobili stessi ad avere punteggi diversi, magari migliori.
A h ho qualche difficoltà tecnica nell'applicazione dei filtri in Excel. Voi sapete qualcosa in proposito, cioè su come applicarli?
Ah dimenticavo. L'ordinata rappresenta invece il reale valore di mercato.
Ma se ipotizzi un modello lineare, lo stare sopra o sotto la retta è dovuto al caso e difficilmente troverai caratteristiche comune, probabilmente è la naturale variabilità del fenomeno. Anche perchè se non fosse per quelle osservazioni anomale e forse un problema di trasformazione di variabili, come suggerito da sergio, un modello lineare sembra sufficiente a spiegare il fenomeno.
Il punto sono proprio le osservazioni anomale! Uno dei presupposti degli ols è che proprio queste osservazioni siano improbabili (Variabile dipendente e regressori con curtosi' finita) affinchè si possano utilizzare i minimi quadrati.
"Sergio":
[quote="ZeroUno"]Il punto sono proprio le osservazioni anomale! Uno dei presupposti degli ols è che proprio queste osservazioni siano improbabili (Variabile dipendente e regressori con curtosi' finita) affinchè si possano utilizzare i minimi quadrati.
Questa non l'avevo mai sentita. Mi puoi dare qualche riferimento?[/quote]
Ho trovato questo da wiki, perchè il mio è un riferimento bibliografico:
http://it.wikipedia.org/wiki/Metodo_dei_minimi_quadrati -> assunzioni ols -> hanno momenti quarti finiti non nulli.
Da cui curtosì finita e outlier improbabili.
"Sergio":
[quote="ZeroUno"]http://it.wikipedia.org/wiki/Metodo_dei_minimi_quadrati -> assunzioni ols -> hanno momenti quarti finiti non nulli.
Da cui curtosì finita e outlier improbabili.
In primo luogo, la voce di Wikipedia prende fischi per fiaschi. L'assunto dei momenti (semplici) quarti finiti si richiede solo per dimostrare che lo stimatore OLS è asintoticamente normale e non fa parte degli assunti "di base", detti di Gauss-Markov. Vedi:
a) assunti OLS: http://en.wikipedia.org/wiki/Ordinary_l ... sion_model oppure http://en.wikipedia.org/wiki/Gauss-Markov_assumptions
b) momenti quarti finiti per l'approccio asintotico (grandi campioni): http://en.wikipedia.org/wiki/Ordinary_l ... properties (l'esposizione non è esente da pecche, ma è decisamente migliore di quella della voce italiana).
La voce italiana cita da un testo di econometria, e in econometria l'approccio asintotico domina. Non è così, però, per moltissimi altri ambiti di ricerca.
In secondo luogo:
a) la curtosi viene definita in termini dei momenti centrali (scarti dalla media) non dei momenti semplici;
b) nell'approccio OLS si richiede, per poter effetuare test di ipotesi sulle stime, che i dati oggetto di indagine abbiano una distribuzione normale (nell'approccio asintotico ci si accontenta della normalità asintotica) e la curtosi di una distribuzione normale è zero.[/quote]
Ho linkato wiki come ti ho detto perchè il mio è un riferimento cartaceo, e non ne avevo uno online.
Il riferimento è effettivamente di un libro di econometria e mi sembra coerente con la domanda che si poneva l'autore riguardo l'efficacia di una regressione lineare.
Con questo non ne voglio fare una disquisizione puramenta teorica, perchè oltretutto, non ne ho le nozioni. Ma dal punti di vista pratico, non mi sembra un argomentazione errata, dato che stiamo effettivamente parlando di una regressione lineare con gli ols, o di una regressione non lineare che richiede comunque degli outliner improbabili espressi matematicamente a seconda della funzione in questione.
Infine, nota a margine, nel testo da cui ho tratto la nozione precedente, si giustificano le condizione del teorema di Gauss Markov con le assunzioni dei minimi quadrati e non viceversa. (Con questo non intendo dire sia per forza corretto)
"Sergio":
[quote="ZeroUno"]Ho linkato wiki come ti ho detto perchè il mio è un riferimento cartaceo, e non ne avevo uno online.
Il riferimento è effettivamente di un libro di econometria e mi sembra coerente con la domanda che si poneva l'autore riguardo l'efficacia di una regressione lineare.
Il problema è che in econometria si usa un approccio asintotico e da questo non segue che quanto è necessario per un approccio asintotico sia necessario anche nel caso generale. Nel caso generale l'assunto dei momenti quarti finiti non è necessario (non serve a nulla).
Se poi prendi un testo di econometria classico, come il Greene, nel capitolo sulla regressione lineare classica non si parla proprio di momenti quarti. Si cominciano a fare assunzioni su momenti terzi solo quando si tratta di dimostrare la normalità asintotica, che può essere dimostrata in più modi.
In realtà, infatti, è sufficiente l'esistenza di momenti assoluti di ordine maggiore di 2 per poter applicare il teorema del limite centrale di Liapounov, oppure quello di Lindberg-Feller (come fa Greene) di cui quello di Liapounov è un caso particolare (v. il testo di econometria di Cameron e Trivedi, Appendice A).[/quote]
Ho capito perfettamente il tuo discorso, tu forse però non hai capito il mio. Quindi ti pongo il quesito in altri termini, inoltre di mio interesse, dato che non ho ancora esplorato questo argomento: Cosa rende peggiore l'approcio asintotico e soprattutto perchè non lo applicheresti in questo caso?
"Sergio":
[quote="ZeroUno"]Con questo non ne voglio fare una disquisizione puramenta teorica, perchè oltretutto, non ne ho le nozioni. Ma dal punti di vista pratico, non mi sembra un argomentazione errata, dato che stiamo effettivamente parlando di una regressione lineare con gli ols, o di una regressione non lineare che richiede comunque degli outliner improbabili espressi matematicamente a seconda della funzione in questione.
Mi pare che nessuno abbia finora accennato a una regressione non lineare (NB: una regressione del tipo \(y=\beta_0+\beta_1x_1+\beta_2x_1^2+\varepsilon\) è ancora lineare).
Dal punto di vista pratico, gli outlier nella regressione lineare non sono affatto improbabili, nel senso che capitano in continuazione. La presenza di outlier può condurre a scegliere metodi diversi dalla regressione lineare, anche non parametrici, ma non è affatto detto. Spesso si tratta solo di modificare il modello o magari, se possibile, di aumentare la dimensione del campione.
Esempio banale: \(x=(-4,-3,-2,0,4,10)\), \(y=(2,1,0,-1.5,-2.5,0)\). Se esegui una regressione del tipo \(y=\beta_0+\beta_1x_1+\varepsilon\) quasi tutti i valori sembrano outlier, se invece provi con \(y=\beta_0+\beta_1x_1+\beta_2x_1^2+\varepsilon\) gli outlier spariscono.[/quote]
Qui però dai ragione alla nozione da me proposta. Trovo diversi outlier? Scelgo un metodo diverso, oppure modifico il modello migliorandolo, o controllo i dati da me utilizzati, insomma arrivo alla conclusione che il modello è impreciso o magari errato.
\(y=\beta_0+\beta_1x_1+\beta_2x_1^2+\varepsilon\) Non è una regressione non lineare (quadratica) che però può essere risolta come una lineare?
P.S ti ho mandato un messaggio privato.
Sergio come avevo editato sopra, ti ho scritto un messaggio privato. Riscrivo perchè magari non lo noti avendo editato mentre tu probabilmente stavi già rispondendo.
Ciao.
Sinceramente il discorso di Sergio mi ha abbastanza convinto. Cioè penso che la regressione multipla sia molto adatta in questo caso. Il problema che continuo a non capire è quello posto da Niandra82, che parla di osservazioni anomale, errori di peso e variabilità del fenomeno. Sinceramente non capisco tutte queste cose, cioè non capisco, con tutte queste cose, a cosa voglia riferirsi. Quali sarebbero queste osservazioni anomale e perché sarebbero anomale?
Sinceramente il discorso di Sergio mi ha abbastanza convinto. Cioè penso che la regressione multipla sia molto adatta in questo caso. Il problema che continuo a non capire è quello posto da Niandra82, che parla di osservazioni anomale, errori di peso e variabilità del fenomeno. Sinceramente non capisco tutte queste cose, cioè non capisco, con tutte queste cose, a cosa voglia riferirsi. Quali sarebbero queste osservazioni anomale e perché sarebbero anomale?
Scusate se con i miei interventi abbasso il livello della discussione.

"Sergio":
[quote="ZeroUno"]Sergio come avevo editato sopra, ti ho scritto un messaggio privato. Riscrivo perchè magari non lo noti avendo editato mentre tu probabilmente stavi già rispondendo.
L'avevo visto, ma mi era sembrato generico.
Comunque, ho dato un'occhiata al testo di Stock e Watson e dicono chiaro che l'assunzione dei momenti quarti finiti si fa per l'approccio asintotico («è usata nei calcoli matematici che giustificano le approssimazioni per grandi campioni alle distribuzioni delle statistiche test basate sugli OLS»; traduzione: si usa per dimostrare la normalità asintotica dello stimatore OLS). Per il resto, cercano di darne una giustificazione intuitiva, ma il tentativo non va preso troppo sul serio, nel senso che perché capiti quello che dicono («valori estremamemente elevati di \(X_i\) e \(u_i\)») è sufficiente che tenda all'infinito la varianza, e si assume sempre varianza finita.
Non solo: va da sé che «valori estremamemente elevati di \(X_i\) e \(u_i\)» possono aversi anche con varianza finita ma "estremamente elevata". Se vuoi, anche con momenti centrali quarti "estremamente elevati" ma finiti. Infatti, che vuol dire "estremamente"? Nulla. Ad esempio, un insieme di valori che appaiono molto "dispersi" può compattarsi parecchio su scala logaritmica (un miliardo è "estremamente elevato" rispetto a 10, ma i rispettivi logaritmi sono 20.7 e 2.3) e nella pratica della regressione le trasformazioni logaritmiche abbondano.
In realtà, quindi, quel tentativo di giustificazione intuitiva non mi pare molto riuscito...
Il motivo per cui si usano (ripeto: non sempre) i momenti semplici quarti finiti per dimostrare la normalità asintotica è che così la dimostrazione si semplifica: invece di ricorrere a forme "specialistiche" del teorema del limite centrale, si può usare la disuguaglianza di Cauchy-Schwarz (v. Bruce Hansen, Econometrics 2010, pag. 71).[/quote]
Cristallino. Ti ringrazio.
Effettivamente anche la definizione: outlier ''improbabili'', creava qualche dubbio interpretativo.
Riapro la discussione perché in questi giorni mi sono dedicato a seguire altre vie oltre la regressione semplice o multipla.
In particolare sto cercando di seguire la via dei cluster o raggruppamenti. Questo ricade nell'area del sapere cosiddetta "analisi dei gruppi". In pratica ve lo spiego brevemente ma penso che non abbiate bisogno di spiegazioni e la conosciate.
Si tratta di un settore della statistica che si propone di creare dei raggruppamenti di unità che formano la popolazione per cercare di riunire insieme quelle unità statistiche che abbiano una certa vicinanza tra loro, creando dei gruppi con una certa omogeneità naturalmente rispetto alle variabili che si è deciso di prendere in considerazione come significative. La scelta del set di variabili significative dovrebbe avvenire all'inizio del procedimento di raggruppamento. Poi vi sono due tipi di algoritmi, quelli gerarchici e quelli non gerarchici. Io do per scontato che sappiate tutto di queste cose quindi i fermo qua con la spiegazione.
Cosa mi ha spinto a passare ad un approccio del dataset mediante analisi di gruppie conseguente raggruppamento delle unità?
Mi ha spinto a questo il fatto che ho visto che le nubi di punti che io tratto sono molto complesse, hanno una struttura molto complessa se considerate globalmente e risultano molto diffuse. In pratica trovare un grafico per approssimarle è abbastanza problematico e rischierei di avere una funzione molto complicata. Quindi ho deciso di passare ai cluster. In questo modo ho una visione più sintetica della situazione. Il problema però è questo. Mi chiedo come potrò estrarre un grafico che approssimi la situazione una volta che ho completato il procedimento di clusterizzazione. I punti saranno raggruppati in cluster e quindi? Dovrò fare il grafico per ogni cluster, cioè un grafico diverso? E se i cluster che si formano presentano lo stesso problema della nube iniziale, cioè non hanno una forma semplice, anche se risultano più concentrati (la clusterizzazione serve ad aumentare la concentrazione), cosa posso fare? La clusterizzazione non mi sarà servita a nulla?
Non so se sono riuscito a spiegarmi. Come si fa a tracciare un grafico per fare delle previsioni in caso di clusterizzazione?
In particolare sto cercando di seguire la via dei cluster o raggruppamenti. Questo ricade nell'area del sapere cosiddetta "analisi dei gruppi". In pratica ve lo spiego brevemente ma penso che non abbiate bisogno di spiegazioni e la conosciate.
Si tratta di un settore della statistica che si propone di creare dei raggruppamenti di unità che formano la popolazione per cercare di riunire insieme quelle unità statistiche che abbiano una certa vicinanza tra loro, creando dei gruppi con una certa omogeneità naturalmente rispetto alle variabili che si è deciso di prendere in considerazione come significative. La scelta del set di variabili significative dovrebbe avvenire all'inizio del procedimento di raggruppamento. Poi vi sono due tipi di algoritmi, quelli gerarchici e quelli non gerarchici. Io do per scontato che sappiate tutto di queste cose quindi i fermo qua con la spiegazione.
Cosa mi ha spinto a passare ad un approccio del dataset mediante analisi di gruppie conseguente raggruppamento delle unità?
Mi ha spinto a questo il fatto che ho visto che le nubi di punti che io tratto sono molto complesse, hanno una struttura molto complessa se considerate globalmente e risultano molto diffuse. In pratica trovare un grafico per approssimarle è abbastanza problematico e rischierei di avere una funzione molto complicata. Quindi ho deciso di passare ai cluster. In questo modo ho una visione più sintetica della situazione. Il problema però è questo. Mi chiedo come potrò estrarre un grafico che approssimi la situazione una volta che ho completato il procedimento di clusterizzazione. I punti saranno raggruppati in cluster e quindi? Dovrò fare il grafico per ogni cluster, cioè un grafico diverso? E se i cluster che si formano presentano lo stesso problema della nube iniziale, cioè non hanno una forma semplice, anche se risultano più concentrati (la clusterizzazione serve ad aumentare la concentrazione), cosa posso fare? La clusterizzazione non mi sarà servita a nulla?
Non so se sono riuscito a spiegarmi. Come si fa a tracciare un grafico per fare delle previsioni in caso di clusterizzazione?