Determinare la ddp derivata dal log di un GMM (Gaussian Mixture Model)
Ciao a tutti!
Lavorando alla tesi di laurea tirennale mi sono trovato di fronte a un problema. Non vi fornisco il contesto generale in cui mi trovo -non lo ritengo utile in questo caso- ma se voleste più informazioni chiedete pure.
L'oggetto
Considerando un modello che chiamo "$\lambda$" di tipo GMM (Gaussian Mixture Model), di M componenti, le cui gaussiane siano D-variate, ed un campione $ X={x_1..x_T}$ con $x_i $ vettori D-dimensionali, assunti per semplicità indipendenti,
definisco:
\[ \Lambda_1 = log p(X|\lambda) = \sum_{t = 1}^T log p(x_t|\lambda) \]
Ovvero una log-likelihood data dai prodotti delle probabilità che ciascun vettore $x_i$ sia generato dal modello $\lambda$.
Più in particolare, si definisce:
\[ p(x_t|\lambda) = \sum_{i=1}^M w_ib_i \]
Dove $b_i$ è la i-esima gaussiana del modello gaussiano misto $\lambda$, con le dovute media e matrice di covarianza. I coefficienti $w_i$ sono invece i pesi attribuiti ad ogni componente.
Tutto ciò penso sia standard nella trattazione di un modello GMM. In tutto ciò mi sto riferendo ad un paper di Reynolds (Speaker Verification Using Adapted Gaussian Mixture Models).
Il problema
A questo punto mi chiedo che distribuzione di probabilità assuma la mia v.c. $\Lambda_1$. Essa è infatti il logaritmo del prodotto di GMM, ovvero il logaritmo del prodotto della somma pesata di distribuzioni normali.
In che modo posso risolvere il problema?
Grazie,
Giovanni
Lavorando alla tesi di laurea tirennale mi sono trovato di fronte a un problema. Non vi fornisco il contesto generale in cui mi trovo -non lo ritengo utile in questo caso- ma se voleste più informazioni chiedete pure.
L'oggetto
Considerando un modello che chiamo "$\lambda$" di tipo GMM (Gaussian Mixture Model), di M componenti, le cui gaussiane siano D-variate, ed un campione $ X={x_1..x_T}$ con $x_i $ vettori D-dimensionali, assunti per semplicità indipendenti,
definisco:
\[ \Lambda_1 = log p(X|\lambda) = \sum_{t = 1}^T log p(x_t|\lambda) \]
Ovvero una log-likelihood data dai prodotti delle probabilità che ciascun vettore $x_i$ sia generato dal modello $\lambda$.
Più in particolare, si definisce:
\[ p(x_t|\lambda) = \sum_{i=1}^M w_ib_i \]
Dove $b_i$ è la i-esima gaussiana del modello gaussiano misto $\lambda$, con le dovute media e matrice di covarianza. I coefficienti $w_i$ sono invece i pesi attribuiti ad ogni componente.
Tutto ciò penso sia standard nella trattazione di un modello GMM. In tutto ciò mi sto riferendo ad un paper di Reynolds (Speaker Verification Using Adapted Gaussian Mixture Models).
Il problema
A questo punto mi chiedo che distribuzione di probabilità assuma la mia v.c. $\Lambda_1$. Essa è infatti il logaritmo del prodotto di GMM, ovvero il logaritmo del prodotto della somma pesata di distribuzioni normali.
In che modo posso risolvere il problema?
Grazie,
Giovanni
Risposte
Scusa ma non mi è chiaro il problema.
DEvi stimare i parametri?
Se il tuo problema è trovare come si distribuisce lambda, beh è semplice, come il log di una mistur di normali
DEvi stimare i parametri?
Se il tuo problema è trovare come si distribuisce lambda, beh è semplice, come il log di una mistur di normali
