Rapporto di valori attesi
Sto lavorando ad un problema di meccanica statistica e mi ritrovo con una scrittura del genere:
$(E[X])/(E[Y])$
dove $X=\sigma_i \sigma_j e^{1/N \sigma_i \sigma_j}$, $Y=e^{1/N \tau_i \tau_j}$ e $(\sigma_i,\sigma_j)$, $(\tau_i,\tau_j)$ sono due coppie indipendenti di spin;
$E$ è il valore atteso nello spazio di Boltzmann-Gibbs.
Ora, visto che $X,Y$ sono indipendenti, so che $E[X]*E[Y]=E[X*Y]$.
Posso dire qualcosa di simile per $(E[X])/(E[Y])$? Mi interesserebbe riuscire a trasformalo in una scrittura del tipo $E[f(X,Y)]$.
Grazie!
$(E[X])/(E[Y])$
dove $X=\sigma_i \sigma_j e^{1/N \sigma_i \sigma_j}$, $Y=e^{1/N \tau_i \tau_j}$ e $(\sigma_i,\sigma_j)$, $(\tau_i,\tau_j)$ sono due coppie indipendenti di spin;
$E$ è il valore atteso nello spazio di Boltzmann-Gibbs.
Ora, visto che $X,Y$ sono indipendenti, so che $E[X]*E[Y]=E[X*Y]$.
Posso dire qualcosa di simile per $(E[X])/(E[Y])$? Mi interesserebbe riuscire a trasformalo in una scrittura del tipo $E[f(X,Y)]$.
Grazie!
Risposte
Se $X_1$ e $X_2$ sono indipendenti e $Y_1=g_1(X_1)$ e $Y_2=g_2(X_2)$,
$Y_1$ e $Y_2$ sono indipendenti.
Vale ovviamente anche per $n$ variabili.
$Y_1$ e $Y_2$ sono indipendenti.
Vale ovviamente anche per $n$ variabili.
Scusa ma non ho capito la risposta.
Se $X,Y$ sono variabili aleatorie indipendenti, posso dire qualcosa di $(E[X])/(E[Y])$ (dove con $E[.]$ indico il valore atteso)?
Se $X,Y$ sono variabili aleatorie indipendenti, posso dire qualcosa di $(E[X])/(E[Y])$ (dove con $E[.]$ indico il valore atteso)?
No infatti scusa ti ho risposto male;
quello che intendevo è che
$E[X/Y]=E[X]E[1/Y]$ che però non mi pare ti serva;
nom so se puoi concludere, in generale, su $(E[X])/(E[Y])$ che è un rapporto tra due integrali;
magari si trova qualcosa nel particolare;
cosa sono i $tau$ e $sigma$
quello che intendevo è che
$E[X/Y]=E[X]E[1/Y]$ che però non mi pare ti serva;
nom so se puoi concludere, in generale, su $(E[X])/(E[Y])$ che è un rapporto tra due integrali;
magari si trova qualcosa nel particolare;
cosa sono i $tau$ e $sigma$
$\sigma$ è un vettore aleatorio, precisamente:
$\sigma=(\sigma_1,...,\sigma_N)$ con $\sigma_i\in{-1,1}$ per ogni $i=1...N$.
Il valore atteso di $f(\sigma)$ nello spazio di Boltzmann-Gibbs è:
$E[f(\sigma)]=(\sum_{\sigma_1..\sigma_N\in{-1,1}} f(\sigma)*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))/(\sum_{\sigma_1..\sigma_N\in{-1,1}} exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))$
Idem per $\tau$.
Quindi:
$(E[X])/(E[Y])=(E[\sigma_i\sigma_j*e^{1/N\sigma_i\sigma_j}])/(E[e^{1/N\sigma_i\sigma_j}])=(\sum_{\sigma_1..\sigma_N\in{-1,1}} \sigma_i\sigma_j*e^{1/N\sigma_i\sigma_j}*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))/(\sum_{\sigma_1..\sigma_N\in{-1,1}} e^{1/N\sigma_i\sigma_j}*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))$
$\sigma=(\sigma_1,...,\sigma_N)$ con $\sigma_i\in{-1,1}$ per ogni $i=1...N$.
Il valore atteso di $f(\sigma)$ nello spazio di Boltzmann-Gibbs è:
$E[f(\sigma)]=(\sum_{\sigma_1..\sigma_N\in{-1,1}} f(\sigma)*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))/(\sum_{\sigma_1..\sigma_N\in{-1,1}} exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))$
Idem per $\tau$.
Quindi:
$(E[X])/(E[Y])=(E[\sigma_i\sigma_j*e^{1/N\sigma_i\sigma_j}])/(E[e^{1/N\sigma_i\sigma_j}])=(\sum_{\sigma_1..\sigma_N\in{-1,1}} \sigma_i\sigma_j*e^{1/N\sigma_i\sigma_j}*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))/(\sum_{\sigma_1..\sigma_N\in{-1,1}} e^{1/N\sigma_i\sigma_j}*exp(1/N\sum_{r,s=1}^N\sigma_r\sigma_s))$
Non ho capito bene l'espressione di $f(sigma)$ secondo me ti conviene lavorare sul particolare;
vedi se ti viene comodo questo:
$Z=Y/(E^2[Y])$ è indipendente da $X$
$E[ZX]=E[Z]E[X]=(E[X])/(E[Y]);
quindi $f(X,Y)=XY/(E^2[Y])
vedi se ti viene comodo questo:
$Z=Y/(E^2[Y])$ è indipendente da $X$
$E[ZX]=E[Z]E[X]=(E[X])/(E[Y]);
quindi $f(X,Y)=XY/(E^2[Y])
Spiegami come sono le $X$ e $Y$;
allora le $sigma_i$ sono in ${-1,1}$ con quali probabilità? sono indipendenti? spero di si;
e la $X=f(\sigma_i,i=1,...,n)$
allora le $sigma_i$ sono in ${-1,1}$ con quali probabilità? sono indipendenti? spero di si;
e la $X=f(\sigma_i,i=1,...,n)$
Le $\sigma_i$ non sono indipendenti, ma hanno distribuzione congiunta di Boltzmann-Gibbs.
Ossia fissato un vettore $k=(k_1,...,k_N)\in{-1,1}^N$
$P(\sigma=k)=(exp(1/N\sum_{r,s=1}^N k_r k_s))/Z$,
dove $Z=\sum_{k\in{-1,1}^N} exp(1/N\sum_{r,s=1}^N k_r k_s)$ (Z fa sì che la somma delle probabilità faccia 1).
Nel mio problema, fissati $i,j\in{1,...,N}$, ho posto
$X:=\sigma_i\sigma_j e^{1/N\sigma_i\sigma_j}$
$Y:=e^{1/N\sigma_i\sigma_j}$.
Ossia fissato un vettore $k=(k_1,...,k_N)\in{-1,1}^N$
$P(\sigma=k)=(exp(1/N\sum_{r,s=1}^N k_r k_s))/Z$,
dove $Z=\sum_{k\in{-1,1}^N} exp(1/N\sum_{r,s=1}^N k_r k_s)$ (Z fa sì che la somma delle probabilità faccia 1).
Nel mio problema, fissati $i,j\in{1,...,N}$, ho posto
$X:=\sigma_i\sigma_j e^{1/N\sigma_i\sigma_j}$
$Y:=e^{1/N\sigma_i\sigma_j}$.
Un bel casino;
vediamo se ho capito
abbiamo una variabile n-dimensionale $sigma=(sigma_1,...,sigma_n)$ dove le $sigma_i$ sono $=1,-1$.
Data una n-upla (di $1$ e $-1$) abbiamo che la prob e quella che hai scritto.
Innanzitutto vorrei farti notare che le n-uple distinte sono $2^n$ che possono essere scomposte nelle n-uple che contengono $k$ volte $+1$; queste sono $((n),(k))$ (per $k=0,...,n$) ed ovviamente $sum_(k=0)^n ((n),(k))=2^n$.
Così facendo, ed osservando che $sum_(r,s=1)^nk_rk_s=(k_1+,...,k_n)^2$, la somma $Z$ la puoi scrivere come
$sum_(k=0)^n((n),(k))e^(1/n{n-2k}^2)$ che è un po più umana (il fatto di quel quadrato ti fa saltare le storie del binomio di newton non so se c'è una formula).
A me risulta che ciascuna variabile $sigma_i$ si distribuisce in $-1,+1$ con prob $1/2$ e $1/2$, però sono dipendenti;
ho trovato anche la distribuzione per la variabie doppia $(sigma_i,sigma_j)$ che serve per lavorare con $x$ e $Y$ da te definite; se vuoi la posto.
Mi rimane un dubbio per come hai definito le $X$ e $Y$ appunto; se sono funzione della stessa coppia di sigma non sono ne indipendenti ne incorrelate;
all'inizio però le avevi definite diversamente.
Controlla tutto perchè il baco è dietro l'angolo
vediamo se ho capito
abbiamo una variabile n-dimensionale $sigma=(sigma_1,...,sigma_n)$ dove le $sigma_i$ sono $=1,-1$.
Data una n-upla (di $1$ e $-1$) abbiamo che la prob e quella che hai scritto.
Innanzitutto vorrei farti notare che le n-uple distinte sono $2^n$ che possono essere scomposte nelle n-uple che contengono $k$ volte $+1$; queste sono $((n),(k))$ (per $k=0,...,n$) ed ovviamente $sum_(k=0)^n ((n),(k))=2^n$.
Così facendo, ed osservando che $sum_(r,s=1)^nk_rk_s=(k_1+,...,k_n)^2$, la somma $Z$ la puoi scrivere come
$sum_(k=0)^n((n),(k))e^(1/n{n-2k}^2)$ che è un po più umana (il fatto di quel quadrato ti fa saltare le storie del binomio di newton non so se c'è una formula).
A me risulta che ciascuna variabile $sigma_i$ si distribuisce in $-1,+1$ con prob $1/2$ e $1/2$, però sono dipendenti;
ho trovato anche la distribuzione per la variabie doppia $(sigma_i,sigma_j)$ che serve per lavorare con $x$ e $Y$ da te definite; se vuoi la posto.
Mi rimane un dubbio per come hai definito le $X$ e $Y$ appunto; se sono funzione della stessa coppia di sigma non sono ne indipendenti ne incorrelate;
all'inizio però le avevi definite diversamente.
Controlla tutto perchè il baco è dietro l'angolo
Sì un bel casino, cmq hai capito bene.
Avevo fatto un po' di confusione: X e Y sono funzioni della stessa coppia $(\sigma_i,\sigma_j)$, come le ho definite nell'ultimo post.
Ti ringrazio per la distribuzione di $(\sigma_i,\sigma_j)$: me la puoi postare?
Avevo fatto un po' di confusione: X e Y sono funzioni della stessa coppia $(\sigma_i,\sigma_j)$, come le ho definite nell'ultimo post.
Ti ringrazio per la distribuzione di $(\sigma_i,\sigma_j)$: me la puoi postare?
$(sigma_i,sigma_j)$ appartiene q.c. a ${(1,1),(1,-1),(-1,1),(-1,-1)}$
$P(1,1)=P(-1,-1)=(sum_(k=0)^(n-2)((n-2),(k))e^(1/n{n-2k}^2))/Z$
$P(1,-1)=P(-1,1)=1/2-P(1,1)$;
secondo me puoi fare qualche semplificazione sulle sommatorie (vedi un po').
Ti riporto i risultati per alcuni valori di $n$ (colonna a sin; al centro (1,1); a destra(-1,1))
(1,1) (-1,1)
[2,] 0.4403985 0.05960146
[3,] 0.4425020 0.05749798
[4,] 0.4456957 0.05430426
[5,] 0.4491089 0.05089108
[6,] 0.4523950 0.04760497
[7,] 0.4554091 0.04459088
[8,] 0.4580994 0.04190062
[9,] 0.4604607 0.03953934
[10,] 0.4625113 0.03748869
[20,] 0.47239444 0.02760556
[30,] 0.47510973 0.02489027
[40,] 0.47626546 0.02373454
[50,] 0.47690818 0.02309182
[100,] 0.47810465 0.02189535
$P(1,1)=P(-1,-1)=(sum_(k=0)^(n-2)((n-2),(k))e^(1/n{n-2k}^2))/Z$
$P(1,-1)=P(-1,1)=1/2-P(1,1)$;
secondo me puoi fare qualche semplificazione sulle sommatorie (vedi un po').
Ti riporto i risultati per alcuni valori di $n$ (colonna a sin; al centro (1,1); a destra(-1,1))
(1,1) (-1,1)
[2,] 0.4403985 0.05960146
[3,] 0.4425020 0.05749798
[4,] 0.4456957 0.05430426
[5,] 0.4491089 0.05089108
[6,] 0.4523950 0.04760497
[7,] 0.4554091 0.04459088
[8,] 0.4580994 0.04190062
[9,] 0.4604607 0.03953934
[10,] 0.4625113 0.03748869
[20,] 0.47239444 0.02760556
[30,] 0.47510973 0.02489027
[40,] 0.47626546 0.02373454
[50,] 0.47690818 0.02309182
[100,] 0.47810465 0.02189535