Dimostrare che il coefficiente di correlazione di due variabili casuali è -1
Ciao! Sto studiando la distribuzione multinomiale e prima di dimostrare che le $N$ variabili casuali $X_i$ sono correlate tra loro (con $k$ generico), vorrei dimostrare un caso più semplice, ovvero quello con due soli esiti ($k=2$) che corrisponde alla distribuzione binomiale.
La funzione di densità di probabilità della distribuzione binomiale è:
\[
f(x|\mathcal{B}_{n,p}) = \textstyle {n \choose k}p^{k}q^{{n-k}} = f(x|\mathcal{B}_{n,p}) = \dfrac{n!}{x!(n−x)!}p^x(1− p)^{n−x}
\]
E siccome gli esiti sono due e le probabilità sono due possiamo riscriverla così:
\[
f(x_1, x_2 |\mathcal{B}_{n,p}) = \dfrac{n!}{x_1! x_2!}p_1^{x_1}p_2^{x_2}
\]
Sappiamo quindi che:
\[
P_1+P_2 = 1 \\
X_1+X_2 = N
\]
Riscrivamo le due variabili casuali così:
\begin{cases}
X_1 = N-Y \\
X_2 = Y
\end{cases}
Infine sappiamo che la formula del coefficiente di correlazione è:
\[
\boxed{\rho[X,Y] = \dfrac{Cov[X,Y]}{\sigma[X]\sigma[Y]} = \dfrac{Cov[X,Y]}{\sqrt{Var[X]Var[Y]}}}
\]
Nel nostro caso dunque:
\[
Cov[X_1,X_2] = Cov[N-Y, Y] = Cov[-Y,Y] = -Cov[Y,Y] = -Var[Y]
\]
La costante additiva $N$ la possiamo togliere perché la covarianza è invariante per traslazioni, vero?
Applicando la formula della $\rho$:
\[
\rho[Y,Y] = \dfrac{-Var[Y]}{\sqrt{(-Var[Y]) \cdot (-Var[Y])}} = \dfrac{-Var[Y]}{\sqrt{Var^2[Y]}} = \dfrac{-Var[Y]}{Var[Y]} = -1
\]
A livello intuitivo mi è chiaro perché debbano essere anticorrelate, spero però la dimostrazione sia corretta. Vi invito a essere spietati e correggere qualsiasi inesattezza, grazie mille!
La funzione di densità di probabilità della distribuzione binomiale è:
\[
f(x|\mathcal{B}_{n,p}) = \textstyle {n \choose k}p^{k}q^{{n-k}} = f(x|\mathcal{B}_{n,p}) = \dfrac{n!}{x!(n−x)!}p^x(1− p)^{n−x}
\]
E siccome gli esiti sono due e le probabilità sono due possiamo riscriverla così:
\[
f(x_1, x_2 |\mathcal{B}_{n,p}) = \dfrac{n!}{x_1! x_2!}p_1^{x_1}p_2^{x_2}
\]
Sappiamo quindi che:
\[
P_1+P_2 = 1 \\
X_1+X_2 = N
\]
Riscrivamo le due variabili casuali così:
\begin{cases}
X_1 = N-Y \\
X_2 = Y
\end{cases}
Infine sappiamo che la formula del coefficiente di correlazione è:
\[
\boxed{\rho[X,Y] = \dfrac{Cov[X,Y]}{\sigma[X]\sigma[Y]} = \dfrac{Cov[X,Y]}{\sqrt{Var[X]Var[Y]}}}
\]
Nel nostro caso dunque:
\[
Cov[X_1,X_2] = Cov[N-Y, Y] = Cov[-Y,Y] = -Cov[Y,Y] = -Var[Y]
\]
La costante additiva $N$ la possiamo togliere perché la covarianza è invariante per traslazioni, vero?
Applicando la formula della $\rho$:
\[
\rho[Y,Y] = \dfrac{-Var[Y]}{\sqrt{(-Var[Y]) \cdot (-Var[Y])}} = \dfrac{-Var[Y]}{\sqrt{Var^2[Y]}} = \dfrac{-Var[Y]}{Var[Y]} = -1
\]
A livello intuitivo mi è chiaro perché debbano essere anticorrelate, spero però la dimostrazione sia corretta. Vi invito a essere spietati e correggere qualsiasi inesattezza, grazie mille!

Risposte
Ogni tanto è bello vedere un post di un neoiscritto scritto come si deve! Direi che è tutto a posto. L'invarianza della covarianza alle traslazioni è presto dimostrata, basta usare la definizione
$\mathbb{Cov}[N-Y;Y]=\mathbb{E}[(N-Y)Y]-\mathbb{E}[N-Y]\cdot\mathbb{E}[Y]=...=-{\mathbb{E}[Y^2]-mathbb{E}^2[Y]}=-\mathbb{V}[Y]$
EDIT: visto dopo: non ci vanno i "meno" al denominatore:$V(N-Y)=V(Y)$
$\mathbb{Cov}[N-Y;Y]=\mathbb{E}[(N-Y)Y]-\mathbb{E}[N-Y]\cdot\mathbb{E}[Y]=...=-{\mathbb{E}[Y^2]-mathbb{E}^2[Y]}=-\mathbb{V}[Y]$
EDIT: visto dopo: non ci vanno i "meno" al denominatore:$V(N-Y)=V(Y)$
Hai proprio ragione, quei "meno" non ci vanno, grazie della correzione! E grazie anche della dimostrazione dell'invarianza. Buona serata e ci sentiamo presto con altri dubbi! 
PS: grazie anche dei complimenti per la formattazione del post
PPS: dovrei scrivere anche io $\mathbb{Cov}$ e $\mathbb{E}$ così?

PS: grazie anche dei complimenti per la formattazione del post

PPS: dovrei scrivere anche io $\mathbb{Cov}$ e $\mathbb{E}$ così?