Ancora sul prodotto scalare
Ciao! Per la vostra gioia anche stasera non vi faccio mancare tre dimostrazioncine
i) Dimostrare l'identità del parallelogramma: \(\displaystyle \lVert\mathbf{u}+\mathbf{v}\rVert+\lVert\mathbf{u}-\mathbf{v}\rVert=2\left(\lVert\mathbf{u}\rVert^2+\lVert\mathbf{v}\rVert^2\right) \)
Si ha dalla definizione di norma e dalla bilinearità del prodotto scalare: \[\displaystyle \lVert\mathbf{u}+\mathbf{v}\rVert+\lVert\mathbf{u}-\mathbf{v}\rVert=\langle\mathbf{u}+\mathbf{v},\mathbf{u}+\mathbf{v}\rangle+\langle\mathbf{u}-\mathbf{v},\mathbf{u}-\mathbf{v}\rangle=\\ =\langle\mathbf{u},\mathbf{u}\rangle+2\langle\mathbf{u},\mathbf{v}\rangle+\langle\mathbf{v},\mathbf{v}\rangle+\langle\mathbf{u},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle-2\langle\mathbf{u},\mathbf{v}\rangle=2\left(\lVert\mathbf{u}\rVert^2+\lVert\mathbf{v}\rVert^2\right) \] ii) Determinare il complemento ortogonale allo spazio $W$ delle matrici diagonali nello spazio $V$ delle matrici simmetriche rispetto al prodotto definito da \(\displaystyle \langle A,B\rangle=\text{tr }AB \).
Tenendo presente che \[\displaystyle \dim V = \dim W^{\bot}+\dim W \Rightarrow (n^2-n)/2+n=\dim W^{\bot}+n \] ottengo che la dimensione dello spazio ortogonale è \(\displaystyle n(n-1)/2 \). Mi viene quindi il sospetto che il sottospazio cercato sia quello delle matrici simmetriche aventi soltanto zeri sulla diagonale (che ha anche intersezione banale con lo spazio delle matrici diagonali). Infatti denotando con $D$ la generica matrice diagonale e con $O$ la matrice tale che \(\displaystyle \langle D,O\rangle=0 \), si ha che l'elemento generico sulla diagonale del prodotto è \[\displaystyle \sum_{j=1} d_{ij}o_{ji}=d_{i1}o_{1i}+...+d_{in}o_{ni} \] \[\displaystyle \text{tr } DO=\sum_{i=1}^n\sum_{j=1}^n d_{ij}o_{ji}=(d_{11}o_{11}+...+d_{1n}o_{n1})+...+(d_{n1}o_{1n}+...+d_{nn}o_{nn})=0 \] Tuttavia se la matrice $D$ è diagonale allora gli elementi \(\displaystyle d_{ij} \) con \(\displaystyle i\ne j \) sono nulli e resta la somma \(\displaystyle d_{11}o_{11}+...+d_{nn}o_{nn} \) che si annulla in generale se e solo se la diagonale della matrice $O$ è nulla.
iii) Sia $V$ uno spazio di dimensione finita su $RR$ dotato di un prodotto definito positivo e \(\displaystyle\mathcal{B}=\{\mathbf{v}_1,...,\mathbf{v}_n\} \) un insieme di vettori di norma pari a $1$ e mutuamente ortogonali; inoltre vale la formula \[\displaystyle \lVert\mathbf{v}\rVert^2= \sum_{i=1}^n \langle\mathbf{v},\mathbf{v}_i\rangle^2 \] Devo mostrare che \(\displaystyle \mathcal{B} \) è una base di $V$. Suppongo quindi \(\displaystyle \dim V=n \); se \(\displaystyle \mathcal{B} \) è una base allora per \(\displaystyle \mathbf{v}\in V \) \(\displaystyle \mathbf{v}=\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n \) da cui segue \[\displaystyle \lVert\mathbf{v}\rVert^2=\langle\mathbf{v},\mathbf{v}\rangle=\sum_{i=1}^n \langle\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n,\mathbf{v}_i\rangle=\alpha_1\langle\mathbf{v}_1,\mathbf{v}_1\rangle+...+\alpha_n\langle\mathbf{v}_n,\mathbf{v}_n\rangle=\alpha_1+...+\alpha_n=\langle\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n,\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n\rangle=\alpha_1^2+...+\alpha_n^2\] Ma \(\displaystyle \sum_{i=1}^n\alpha_i=\sum_{i=1}^n\alpha_i^2 \Leftrightarrow \alpha_i=0 \forall i \), da cui dovrebbe seguire la tesi.
Cosa ne dite? Ci sono dei problemi o fila liscio? Grazie!

i) Dimostrare l'identità del parallelogramma: \(\displaystyle \lVert\mathbf{u}+\mathbf{v}\rVert+\lVert\mathbf{u}-\mathbf{v}\rVert=2\left(\lVert\mathbf{u}\rVert^2+\lVert\mathbf{v}\rVert^2\right) \)
Si ha dalla definizione di norma e dalla bilinearità del prodotto scalare: \[\displaystyle \lVert\mathbf{u}+\mathbf{v}\rVert+\lVert\mathbf{u}-\mathbf{v}\rVert=\langle\mathbf{u}+\mathbf{v},\mathbf{u}+\mathbf{v}\rangle+\langle\mathbf{u}-\mathbf{v},\mathbf{u}-\mathbf{v}\rangle=\\ =\langle\mathbf{u},\mathbf{u}\rangle+2\langle\mathbf{u},\mathbf{v}\rangle+\langle\mathbf{v},\mathbf{v}\rangle+\langle\mathbf{u},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle-2\langle\mathbf{u},\mathbf{v}\rangle=2\left(\lVert\mathbf{u}\rVert^2+\lVert\mathbf{v}\rVert^2\right) \] ii) Determinare il complemento ortogonale allo spazio $W$ delle matrici diagonali nello spazio $V$ delle matrici simmetriche rispetto al prodotto definito da \(\displaystyle \langle A,B\rangle=\text{tr }AB \).
Tenendo presente che \[\displaystyle \dim V = \dim W^{\bot}+\dim W \Rightarrow (n^2-n)/2+n=\dim W^{\bot}+n \] ottengo che la dimensione dello spazio ortogonale è \(\displaystyle n(n-1)/2 \). Mi viene quindi il sospetto che il sottospazio cercato sia quello delle matrici simmetriche aventi soltanto zeri sulla diagonale (che ha anche intersezione banale con lo spazio delle matrici diagonali). Infatti denotando con $D$ la generica matrice diagonale e con $O$ la matrice tale che \(\displaystyle \langle D,O\rangle=0 \), si ha che l'elemento generico sulla diagonale del prodotto è \[\displaystyle \sum_{j=1} d_{ij}o_{ji}=d_{i1}o_{1i}+...+d_{in}o_{ni} \] \[\displaystyle \text{tr } DO=\sum_{i=1}^n\sum_{j=1}^n d_{ij}o_{ji}=(d_{11}o_{11}+...+d_{1n}o_{n1})+...+(d_{n1}o_{1n}+...+d_{nn}o_{nn})=0 \] Tuttavia se la matrice $D$ è diagonale allora gli elementi \(\displaystyle d_{ij} \) con \(\displaystyle i\ne j \) sono nulli e resta la somma \(\displaystyle d_{11}o_{11}+...+d_{nn}o_{nn} \) che si annulla in generale se e solo se la diagonale della matrice $O$ è nulla.
iii) Sia $V$ uno spazio di dimensione finita su $RR$ dotato di un prodotto definito positivo e \(\displaystyle\mathcal{B}=\{\mathbf{v}_1,...,\mathbf{v}_n\} \) un insieme di vettori di norma pari a $1$ e mutuamente ortogonali; inoltre vale la formula \[\displaystyle \lVert\mathbf{v}\rVert^2= \sum_{i=1}^n \langle\mathbf{v},\mathbf{v}_i\rangle^2 \] Devo mostrare che \(\displaystyle \mathcal{B} \) è una base di $V$. Suppongo quindi \(\displaystyle \dim V=n \); se \(\displaystyle \mathcal{B} \) è una base allora per \(\displaystyle \mathbf{v}\in V \) \(\displaystyle \mathbf{v}=\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n \) da cui segue \[\displaystyle \lVert\mathbf{v}\rVert^2=\langle\mathbf{v},\mathbf{v}\rangle=\sum_{i=1}^n \langle\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n,\mathbf{v}_i\rangle=\alpha_1\langle\mathbf{v}_1,\mathbf{v}_1\rangle+...+\alpha_n\langle\mathbf{v}_n,\mathbf{v}_n\rangle=\alpha_1+...+\alpha_n=\langle\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n,\alpha_1\mathbf{v}_1+...+\alpha_n\mathbf{v}_n\rangle=\alpha_1^2+...+\alpha_n^2\] Ma \(\displaystyle \sum_{i=1}^n\alpha_i=\sum_{i=1}^n\alpha_i^2 \Leftrightarrow \alpha_i=0 \forall i \), da cui dovrebbe seguire la tesi.
Cosa ne dite? Ci sono dei problemi o fila liscio? Grazie!
Risposte
Nella 3 stai assumendo la tesi:
suppongo che \(\dim V=n\)
D'oh! Ma per essere una base devo avere un numero di vettori pari a quello della dimensione (se \(\displaystyle \dim V \ge n \) mi manca qualcosa, se \(\displaystyle \dim V \le n \) ho vettori l.d.), oppure l'ora mi sta giocando qualche scherzo?

Chi ti ha detto che la dimensione di \(V\) è proprio \(n\), ovvero la cardinalità di \(\mathcal B\)? E se fosse \(m\)?
Inoltre, assumi la tesi anche dopo, quando scrivi \(v=\alpha_1b_1+\ldots \alpha_n b_n\).
Inoltre, assumi la tesi anche dopo, quando scrivi \(v=\alpha_1b_1+\ldots \alpha_n b_n\).
Okay mi sono confuso un attimo
se \(\displaystyle \dim V=m\ne n \) allora \(\displaystyle \mathcal{B} \) non potrebbe essere una base perché la dimensione dello spazio coincide con la cardinalità della base e \(\displaystyle \text{card }\mathcal{B}=n \). Sono sicuro di essermi perso in un bicchier d'acqua!

Ho capito in effetti il problema con la seconda parte, ma non con la questione della dimensione! C'è qualcosa di salvabile? Domani ci penso a mente fresca se ho tempo.
P.S. Gli altri almeno funzionano?
P.S. Gli altri almeno funzionano?

per il secondo te ne esci con un 'è vero se e solo se è la matrice ha la diagonale nulla' che però non dimostri.
Quello che dici equivarrebbe a dire che una combinazione lineare è nulla sse ciascuno dei termini è nullo cosa che chiaramente non è vera. Il discorso è che bisogna concentrarti bene sul sottospazio ortogonale e sul $forall$.
Probabilmente ti POTREBBE salvare quel 'in generale', ma non lo hai esplicitato per bene, ti potrei chiedere(anzi ti chiedo): cosa intendi per 'in generale'?
ti metto sotto spoiler, l'aspetto formale di quello che intendo, nel caso ti servisse.
Quello che dici equivarrebbe a dire che una combinazione lineare è nulla sse ciascuno dei termini è nullo cosa che chiaramente non è vera. Il discorso è che bisogna concentrarti bene sul sottospazio ortogonale e sul $forall$.
Probabilmente ti POTREBBE salvare quel 'in generale', ma non lo hai esplicitato per bene, ti potrei chiedere(anzi ti chiedo): cosa intendi per 'in generale'?
ti metto sotto spoiler, l'aspetto formale di quello che intendo, nel caso ti servisse.
@anto: la dimostrazione del punto 2 va bene, anche se quel "si annulla in generale", sono d'accordo con te, si può giustificare meglio.
Però, mamma mia, quanto sei prolisso! Un fiume di chiacchiere inutili. Tutto il tuo post si può riassumere in due righe:
Siccome $d_1a_1+...+d_na_n=0$ per arbitrari $d_1,...d_n$, questo deve valere in particolare per $d_1=0...d_k=1...d_n=0$, per $k=1...n$. Perciò $a_1=a_2=...a_n=0$.
Però, mamma mia, quanto sei prolisso! Un fiume di chiacchiere inutili. Tutto il tuo post si può riassumere in due righe:
Siccome $d_1a_1+...+d_na_n=0$ per arbitrari $d_1,...d_n$, questo deve valere in particolare per $d_1=0...d_k=1...d_n=0$, per $k=1...n$. Perciò $a_1=a_2=...a_n=0$.
Ciao anto, provo a fare un esempio concreto: ho $n=2$, $d_(11)=2$, $d_(22)=-2$, $o_(11)=1$, $o_(22)=1$. Chiaramente le cose funzionando lo stesso ($2-2=0$
) però nel sottospazio ortogonale stanno gli elementi ortogonali a qualunque altro elemento di $D_2$; quindi in generale posso cambiare i valori di $d_i$ e ottenere qualcosa che non va a zero. Questo a meno che la matrice $O$ abbia solo zeri sulla diagonale.
Essendo molto assonato non mi sento di fare un discorso rigoroso, magari domani! Buonanotte

Essendo molto assonato non mi sento di fare un discorso rigoroso, magari domani! Buonanotte

"dissonance":
.. Un fiume di chiacchiere inutili. Tutto il tuo post si può riassumere in due righe..
@uomo queste sono le stringate di cui ti parlo.

Comunque alla fine dei conti si tratta di giustificare solo meglio qualcosa, come già detto, arrivi al punto.
P.S. Grazie per il riassunto dissonance... apprezzo molto lo sforzo di anto ma lo spoiler mi aveva intimidito abbastanza
comunque spero la mia giustificazione vada bene!

Tornando a bomba, il punto 3 è fatto malamente, lo devi rifare. Comincia a dimostrare che \(\mathcal B\) è un insieme di vettori linearmente indipendenti, che sicuramente non ti fa male. E poi scervellati un po' per dimostrare che è una base.
Buongiorno! Allora faccio così. Ho già mostrato nell'altro post che vettori non nulli mutuamente ortogonali sono l.i. In questo caso all'ipotesi che siano non nulli si sostituisce quella che abbiano norma uno, equivalente nel caso in cui il prodotto è definito positivo. Ora considero il sottospazio $W$ generato dai miei $n$ vettori indipendenti. Se prendo \(\displaystyle \mathbf{v}\ne\mathbf{0} \); la norma di tale vettore è diversa da zero, ma quindi in base alla formula non tutti gli addendi positivi \(\displaystyle\langle\mathbf{v},\mathbf{v}_i\rangle^2 \) sono nulli. Questo significa che l'arbitrario vettore \(\displaystyle \mathbf{v} \) è non ortogonale ad almeno uno dei vettori di \(\displaystyle\mathcal{B} \), ovvero \(\displaystyle W^{\bot} \) contiene solo il vettore nullo e ha dimensione pari a zero. Essendo $\dim V=\dim W +\dim W^{\bot}$, $V$ ha dimensione $n$ e \(\displaystyle\mathcal{B} \) è una sua base.
Esatto. Più concisamente, puoi dire che \(W^\bot=\{0\}\) perché se \(\langle v| b_i\rangle=0\) per \(i=1,2\ldots n\) allora
\[
\|v\|^2=\sum_{i=1}^n \langle v|b_i\rangle = 0.\]
E poi concludi con la formula sulle dimensioni, come hai fatto.
È la stessa cosa che hai fatto tu ma con meno giri di parole. Un unico appunto:
\[
\|v\|^2=\sum_{i=1}^n \langle v|b_i\rangle = 0.\]
E poi concludi con la formula sulle dimensioni, come hai fatto.
È la stessa cosa che hai fatto tu ma con meno giri di parole. Un unico appunto:
all'ipotesi che siano non nulli si sostituisce quella che abbiano norma uno, equivalente nel caso in cui il prodotto è definito positivo.Ho capito cosa vuoi dire ed è corretto, ma a rigore non va bene: stai dicendo che se il prodotto scalare è definito positivo allora un vettore è non nullo se e solo se esso ha norma uno. Questa frase andrebbe riformulata.
Ottimo, grazie! Sì in realtà intendevo che se i vettori hanno norma uno allora non possono essere nulli, mi è uscita un po' male

"Uomo Grasso":
se i vettori hanno norma uno allora non possono essere nulli
Così va molto meglio.