Equivalenza norme in R^n
Avrei un dubbio sul punto 1 del seguente esercizio
Consideriamo lo spazio vettoriale \( \mathbb{R}^n \), munito della topologia indotta per la norma euclidea
\[ \forall x \in \mathbb{R}^n, \begin{Vmatrix} x \end{Vmatrix} = \sqrt{\sum\limits_{i=1}^{n} x_i^2} \]
Sia \( N : \mathbb{R}^n \rightarrow \mathbb{R} \) un altra norma.
1. Dimostra che \( N \) è continua in \( 0 \)
2. Dedurre dal punto 1 che \( N \) è continua su \( \mathbb{R}^n \)
3. Dimostra che la norma \( N \) è equivalente alla norma euclidea
4. Dimostra che tutte le norme su \( \mathbb{R}^n \) sono equivalente una all'altra.
Inizialmente avevo pensato di fare così:
Scelto \( \epsilon = \delta \) risulta chiaro che \( \forall \epsilon >0, \exists \delta >0\) tale che \( \forall x \in \mathbb{R}^n\) tale che \( N(x) < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} = N(x) < \epsilon \)
Però dal momento che non ho ancora l'equivalenza tra la norma \( N \) e quella euclidea non penso che posso farlo, dovrei utilizzare questo vero
\( \forall \epsilon >0, \exists \delta >0\) tale che \( \forall x \in \mathbb{R}^n\) tale che \( \begin{Vmatrix} x \end{Vmatrix} < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} < \epsilon \)
Ma con quest'ultimo non saprei come fare.
Consideriamo lo spazio vettoriale \( \mathbb{R}^n \), munito della topologia indotta per la norma euclidea
\[ \forall x \in \mathbb{R}^n, \begin{Vmatrix} x \end{Vmatrix} = \sqrt{\sum\limits_{i=1}^{n} x_i^2} \]
Sia \( N : \mathbb{R}^n \rightarrow \mathbb{R} \) un altra norma.
1. Dimostra che \( N \) è continua in \( 0 \)
2. Dedurre dal punto 1 che \( N \) è continua su \( \mathbb{R}^n \)
3. Dimostra che la norma \( N \) è equivalente alla norma euclidea
4. Dimostra che tutte le norme su \( \mathbb{R}^n \) sono equivalente una all'altra.
Inizialmente avevo pensato di fare così:
Scelto \( \epsilon = \delta \) risulta chiaro che \( \forall \epsilon >0, \exists \delta >0\) tale che \( \forall x \in \mathbb{R}^n\) tale che \( N(x) < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} = N(x) < \epsilon \)
Però dal momento che non ho ancora l'equivalenza tra la norma \( N \) e quella euclidea non penso che posso farlo, dovrei utilizzare questo vero
\( \forall \epsilon >0, \exists \delta >0\) tale che \( \forall x \in \mathbb{R}^n\) tale che \( \begin{Vmatrix} x \end{Vmatrix} < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} < \epsilon \)
Ma con quest'ultimo non saprei come fare.
Risposte
Che ogni coppia di norme su uno spazio di dimensione finita siano equivalenti è un fatto abbastanza lungo da dimostrare nei dettagli, ma completamente elementare: http://mathonline.wikidot.com/equivalen ... near-space partiamo da qui.
"fmnq":
Che ogni coppia di norme su uno spazio di dimensione finita siano equivalenti è un fatto abbastanza lungo da dimostrare nei dettagli, ma completamente elementare: http://mathonline.wikidot.com/equivalen ... near-space partiamo da qui.
Beh il mio problema ora era relativo al punto 1. e al punto 2. non so se posso utilizzare la norma \( N \) nella definizione di continuità "non sapendo ancora" che è equivalente alla norma euclidea. In realtà, credo, che dimostrando che \( N \) è equivalente alla norma euclidea (non ci ho ancora pensato al come) è abbastanza immediato dimostrare che date due coppie di norme \( N \), \( M \) su \( \mathbb{R}^n \) sono equivalenti. Infatti se ho, dal punto 3, come ipotesi che \( N \) è equivalente alla norma euclidea, in quanto \( N \) è una norma arbitrariamente scelta, abbiamo che anche \( M \) è equivalente alla norma euclidea dunque, \( \exists \bar{c}_N,c_N , \bar{c}_M, c_M >0 \) tale che \( \forall x \in \mathbb{R}^n\) abbiamo che
\( c_N \begin{Vmatrix} x \end{Vmatrix} \leq N(x) \leq \bar{c}_N \begin{Vmatrix} x \end{Vmatrix} \)
e
\( c_M M(x) \leq \begin{Vmatrix} x \end{Vmatrix} \leq \bar{c}_M M(x) \)
Quindi
\( c_N c_M M(x) \leq N(x) \leq \bar{c}_N \bar{c}_M M(x)\)
@3m0o: infatti la cosa fondamentale è proprio dimostrare il punto 1.
"dissonance":
@3m0o: infatti la cosa fondamentale è proprio dimostrare il punto 1.
Ma per dimostrarla posso fare così
Scelto \( \epsilon = \delta \) risulta chiaro che \( \forall \epsilon >0, \exists \delta >0 \) tale che \( \forall x \in \mathbb{R}^n \) tale che \( N(x) < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} = N(x) < \epsilon \)
Oppure no?
"fmnq":
Che ogni coppia di norme su uno spazio di dimensione finita siano equivalenti è un fatto abbastanza lungo da dimostrare nei dettagli, ma completamente elementare: http://mathonline.wikidot.com/equivalen ... near-space partiamo da qui.
Non capisco la parte (13) e (14) con la sfera unitaria, perché il fatto che la sfera unitaria sia compatta e che \( f \) continua implica l'esistenza di un tale \( \delta \) ? E perché dice che \( \begin{Vmatrix} \xi \end{Vmatrix} = \begin{Vmatrix} x \end{Vmatrix}_{*} \) ?? Questo come mai prova che sono equivalenti? Non dimostra semplicemente che sono equivalenti sulla sfera unitaria?
"3m0o":
[quote="dissonance"]@3m0o: infatti la cosa fondamentale è proprio dimostrare il punto 1.
Ma per dimostrarla posso fare così
Scelto \( \epsilon = \delta \) risulta chiaro che \( \forall \epsilon >0, \exists \delta >0 \) tale che \( \forall x \in \mathbb{R}^n \) tale che \( N(x) < \delta \) abbiamo che \( \begin{vmatrix} N(x) \end{vmatrix} = N(x) < \epsilon \)
Oppure no?[/quote]
Così dimostri che \(N\) è continua rispetto alla topologia indotta da \(N\). Tu devi dimostrare che \(N\) è continua rispetto alla topologia indotta da \(\|\cdot\|\).
"dissonance":
Così dimostri che \(N\) è continua rispetto alla topologia indotta da \(N\). Tu devi dimostrare che \(N\) è continua rispetto alla topologia indotta da \(\|\cdot\|\).
Capito,
però se nelle ipotesi avessi che \( N \) equivalente alla norma euclidea potrei farlo, vero? In questo specifico caso no perché l'obbiettivo è proprio dimostrare che le norme sono equivalenti, ma in generale si?
Certo.
Ci sei riuscito? Non so se può servire, ma avrei un suggerimento: la chiave di tutto è questa disuguaglianza qui
\[
N(x)\le \sqrt{\sum_{j=1}^n N(e_j)}\sqrt{\sum_{j=1}^n |x_j|^2},\]
dove \(e_1, e_2, \ldots, e_n\) sono i vettori della base canonica di \(\mathbb R^n\), o di una qualsiasi altra base ortonormale, fissata a priori una volta per tutte. Questa disuguaglianza si ottiene facilmente applicando la disuguaglianza triangolare seguita da Cauchy-Schwarz.
\[
N(x)\le \sqrt{\sum_{j=1}^n N(e_j)}\sqrt{\sum_{j=1}^n |x_j|^2},\]
dove \(e_1, e_2, \ldots, e_n\) sono i vettori della base canonica di \(\mathbb R^n\), o di una qualsiasi altra base ortonormale, fissata a priori una volta per tutte. Questa disuguaglianza si ottiene facilmente applicando la disuguaglianza triangolare seguita da Cauchy-Schwarz.
Ho fatto così, essenzialmente seguendo la dimostrazione del link, ma nel punto 3. non sono minimamente sicuro.
1.
Sia \(\mathcal{B}=\{ e_1, \ldots, e_n \} \) una base di \( \mathbb{R}^n \) allora abbiamo che \( \forall \mathbf{x} \in \mathbb{R}^n \), \( \mathbf{x}= \sum\limits_{k=1}^{n} x_k e_k \)
In più poniamo \(M= \max_{1 \leq k \leq n} N(e_k) \in \mathbb{R} \),
Sappiamo che \( N\) è una norma dunque
-\(
N(\mathbf{x}) \geq 0
\), per tutti gli \(\mathbf{x} \in \mathbb{R}^n\). Dunque \( \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix}=N(\mathbf{x}) \), per tutti gli \( \mathbf{x} \in \mathbb{R}^n \)
- \( N(\lambda \mathbf{x}) = \begin{vmatrix}
\lambda
\end{vmatrix} N(\mathbf{x}) \), per tutti i \( \lambda \in \mathbb{R} \) e per tutti gli \( \mathbf{x} \in \mathbb{R}^n \).
-Per finire abbiamo \(N(\mathbf{x}+ \mathbf{y}) \leq N(\mathbf{x})+N(\mathbf{y}) \), per tutti gli \( \mathbf{x}, \mathbf{y} \in \mathbb{R}^n \).
Dunque
ponendo \(\delta = \frac{\epsilon}{M\sqrt{n}} \) abbiamo che \( N\) è continua in zero, infatti:
se \( \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq \delta \Rightarrow \begin{pmatrix}
\sum\limits_{i=1}^{n} x_i^2
\end{pmatrix}^{1/2} \leq \delta \) allora
\( \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix}=N(\mathbf{x})=N(\sum\limits_{k=1}^{n} x_k e_k)\leq \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} N(e_k) \leq M \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} \), et per Cauchy-Schwarz otteniamo
\( M \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} \leq M\sqrt{n} \begin{pmatrix}
\sum\limits_{k=1}^{n} x_k^2
\end{pmatrix}^{1/2} \leq \delta M\sqrt{n} = \epsilon \)
Dunque in conclusione
\( \forall \epsilon >0, \exists \delta= \frac{\epsilon}{M\sqrt{n}} \) tel que \( \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq \delta \Rightarrow \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix} \leq \epsilon \)
2. La stessa scelta di \(\delta \) che nel punto 1. è valida per la continuità in \( \mathbb{R}^n \) infatti
si \( \begin{Vmatrix}
\mathbf{x}-\mathbf{y}
\end{Vmatrix} \leq \delta = \frac{\epsilon}{M\sqrt{n}}\) allora
\( \begin{vmatrix}
N(\mathbf{x})-N(\mathbf{y})
\end{vmatrix}\leq N(\mathbf{x}-\mathbf{y}) \) e per il punto 1. concludiamo, infatti rinominando \( (\mathbf{x} - \mathbf{y}) := \mathbf{z} \in \mathbb{R}^n \) abbiamo che se \( \begin{Vmatrix}
\mathbf{z}
\end{Vmatrix} \leq \delta \) allora \( \begin{vmatrix}
N(\mathbf{z})
\end{vmatrix} \leq \epsilon \)
3. Per il punto 1. deduciamo che \( N\) ee la norma euclidea sono equivalenti visto che:
\( \frac{1}{M \sqrt{n}} \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq N(\mathbf{x}) \leq M \sqrt{n} \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \), per tutti gli \(
\mathbf{x}
\in \mathbb{R}^n \)
4. Per la scelta arbitraria di \( N\) su \(\mathbb{R}^n \) nei punti 1. 2. et 3. abbiamo che le norme \( N_1\) e \( N_2\) su \(\mathbb{R}^n \) sono equivalenti alla norma euclidea, dunque
\( \exists c_{N_1}, \bar{c}_{N_1},c_{N_2}, \bar{c}_{N_2}>0 \) tale che \( \forall \mathbf{x} \in \mathbb{R}^n\) abbiamo che
\[ c_{N_1} \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \leq N_1(\mathbf{x}) \leq \bar{c}_{N_1} \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \]
e
\[ c_{N_2} N_2(\mathbf{x}) \leq \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \leq \bar{c}_{N_2} N_2(\mathbf{x}) \]
Dunque
\[c_{N_1} c_{N_2} N_2(\mathbf{x}) \leq N_1(\mathbf{x}) \leq \bar{c}_{N_1} \bar{c}_{N_2} N_2(\mathbf{x}) \]
Ponendo \( c:= c_{N_1} c_{N_2}\) e \( \bar{c} :=\bar{c}_{N_1} \bar{c}_{N_2} \) abbiamo
\(\exists c,\bar{c} >0 \), tale che \( \forall \mathbf{x} \in \mathbb{R}^n\) abbiamo
\[ c N_2(\mathbf{x}) \leq N_1(\mathbf{x}) \leq \bar{c} N_2(\mathbf{x}) \]
1.
Sia \(\mathcal{B}=\{ e_1, \ldots, e_n \} \) una base di \( \mathbb{R}^n \) allora abbiamo che \( \forall \mathbf{x} \in \mathbb{R}^n \), \( \mathbf{x}= \sum\limits_{k=1}^{n} x_k e_k \)
In più poniamo \(M= \max_{1 \leq k \leq n} N(e_k) \in \mathbb{R} \),
Sappiamo che \( N\) è una norma dunque
-\(
N(\mathbf{x}) \geq 0
\), per tutti gli \(\mathbf{x} \in \mathbb{R}^n\). Dunque \( \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix}=N(\mathbf{x}) \), per tutti gli \( \mathbf{x} \in \mathbb{R}^n \)
- \( N(\lambda \mathbf{x}) = \begin{vmatrix}
\lambda
\end{vmatrix} N(\mathbf{x}) \), per tutti i \( \lambda \in \mathbb{R} \) e per tutti gli \( \mathbf{x} \in \mathbb{R}^n \).
-Per finire abbiamo \(N(\mathbf{x}+ \mathbf{y}) \leq N(\mathbf{x})+N(\mathbf{y}) \), per tutti gli \( \mathbf{x}, \mathbf{y} \in \mathbb{R}^n \).
Dunque
ponendo \(\delta = \frac{\epsilon}{M\sqrt{n}} \) abbiamo che \( N\) è continua in zero, infatti:
se \( \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq \delta \Rightarrow \begin{pmatrix}
\sum\limits_{i=1}^{n} x_i^2
\end{pmatrix}^{1/2} \leq \delta \) allora
\( \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix}=N(\mathbf{x})=N(\sum\limits_{k=1}^{n} x_k e_k)\leq \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} N(e_k) \leq M \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} \), et per Cauchy-Schwarz otteniamo
\( M \sum\limits_{k=1}^{n} \begin{vmatrix}
x_k
\end{vmatrix} \leq M\sqrt{n} \begin{pmatrix}
\sum\limits_{k=1}^{n} x_k^2
\end{pmatrix}^{1/2} \leq \delta M\sqrt{n} = \epsilon \)
Dunque in conclusione
\( \forall \epsilon >0, \exists \delta= \frac{\epsilon}{M\sqrt{n}} \) tel que \( \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq \delta \Rightarrow \begin{vmatrix}
N(\mathbf{x})
\end{vmatrix} \leq \epsilon \)
2. La stessa scelta di \(\delta \) che nel punto 1. è valida per la continuità in \( \mathbb{R}^n \) infatti
si \( \begin{Vmatrix}
\mathbf{x}-\mathbf{y}
\end{Vmatrix} \leq \delta = \frac{\epsilon}{M\sqrt{n}}\) allora
\( \begin{vmatrix}
N(\mathbf{x})-N(\mathbf{y})
\end{vmatrix}\leq N(\mathbf{x}-\mathbf{y}) \) e per il punto 1. concludiamo, infatti rinominando \( (\mathbf{x} - \mathbf{y}) := \mathbf{z} \in \mathbb{R}^n \) abbiamo che se \( \begin{Vmatrix}
\mathbf{z}
\end{Vmatrix} \leq \delta \) allora \( \begin{vmatrix}
N(\mathbf{z})
\end{vmatrix} \leq \epsilon \)
3. Per il punto 1. deduciamo che \( N\) ee la norma euclidea sono equivalenti visto che:
\( \frac{1}{M \sqrt{n}} \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \leq N(\mathbf{x}) \leq M \sqrt{n} \begin{Vmatrix}
\mathbf{x}
\end{Vmatrix} \), per tutti gli \(
\mathbf{x}
\in \mathbb{R}^n \)
4. Per la scelta arbitraria di \( N\) su \(\mathbb{R}^n \) nei punti 1. 2. et 3. abbiamo che le norme \( N_1\) e \( N_2\) su \(\mathbb{R}^n \) sono equivalenti alla norma euclidea, dunque
\( \exists c_{N_1}, \bar{c}_{N_1},c_{N_2}, \bar{c}_{N_2}>0 \) tale che \( \forall \mathbf{x} \in \mathbb{R}^n\) abbiamo che
\[ c_{N_1} \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \leq N_1(\mathbf{x}) \leq \bar{c}_{N_1} \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \]
e
\[ c_{N_2} N_2(\mathbf{x}) \leq \begin{Vmatrix} \mathbf{x} \end{Vmatrix} \leq \bar{c}_{N_2} N_2(\mathbf{x}) \]
Dunque
\[c_{N_1} c_{N_2} N_2(\mathbf{x}) \leq N_1(\mathbf{x}) \leq \bar{c}_{N_1} \bar{c}_{N_2} N_2(\mathbf{x}) \]
Ponendo \( c:= c_{N_1} c_{N_2}\) e \( \bar{c} :=\bar{c}_{N_1} \bar{c}_{N_2} \) abbiamo
\(\exists c,\bar{c} >0 \), tale che \( \forall \mathbf{x} \in \mathbb{R}^n\) abbiamo
\[ c N_2(\mathbf{x}) \leq N_1(\mathbf{x}) \leq \bar{c} N_2(\mathbf{x}) \]
Scusa la domanda ma a che anno sei dell'università?
"otta96":
Scusa la domanda ma a che anno sei dell'università?
Primo
Accidenti, e fai esercizi di questo livello? Ma sono cose che ti danno da fare o le cerchi te perché ti piacciono gli esercizi difficili?
"otta96":
Accidenti, e fai esercizi di questo livello? Ma sono cose che ti danno da fare o le cerchi te perché ti piacciono gli esercizi difficili?
Sono esercizi che ci danno settimanalmente e che possiamo consegnare, (EDIT -->) ma di cui non avremo le soluzioni, per questo ci spingono a consegnarli per mettere a posto il modo in cui facciamo la redazione di un problema.
Il tuo svolgimento va bene.
"3m0o":
ci spingono a consegnarli per mettere a posto il modo in cui facciamo la redazione di un problema.
Devo dire che mi sembra un eccellente corso di studi. A parte tutte le considerazioni di matematica, c'è l'aspetto redazionale; io al primo anno non sapevo mica scrivere come te. Tanto per cominciare non avevo idea di cosa fosse LaTeX...
Continua così e tieni duro