Tanti esempi di estensione di disuguaglianze vere su un denso
Se \( f \) e \( g \) sono due funzioni continue di uno spazio metrico \( E \), a valori reali, e tali che \( f(x)\leqq g(x) \) per ogni \( x \) in un denso di \( E \), è immediato far vedere che \( f\leqq g \) su tutto \( E \) (basta provare che l'insieme dove quella disuguaglianza è vera è un chiuso).
Un'applicazione scema di questo fatto è la seguente: \( \mathbb N \) è un denso di \( \widetilde{\mathbb N} := \mathbb N\cup\{\infty\} \); quindi, se \( (x_n)_n \) e \( (y_n)_n \) sono due successioni reali, convergenti, e tali che \( x_n\leqq y_n \) per ogni \( n\in \mathbb N \), allora \( \lim_{n\in \mathbb N}x_n\leqq \lim_{n\in \mathbb N}y_n \). La dimostrazione non usa i teoremi sui limiti: basta definire le successioni \( x_n \) e \( y_n \) per \( n = \infty \) in ovvio modo, come \( x_\infty = \lim_{n\to \infty}x_n \), ecc.
Conoscete alcuni esempi di applicazione di questo principio 1) a cose "teoriche" come questa sciocchezza che ho riportato; 2) a disuguaglianze "famose"?
Un'applicazione scema di questo fatto è la seguente: \( \mathbb N \) è un denso di \( \widetilde{\mathbb N} := \mathbb N\cup\{\infty\} \); quindi, se \( (x_n)_n \) e \( (y_n)_n \) sono due successioni reali, convergenti, e tali che \( x_n\leqq y_n \) per ogni \( n\in \mathbb N \), allora \( \lim_{n\in \mathbb N}x_n\leqq \lim_{n\in \mathbb N}y_n \). La dimostrazione non usa i teoremi sui limiti: basta definire le successioni \( x_n \) e \( y_n \) per \( n = \infty \) in ovvio modo, come \( x_\infty = \lim_{n\to \infty}x_n \), ecc.
Conoscete alcuni esempi di applicazione di questo principio 1) a cose "teoriche" come questa sciocchezza che ho riportato; 2) a disuguaglianze "famose"?
Risposte
In Analisi Superiore, praticamente quasi qualsiasi disuguaglianza si dimostra per densità (tipo, le disuguaglianze di Sobolev o simili, disuguaglianze di riordinamento, etc...); ma anche altro si dimostra sfruttando opportune densità: ad esempio, il teorema di rappresentazione spettrale per gli operatori su uno spazio di Hilbert (o qualsiasi altra cosa che si possa dimostrare ragionando per scomposizione su una base hilbertiana, e.g. la disuguaglianza di Bessel). Questo dipende essenzialmente dal fatto che è più semplice lavorare con alcune classi "ristrette" di funzioni/vettori piuttosto che con gli oggetti fetenti che un analista si ritrova di solito per le mani.
Quindi ti basta prendere un testo serio di Analisi e leggere.
D'altra parte, argomenti del genere sono stati usati in passato anche qui per risolvere alcuni esercizi: ad esempio qui, ma credo anche altrove (solo che al momento non li ritrovo).
Quindi ti basta prendere un testo serio di Analisi e leggere.
D'altra parte, argomenti del genere sono stati usati in passato anche qui per risolvere alcuni esercizi: ad esempio qui, ma credo anche altrove (solo che al momento non li ritrovo).
Ok, grazie! In effetti immaginavo che la cosa fosse abbastanza utile.
Speravo anche di vedere un paio di applicazioni "astute" di questo in problemi elementari, al livello di analisi 1/2 (il corso di analisi funzionale ce l'ho tra un po', purtroppo; ma forse leggo qualche cosa durante l'estate...). Se vengono fuori quegli esercizi in caso avvisa(te)mi!
Speravo anche di vedere un paio di applicazioni "astute" di questo in problemi elementari, al livello di analisi 1/2 (il corso di analisi funzionale ce l'ho tra un po', purtroppo; ma forse leggo qualche cosa durante l'estate...). Se vengono fuori quegli esercizi in caso avvisa(te)mi!
A livello base mi vengono più esempi con le uguaglianze che con le disuguaglianze.
Una cosa classica è mostrare che ogni funzione $f:RR -> RR$ continua e tale che $f(x+y) = f(x) + f(y)$ per ogni $x,y in RR$ è una funzione lineare, i.e. $f(x) = mx$.
Però, puoi divertirti a dimostrare la disuguaglianza di Hölder per le funzioni di \(C([a,b])\) sfruttando la densità delle funzioni semplici... Prova.
Una cosa classica è mostrare che ogni funzione $f:RR -> RR$ continua e tale che $f(x+y) = f(x) + f(y)$ per ogni $x,y in RR$ è una funzione lineare, i.e. $f(x) = mx$.
Però, puoi divertirti a dimostrare la disuguaglianza di Hölder per le funzioni di \(C([a,b])\) sfruttando la densità delle funzioni semplici... Prova.

Se la matrice $A\in\mathbb C^{n\times n}$ ha autovalori $\lambda_1,\ldots, \lambda_n$, la matrice $e^A$ ha autovalori $e^{\lambda_1}, \ldots, e^{\lambda_n}$.
Dimostrazione.
Se \(A=\mathrm{diag}(\lambda_1, \ldots, \lambda_n)\), allora \(e^A=\mathrm{diag}(e^{\lambda_1}, \ldots, e^{\lambda_n})\) e la proposizione da dimostrare è manifestamente vera. Se \(A\) è diagonalizzabile, stessa cosa, la proposizione si dimostra facilmente. E siccome l'insieme delle matrici diagonalizzabili è denso nell'insieme di tutte le matrici, e la funzione esponenziale è continua, per densità abbiamo finito. \(\Box\)
E perché l'insieme delle matrici diagonalizzabili è denso nell'insieme di tutte le matrici? Per lo stesso motivo per cui, nello spazio dei polinomi di grado \(n\), l'insieme \(\{(x-x_1)\ldots(x-x_n)\ :\ x_1\ne x_2\ne \ldots \ne x_n\}\) è denso. Infatti, se un polinomio ha radici multiple, perturbazioni piccole a volontà possono renderlo un polinomio con radici semplici tutte distinte. Applicando questo ragionamento al polinomio caratteristico, vediamo che l'insieme delle matrici con \(n\) autovalori distinti è denso nello spazio di tutte le matrici quadrate di ordine \(n\), e siccome le matrici con tutti gli autovalori distinti sono diagonalizzabili, abbiamo finito.
Si possono dimostrare un sacco di identità così. Per esempio, il teorema di Cayley-Hamilton secondo cui se il polinomio \(p\) verifica \(p(\lambda_j)=0\) per ogni autovalore \(\lambda_j\) di \(A\), allora \(p(A)=0\).
Sul libro di algebra di Artin si parla di qualcosa di simile, mi pare lo chiami il "principio di conservazione delle identità".
Dimostrazione.
Se \(A=\mathrm{diag}(\lambda_1, \ldots, \lambda_n)\), allora \(e^A=\mathrm{diag}(e^{\lambda_1}, \ldots, e^{\lambda_n})\) e la proposizione da dimostrare è manifestamente vera. Se \(A\) è diagonalizzabile, stessa cosa, la proposizione si dimostra facilmente. E siccome l'insieme delle matrici diagonalizzabili è denso nell'insieme di tutte le matrici, e la funzione esponenziale è continua, per densità abbiamo finito. \(\Box\)
E perché l'insieme delle matrici diagonalizzabili è denso nell'insieme di tutte le matrici? Per lo stesso motivo per cui, nello spazio dei polinomi di grado \(n\), l'insieme \(\{(x-x_1)\ldots(x-x_n)\ :\ x_1\ne x_2\ne \ldots \ne x_n\}\) è denso. Infatti, se un polinomio ha radici multiple, perturbazioni piccole a volontà possono renderlo un polinomio con radici semplici tutte distinte. Applicando questo ragionamento al polinomio caratteristico, vediamo che l'insieme delle matrici con \(n\) autovalori distinti è denso nello spazio di tutte le matrici quadrate di ordine \(n\), e siccome le matrici con tutti gli autovalori distinti sono diagonalizzabili, abbiamo finito.
Si possono dimostrare un sacco di identità così. Per esempio, il teorema di Cayley-Hamilton secondo cui se il polinomio \(p\) verifica \(p(\lambda_j)=0\) per ogni autovalore \(\lambda_j\) di \(A\), allora \(p(A)=0\).
Sul libro di algebra di Artin si parla di qualcosa di simile, mi pare lo chiami il "principio di conservazione delle identità".
"gugo82":Appena ho un po' più di tempo mi metto a smanettare.
Però, puoi divertirti a dimostrare la disuguaglianza di Hölder per le funzioni di \( C([a,b]) \) sfruttando la densità delle funzioni semplici... Prova.
"dissonance":Questo non lo sapevo; carino u.u
Se un polinomio ha radici multiple, perturbazioni piccole a volontà possono renderlo un polinomio con radici semplici tutte distinte. Applicando questo ragionamento al polinomio caratteristico, vediamo che l'insieme delle matrici con \( n \) autovalori distinti è denso nello spazio di tutte le matrici quadrate di ordine \( n \), e siccome le matrici con tutti gli autovalori distinti sono diagonalizzabili, abbiamo finito.
Si possono dimostrare un sacco di identità così. Per esempio, il teorema di Cayley-Hamilton secondo cui se il polinomio \( p \) verifica \( p(\lambda_j)=0 \) per ogni autovalore \( \lambda_j \) di \( A \), allora \( p(A)=0 \)
Grazie ad entrambi!