Le derivata in fisica
buongiorno,
gradirei una speigazione.
in fisica si applica normalmente l'operatore derivata ai vettori: es. derivata temporale della velocità di un punto.
La derivata è definita sull'insieme delle funzioni reali a variabile(i) reale(i), tuttavia tutte le proprietà della dervata vengono applicate pari pari a: somma di vettori, vettore moltiplicato per una costante, prodotto vettore, ecc.
L'Insieme dei vettori è diverso da quello in cui è definita la derivata: penso che si debba estendere il concetto ma non so come. Quali sono i passi formali?
grazie
gradirei una speigazione.
in fisica si applica normalmente l'operatore derivata ai vettori: es. derivata temporale della velocità di un punto.
La derivata è definita sull'insieme delle funzioni reali a variabile(i) reale(i), tuttavia tutte le proprietà della dervata vengono applicate pari pari a: somma di vettori, vettore moltiplicato per una costante, prodotto vettore, ecc.
L'Insieme dei vettori è diverso da quello in cui è definita la derivata: penso che si debba estendere il concetto ma non so come. Quali sono i passi formali?
grazie
Risposte
Purtroppo non posso aiutarti al momento perché non ho capito che cosa stai chiedendo.
Puoi cercare di spiegarti meglio? La derivata non si applica ai vettori (forse vuoi dire a una funzione a valori vettoriali?) e non è definita sull'"insieme delle funzioni reali a variabile(i) reale(i)", ma semmai può essere visto come un operatore lineare tra certi spazi funzionali.
Puoi cercare di spiegarti meglio? La derivata non si applica ai vettori (forse vuoi dire a una funzione a valori vettoriali?) e non è definita sull'"insieme delle funzioni reali a variabile(i) reale(i)", ma semmai può essere visto come un operatore lineare tra certi spazi funzionali.
La derivata è definibile anche per le funzioni a valori vettoriali in totale analogia a quanto si fa per funzioni a valori numerici.
In particolare, se \(\mathbf{f}:I\to \mathbb{R}^N\) è una funzione vettoriale definita nell'intervallo \(I\subseteq \mathbb{R}\) e se \(x_0\) è di accumulazione per \(I\), si dice che \(\mathbf{f}\) è derivabile in \(x_0\) se esiste in \(\mathbb{R}^N\) il limite:
\[
\lim_{x\to x_0} \frac{1}{x-x_0}\ \big( \mathbf{f}(x) - \mathbf{f}(x_0)\big)\; ;
\]
ciò equivale a dire che esiste un vettore \(\mathbf{v}=\mathbf{v}(x_0)\in \mathbb{R}^N\) che gode della seguente proprietà:
\[
\forall \varepsilon >0,\ \exists \delta >0:\ \forall x\in I,\quad 0<|x-x_0|<\delta\ \Rightarrow\ \left\| \frac{1}{x-x_0}\ \big( \mathbf{f}(x) - \mathbf{f}(x_0)\big) - \mathbf{v} \right\| <\varepsilon \; .
\]
Chiaramente il vettore \(\mathbf{v}\) si chiama derivata di \(\mathbf{f}\) in \(x_0\) e si denota con uno degli usuali simboli disponibili, e.g. con \(\mathbf{f}^\prime (x_0)\).
Ora, una funzione vettoriale si può sempre rappresentare in coordinate, i.e. si possono determinare \(N\) funzioni \(f_1,\ldots ,f_N:I\to \mathbb{R}\) tali che:
\[
\forall x\in I,\quad \mathbf{f} (x) = \big( f_1(x),\ldots , f_N(x)\big)\; .
\]
Si dimostra facilmente che una funzione vettoriale \(\mathbf{f}\) è derivabile in \(x_0\) se e solo se sono derivabili in \(x_0\) tutte le sue coordinate e che risulta:
\[
\mathbf{f}^\prime (x_0) = \big( f_1^\prime (x),\ldots , f_N^\prime (x)\big)\; .
\]
Da ciò segue immediatamente che la derivata di funzioni vettoriali gode di tutte le usuali regole di calcolo cui sei abituato per le funzioni numeriche.
Ovviamente, questo discorso si può ulteriormente generalizzare.
In particolare, se \(\mathbf{f}:I\to \mathbb{R}^N\) è una funzione vettoriale definita nell'intervallo \(I\subseteq \mathbb{R}\) e se \(x_0\) è di accumulazione per \(I\), si dice che \(\mathbf{f}\) è derivabile in \(x_0\) se esiste in \(\mathbb{R}^N\) il limite:
\[
\lim_{x\to x_0} \frac{1}{x-x_0}\ \big( \mathbf{f}(x) - \mathbf{f}(x_0)\big)\; ;
\]
ciò equivale a dire che esiste un vettore \(\mathbf{v}=\mathbf{v}(x_0)\in \mathbb{R}^N\) che gode della seguente proprietà:
\[
\forall \varepsilon >0,\ \exists \delta >0:\ \forall x\in I,\quad 0<|x-x_0|<\delta\ \Rightarrow\ \left\| \frac{1}{x-x_0}\ \big( \mathbf{f}(x) - \mathbf{f}(x_0)\big) - \mathbf{v} \right\| <\varepsilon \; .
\]
Chiaramente il vettore \(\mathbf{v}\) si chiama derivata di \(\mathbf{f}\) in \(x_0\) e si denota con uno degli usuali simboli disponibili, e.g. con \(\mathbf{f}^\prime (x_0)\).
Ora, una funzione vettoriale si può sempre rappresentare in coordinate, i.e. si possono determinare \(N\) funzioni \(f_1,\ldots ,f_N:I\to \mathbb{R}\) tali che:
\[
\forall x\in I,\quad \mathbf{f} (x) = \big( f_1(x),\ldots , f_N(x)\big)\; .
\]
Si dimostra facilmente che una funzione vettoriale \(\mathbf{f}\) è derivabile in \(x_0\) se e solo se sono derivabili in \(x_0\) tutte le sue coordinate e che risulta:
\[
\mathbf{f}^\prime (x_0) = \big( f_1^\prime (x),\ldots , f_N^\prime (x)\big)\; .
\]
Da ciò segue immediatamente che la derivata di funzioni vettoriali gode di tutte le usuali regole di calcolo cui sei abituato per le funzioni numeriche.

Ovviamente, questo discorso si può ulteriormente generalizzare.
Grazie per la risposta.
mi convince ed ho capito del perché del mio dubbio.
Stranamente, in analisi, ho incontrato al più derivate direzionali di funzioni reali a più variabili, da Rn in R. In effetti è questa la risposta che cercavo: i vettori della fisica (segmenti orientati) sono rappresentabili da funzioni vettoriali, così come lo sono i tensori. Da qui discendono le proprietà matematiche.
Immagino che anche per il calcolo integrale si proceda allo stesso modo. E' giusto?
Grazie anticipate
mi convince ed ho capito del perché del mio dubbio.
Stranamente, in analisi, ho incontrato al più derivate direzionali di funzioni reali a più variabili, da Rn in R. In effetti è questa la risposta che cercavo: i vettori della fisica (segmenti orientati) sono rappresentabili da funzioni vettoriali, così come lo sono i tensori. Da qui discendono le proprietà matematiche.
Immagino che anche per il calcolo integrale si proceda allo stesso modo. E' giusto?
Grazie anticipate
Beh, più o meno sì.
Ad esempio, se \(\mathbf{f}:I\to \mathbb{R}^N\) e se \(\mathbf{f}\) è limitata in \([a,b]\subseteq I\), l'integrale di \(\mathbf{f}\) è sempre definito come limite di somme di Riemann; si prova inoltre che \(\mathbf{f}\) è integrabile se e solo se lo sono le sue coordinate e che risulta:
\[
\int_a^b \mathbf{f}(x)\ \text{d} x =\left( \int_a^b f_1(x)\ \text{d} x ,\ldots ,\int_a^b f_N (x)\ \text{d} x \right)\in \mathbb{R}^N\; .
\]
Analogo ragionamento si può fare con funzioni di più variabili o anche con funzioni a valori vettoriali in spazi diversi da \(\mathbb{R}^N\) (ad esempio, in spazi di Banach astratti).
Ad esempio, se \(\mathbf{f}:I\to \mathbb{R}^N\) e se \(\mathbf{f}\) è limitata in \([a,b]\subseteq I\), l'integrale di \(\mathbf{f}\) è sempre definito come limite di somme di Riemann; si prova inoltre che \(\mathbf{f}\) è integrabile se e solo se lo sono le sue coordinate e che risulta:
\[
\int_a^b \mathbf{f}(x)\ \text{d} x =\left( \int_a^b f_1(x)\ \text{d} x ,\ldots ,\int_a^b f_N (x)\ \text{d} x \right)\in \mathbb{R}^N\; .
\]
Analogo ragionamento si può fare con funzioni di più variabili o anche con funzioni a valori vettoriali in spazi diversi da \(\mathbb{R}^N\) (ad esempio, in spazi di Banach astratti).
Quando dici di definire l'integrale attraverso le somme superiori e inferiori, per caso intendi dire una roba del tipo (nel caso di somme inferiori)
\[ s(\mathbf{f},\sigma) = \sum_{i=1}^n (x_i - x_{i-1}) \inf_{(x_{i-1}, x_i)} \| \mathbf{f}(x) \| \]
dal momento che \( \mathbf{f}(x) \) è un vettore, l'unico modo per estrarne l'\( \inf \) è quello di prenderne la norma, giusto?
\[ s(\mathbf{f},\sigma) = \sum_{i=1}^n (x_i - x_{i-1}) \inf_{(x_{i-1}, x_i)} \| \mathbf{f}(x) \| \]
dal momento che \( \mathbf{f}(x) \) è un vettore, l'unico modo per estrarne l'\( \inf \) è quello di prenderne la norma, giusto?
@ Riccardo: Non ho mai parlato di somme inferiori e superiori (come nell'approccio à la Darboux), ma di somme di Riemann.

Sono curioso: saresti così gentile da scrivere in sintesi di cosa si tratta?
Non ho mai visto un tale approccio all'integrazione di funzioni a valori vettoriali.
Non ho mai visto un tale approccio all'integrazione di funzioni a valori vettoriali.
Sempre la stessa solfa.
Se \(\mathbf{f}(x)\) è continua in un intervallo \([a,b]\), si costruiscono le somme di Riemann subordinate ad una scelta di punti \(\sigma_0,\ldots, \sigma_N\) nella decomposizione \(D:=\{a=x_0
\[
S(\mathbf{f};D,\sigma) = \sum_{n=0}^N (x_{n+1}-x_n)\ \mathbf{f}(\sigma_n)
\]
(qui \(\sigma_n\in [x_n,x_{n+1}]\) per \(n=0,1,\ldots,N\)) e si prova che, quando la decomposizione si infittisce, tali somme convergono uniformemente rispetto alla scelta dei \(\sigma\) verso un vettore, il quale è per definizione l'integrale di \(\mathbf{f}\) su \([a,b]\).
Insomma, è la definizione classica di integrale di Riemann che si trova su ogni libro "serio" di Analisi I.
Se \(\mathbf{f}(x)\) è continua in un intervallo \([a,b]\), si costruiscono le somme di Riemann subordinate ad una scelta di punti \(\sigma_0,\ldots, \sigma_N\) nella decomposizione \(D:=\{a=x_0
S(\mathbf{f};D,\sigma) = \sum_{n=0}^N (x_{n+1}-x_n)\ \mathbf{f}(\sigma_n)
\]
(qui \(\sigma_n\in [x_n,x_{n+1}]\) per \(n=0,1,\ldots,N\)) e si prova che, quando la decomposizione si infittisce, tali somme convergono uniformemente rispetto alla scelta dei \(\sigma\) verso un vettore, il quale è per definizione l'integrale di \(\mathbf{f}\) su \([a,b]\).
Insomma, è la definizione classica di integrale di Riemann che si trova su ogni libro "serio" di Analisi I.
La continuità è necessaria?
Comunque io sapevo che quello fosse l'approccio di Cauchy all'integrazione e in alcuni appunti ho trovato infatti che quella somma lì è denominata somma di Cauchy. Forse per quello non capivo.
Comunque io sapevo che quello fosse l'approccio di Cauchy all'integrazione e in alcuni appunti ho trovato infatti che quella somma lì è denominata somma di Cauchy. Forse per quello non capivo.