Equivalenza integrale di linea e integrale di Riemann
Faccio riferimento a questo thread.
Mi chiedo in particolare come si faccia a dimostrare che
A occhio procederei col dimostrare un'equivalenza tra somme superiori (e poi tra somme inferiori), ma non so proprio come fare.
Chi mi aiuta?
Mi chiedo in particolare come si faccia a dimostrare che
"gugo82":
Fatto ciò, si riesce a provare, se non ricordo male, che se \(+\gamma\) è una curva parametrizzata regolare (ma forse basta rettificabile), allora vale l'uguaglianza:
\[
\int_{+\gamma} f\ \text{d} s =\int_a^b f(\phi(t))\ |\phi^\prime (t)|\ \text{d} s\; .
\]
A occhio procederei col dimostrare un'equivalenza tra somme superiori (e poi tra somme inferiori), ma non so proprio come fare.
Chi mi aiuta?
Risposte
La nostra prof disse che si può dimostrare che quello è un cambiamento di variabili.
Consideriamo la curva $\gamma$ regolare allora la sua lunghezza è:
$L=\int_{a}^{b}|\gamma^{'}(t)|dt$ dove $gamma(t)$ è una rappresentazione parametrica regolare della curva e a,b i suoi estremi.
Dimostrare questa è un po' macchinoso, e non credo sia questa la tua richiesta.
Possiamo ora considerare la funzione:
$s(r)=\int_{a}^{r}|\gamma'(t)|dt$ $ \forall r \in[a,b]$
che esprime la lunghezza "parziale" della curva. E' ovvio che $s(r):[a,b]->[0,L]$ e che $s(a)=0$ e $s(b)=L$
Essendo $\gamma$ regolare, questa funzione è strettamente crescente.
Derivando: $s'(r)=|\gamma'(r)|>0 $ $ \forall r \in[a,b]$
Se ora effettuiamo la sostituzione in
$\int_{\gamma}fds$
Abbiamo dimostrato che $ds=|\gamma'(t)|dt$
quindi: $\int_{\gamma}fds=\int_{a}^{b}f(\gamma(t))|\gamma'(t)|dt$
EDIT: Dimenticavo che il $ds$ nel primo integrale è inteso come ascissa curvilinea cioè è la "lunghezza infinitesima" dell'arco di curva ed è per quello che ho considerato quella particolare funzione $s(r)$.
Consideriamo la curva $\gamma$ regolare allora la sua lunghezza è:
$L=\int_{a}^{b}|\gamma^{'}(t)|dt$ dove $gamma(t)$ è una rappresentazione parametrica regolare della curva e a,b i suoi estremi.
Dimostrare questa è un po' macchinoso, e non credo sia questa la tua richiesta.
Possiamo ora considerare la funzione:
$s(r)=\int_{a}^{r}|\gamma'(t)|dt$ $ \forall r \in[a,b]$
che esprime la lunghezza "parziale" della curva. E' ovvio che $s(r):[a,b]->[0,L]$ e che $s(a)=0$ e $s(b)=L$
Essendo $\gamma$ regolare, questa funzione è strettamente crescente.
Derivando: $s'(r)=|\gamma'(r)|>0 $ $ \forall r \in[a,b]$
Se ora effettuiamo la sostituzione in
$\int_{\gamma}fds$
Abbiamo dimostrato che $ds=|\gamma'(t)|dt$
quindi: $\int_{\gamma}fds=\int_{a}^{b}f(\gamma(t))|\gamma'(t)|dt$
EDIT: Dimenticavo che il $ds$ nel primo integrale è inteso come ascissa curvilinea cioè è la "lunghezza infinitesima" dell'arco di curva ed è per quello che ho considerato quella particolare funzione $s(r)$.
Mi riservo di elaborare una risposta lunga, solo che mi ci vorrà un po' di tempo.
Se avete la pazienza di aspettare...
Se avete la pazienza di aspettare...

"gugo82":
Mi riservo di elaborare una risposta lunga, solo che mi ci vorrà un po' di tempo.
Se avete la pazienza di aspettare...
Eheh, sono sicuro che ne varrà la pena.
Sono cose che prima si insegnavano canonicamente in ogni buon corso di Analisi II... Oggigiorno vedo che nessuno se ne importa più, né gli studenti né i docenti, e ciò (secondo il mio parere) denota uno scarsa attenzione per lo sviluppo storico della Matematica. Ma vabbé, fatti loro.
Qui di seguito scrivo, arronzando un po', alcuni fatti di base che qualsiasi studente di Analisi dovrebbe sapere.
Per un tratamento più specifico rimando ai manuali di una volta.
***
Funzioni vettoriali a variazione limitata.
Chiaramente, la definizione non è né vuota né banale, nel senso che esistono funzioni che la soddisfano (sicché la classe \(BV([a,b];\mathbb{R}^N)\) non è vuota) e funzioni che non la soddisfano (di modo che \(BV([a,b];\mathbb{R}^N)\) non coincide con \(\mathbb{R}^{[a,b]}\)).
Senza alcuno sforzo, si può dimostrare che:
Se per facilitare l'intuizione supponiamo \(\phi \in C([a,b];\mathbb{R}^N)\), la quantità \(V(\phi;D)\) ha un'ovvia interpretazione geometrica: invero, essa rappresenta la lunghezza totale della spezzata \(S\) avente vertici nei punti \(P_0:=\phi (a)\), \(P_1:=\phi (t_1)\),... , \(P_n:=\phi (t_n)\) e \(P_{n+1}:=\phi (b)\).
Presa \(\phi\in BV([a,b];\mathbb{R}^N)\) essa è necessariamente a variazione limitata su ogni sottointervallo \([\alpha,\beta]\subseteq[a,b]\); in forza di ciò, si può senz'altro considerare la funzione definita in \([a,b]\) dall'assegnazione:
\[
t\mapsto \operatorname{V}_a^t (\phi)\; .
\]
Tale funzione (che talvolta si chiama variazione indefinita di \(\phi\) di punto iniziale \(a\)) gode di alcune rimarchevoli proprietà, alcune delle quali sono espresse nel seguente teoremino:
Curve parametrizzate continue semplici.
Innanzitutto, ricordo la definizione di curva continua che si dà in Analisi[nota]In Geometria Differenziale la situazione è ben diversa.[/nota]:
Chiaramente se \(\phi \in C([a,b];\mathbb{R}^N)\) e \(\psi\in C([c,d];\mathbb{R}^N)\) sono parametrizzazioni di una stessa curva \(\Gamma\), si ha \(\phi ([a,b])=\psi ([c,d])\) in \(\mathbb{R}^N\); in altre parole le immagini di tutte le parametrizzazioni di una curva parametrizzata \(\Gamma\) coincidono con uno stesso insieme di \(\mathbb{R}^N\). Quanto appena detto rende lecita la seguente definizione:
D'altro canto, se \(\phi\) e \(\psi\) sono parametrizzazioni della medesima curva \(\Gamma\) legate dal cambiamento di parametro \(u\), o \(u\) è strettamente crescente oppure \(u\) è strettamente decrescente; visto che la composizione di applicazioni strettamente crescenti [risp. decrescenti] è strettamente crescente [risp. decrescente], si può stabilire tra rappresentazioni parametriche di una curva continua una seconda relazione:
Qui di seguito scrivo, arronzando un po', alcuni fatti di base che qualsiasi studente di Analisi dovrebbe sapere.
Per un tratamento più specifico rimando ai manuali di una volta.
***
Funzioni vettoriali a variazione limitata.
Sia \(\phi:[a,b]\to \mathbb{R}^N\).
Diciamo che \(\phi\) è a variazione limitata in \([a,b]\) e scriviamo \(\phi \in BV([a,b];\mathbb{R}^N)\) solo se esiste un numero \(M\geq 0\) tale che, per ogni decomposizione \(D=\{a=t_0\[
\tag{1}
V(\phi;D) := \sum_{k=0}^n |\phi (t_{k+1})-\phi(t_k)|\leq M\; .
\]
In tal caso il numero nonnegativo:
\[
\operatorname{V}_a^b (\phi) := \sup_{D\in \mathfrak{D}(a,b)} V(\phi;D)
\]
(in cui \(\mathfrak{D}(a,b)\) è la classe di tutte le possibili decomposizioni \(D\) di \([a,b]\)) si chiama variazione totale di \(\phi\) in \([a,b]\)
Chiaramente, la definizione non è né vuota né banale, nel senso che esistono funzioni che la soddisfano (sicché la classe \(BV([a,b];\mathbb{R}^N)\) non è vuota) e funzioni che non la soddisfano (di modo che \(BV([a,b];\mathbb{R}^N)\) non coincide con \(\mathbb{R}^{[a,b]}\)).
Senza alcuno sforzo, si può dimostrare che:
Se \(\phi :[a,b]\to \mathbb{R}^N\) e se \(\phi_1,\ldots, \phi_N:[a,b]\to \mathbb{R}\) sono le componenti di \(\phi\), si ha \(\phi \in BV([a,b];\mathbb{R}^N)\) se e solo se \(\phi_1,\ldots ,\phi_N\in BV([a,b])\) e risulta:
\[
\max \left\{ \operatorname{V}_a^b(\phi_1),\ldots, \operatorname{V}_a^b(\phi_1)\right\} \leq \operatorname{V}_a^b(\phi)\leq \sum_{n=1}^N \operatorname{V}_a^b(\phi_n)\; .
\]
Se per facilitare l'intuizione supponiamo \(\phi \in C([a,b];\mathbb{R}^N)\), la quantità \(V(\phi;D)\) ha un'ovvia interpretazione geometrica: invero, essa rappresenta la lunghezza totale della spezzata \(S\) avente vertici nei punti \(P_0:=\phi (a)\), \(P_1:=\phi (t_1)\),... , \(P_n:=\phi (t_n)\) e \(P_{n+1}:=\phi (b)\).
Presa \(\phi\in BV([a,b];\mathbb{R}^N)\) essa è necessariamente a variazione limitata su ogni sottointervallo \([\alpha,\beta]\subseteq[a,b]\); in forza di ciò, si può senz'altro considerare la funzione definita in \([a,b]\) dall'assegnazione:
\[
t\mapsto \operatorname{V}_a^t (\phi)\; .
\]
Tale funzione (che talvolta si chiama variazione indefinita di \(\phi\) di punto iniziale \(a\)) gode di alcune rimarchevoli proprietà, alcune delle quali sono espresse nel seguente teoremino:
Se \(\phi \in BV([a,b];\mathbb{R}^N)\) allora la funzione \(t\mapsto \operatorname{V}_a^t (\phi)\):
[list=1][*:fwntsg66] è una funzione additiva in \([a,b]\), nel senso che:
\[
\operatorname{V}_a^t (\phi) = \operatorname{V}_a^\tau (\phi) + \operatorname{V}_\tau^t (\phi)
\]
per ogni \(a<\tau
[/*:m:fwntsg66]
[*:fwntsg66] è crescente in \([a,b]\), perciò (eventualmente) ha sole discontinuità di prima specie, e \(\operatorname{V}_a^a (\phi)=0\).[/*:m:fwntsg66][/list:o:fwntsg66]
Inoltre, se \(\phi \in C([a,b];\mathbb{R}^N)\cap BV([a,b];\mathbb{R}^N)\), allora l'applicazione \(t\mapsto \operatorname{V}_a^t (\phi)\) è continua in \([a,b]\).
Curve parametrizzate continue semplici.
Innanzitutto, ricordo la definizione di curva continua che si dà in Analisi[nota]In Geometria Differenziale la situazione è ben diversa.[/nota]:
Una curva continua parametrizzata semplice \(\Gamma\) è una classe di equivalenza di funzioni vettoriali continue, fatta rispetto alla relazione \(\equiv\) definita qui sotto:
"Date due funzioni \(\phi \in C([a,b];\mathbb{R}^N)\) e \(\psi \in C([c,d];\mathbb{R}^N)\), si pone:
\[
\phi \equiv \psi
\]
se e solo se esiste una funzione \(u:[a,b]\to [c,d]\) continua e biiettiva (detta cambiamento di parametro) tale che:
\[
\phi (t) = \psi (u(t))
\]
per ogni \(t\in [a,b]\)."[/list:u:fwntsg66]
Se \(\Gamma\) è una curva continua parametrizzata e \(\phi \in C([a,b];\mathbb{R}^N)\) è una funzione della classe di equivalenza \(\Gamma\), \(phi\) è detta rappresentazione parametrica (o parametrizzazione) di \(\Gamma\) sull'intervallo base \([a,b]\).
Chiaramente se \(\phi \in C([a,b];\mathbb{R}^N)\) e \(\psi\in C([c,d];\mathbb{R}^N)\) sono parametrizzazioni di una stessa curva \(\Gamma\), si ha \(\phi ([a,b])=\psi ([c,d])\) in \(\mathbb{R}^N\); in altre parole le immagini di tutte le parametrizzazioni di una curva parametrizzata \(\Gamma\) coincidono con uno stesso insieme di \(\mathbb{R}^N\). Quanto appena detto rende lecita la seguente definizione:
In corrispondenza di ogni curva continua parametrizzata \(\Gamma\) esiste un unico insieme \(C \subseteq\mathbb{R}^N\) che coincide con l'immagine di ogni parametrizzazione di \(\Gamma\). Tale insieme (che dipende unicamente dalla \(\Gamma\)) è detto sostegno della curva continua \(\Gamma\).
D'altro canto, se \(\phi\) e \(\psi\) sono parametrizzazioni della medesima curva \(\Gamma\) legate dal cambiamento di parametro \(u\), o \(u\) è strettamente crescente oppure \(u\) è strettamente decrescente; visto che la composizione di applicazioni strettamente crescenti [risp. decrescenti] è strettamente crescente [risp. decrescente], si può stabilire tra rappresentazioni parametriche di una curva continua una seconda relazione:
- "Date due parametrizzazioni \(\phi \in C([a,b];\mathbb{R}^N)\) e \(\psi \in C([c,d];\mathbb{R}^N)\) della medesima curva continua \(\Gamma\), si pone:
\[
\phi \approx \psi
\]
se e solo se il cambiamento di parametro \(u:[a,b]\to [c,d]\) è strettamente crescente."[/list:u:fwntsg66]
Geometricamente, se \(P\) e \(Q\) sono punti distinti del sostegno \(C\) di \(\Gamma\) e \(\phi\) e \(\psi\) sono due parametrizzazioni distinte di \(\Gamma\), esistono punti \(t,\tau \in [a,b]\) ed \(s,\sigma \in [c,d]\) tali che:
\[
\phi (t)=P=\psi (s)\qquad \text{e}\qquad \psi (\tau)=Q=\psi (\sigma)\; ;
\]
ora, supposto per semplicità che \(t<\tau\), se \(\phi \approx \psi\) si ha pure \(s=u(t)u(\tau)=\sigma\); nel primo caso, si dice che \(\phi\) e \(\psi\) inducono sul sostegno di \(\Gamma\) lo stesso verso di percorrenza, nel secondo caso che \(\phi\) e \(\psi\) inducono sul sostegno di \(\Gamma\) versi di percorrenza opposti.
In altri termini, la relazione \(\approx\) mette in una classe di equivalenza tutte le parametrizzazioni che inducono sul sostegno di \(\Gamma\) una relazione d'ordine "concorde" con \(\leq \), mentre mette un'altra classe tutte le parametrizzazioni che "invertono" tale relazione.
Quanto appena detto consente di dare la seguente definizione:
Si chiama curva continua parametizzata orientata una coppia \((\Gamma ,\phi)\) in cui \(\Gamma\) è una curva continua parametrizzata e \(\phi\) è una parametrizzazione (in un certo senso "privilegiata") di \(\Gamma\).
Se \((\Gamma ,\phi)\) è una curva parametrizzata orientata, si dice per convenzione che il verso di percorrenza indotto da \(\phi\) è il verso positivo e di ogni parametrizzazione \(\psi\) di \(\Gamma\) tale che \(\psi \approx \phi\) [risp. \(\psi \not\approx \phi\)] si dice che essa induce su \(\Gamma\) il verso di percorrenza positivo [risp. negativo].
Pertanto, quando la scelta della \(\phi\) è chiara o desumibile dal contesto, il fatto che \(\Gamma\) sia orientata si denota semplicemente col simbolo \(+\Gamma\), mentre il simbolo \(-\Gamma\) è riservato per la curva orientata \((\Gamma ,\psi)\) in cui \(\psi\) è una paametrizzazione \(\not\approx \phi\).
Lunghezza di una curva continua parametrizzata.
L'intuizione geometrica porta naturalmente alla seguente definizione:
Sia \(\Gamma\) una curva parametrizzata.
Si dice che la curva \(\Gamma\) è rettificabile se e solo se esiste un numero \(M\geq 0\) tale che la lunghezza totale di ogni spezzata \(S\) inscritta nel sostegno di \(\Gamma\) non superi \(M\).
In tal caso, l'estremo superiore dell'insieme descritto dalle lunghezze delle spezzate inscritte nel sostegno di \(\Gamma\) è chiamato lunghezza della curva \(\Gamma\) ed è denotato (ad esempio) con \(\ell (\Gamma)\).
Una spezzata \(S\) è inscritta nel sostegno \(C\) di \(\Gamma\) quando, detta \(\phi\) una parametrizzazione di \(\Gamma\) su \([a,b]\), esiste una decomposizione \(D=\{a=t_0
Dalla stessa definizione segue immediatamente il seguente teorema:
Una curva parametrizzata continua \(\Gamma\) è rettificabile se e solo se essa ha una reppresentazione parametrica \(\varphi \in BV([a,b];\mathbb{R}^N)\).
In tal caso ogni altra parametrizzazione di \(\Gamma\) è a variazione limitata e si ha:
\[
\tag{2}
\ell (\Gamma) = \operatorname{V}_a^b (\phi)
\]
per ogni parametrizzazione \(\phi\) di \(\Gamma\).
Con questo teorema sotto mano, dimostriamo il seguente risultato fondamentale sulle curve \(C^1\):
Sia \(\Gamma\) una curva parametrizzata continua dotata di una parametrizzazione \(\varphi \in C^1([a,b];\mathbb{R}^N)\).
In tal caso \(\Gamma\) è rettificabile e si ha:
\[
\tag{3}
\ell (\Gamma) := \int_a^b \left| \varphi^\prime (t)\right|\ \text{d} t\; .
\]
Scelta una curva continua rettificabile \(\Gamma\) e dettane \(\phi \in C([a,b];\mathbb{R}^N)\cap BV([a,b];\mathbb{R}^N)\) una parametrizzazione, la funzione:
\[
\sigma : [a,b]\ni t \mapsto \operatorname{V}_a^t(\phi)\in \mathbb{R}
\]
(che misura la lunghezza dell'arco di estremi \(P_0=\phi(a)\) e \(P=\phi(t)\)) si chiama ascissa curvilinea indotta su \(\Gamma\) determinata da \(\phi\); dalle proprietà della variazione indefinita segue immediatamente che \(\sigma\) è una funzione strettamente crescente e continua avente per immagine il compatto \([0,\ell (\Gamma)]\), pertanto \(\sigma\) è invertibile in \([a,b]\) ed ha l'inversa continua in \([0,\ell (\Gamma)]\).
Da quanto appena detto segue che \(\sigma^{-1}\) è un cambiamento di parametro lecito e che la funzione:
\[
\varphi : [0,\ell (\Gamma)] \ni s \mapsto \phi (\sigma^{-1}(s)) \in \mathbb{R}^N
\]
è una parametrizzazione di \(\Gamma\) che induce su \(\Gamma\) lo stesso verso di \(\phi\); tale parametrizzazione si chiama parametrizzazione di \(\Gamma\) in base all'ascissa curvilinea determinata da \(\phi\).
Chiaramente, se \(\Gamma\) è una curva con una parametrizzazione \(\phi \in C^1([a,b];\mathbb{R}^N)\), allora si ha:
\[
\sigma (t) = \int_a^t |\phi^\prime (\tau)|\ \text{d}\tau\; ,
\]
cosicché \(\sigma \in C^1([a,b])\); d'altra parte, se la parametrizzazione \(\phi\) soddisfa la condizione di regolarità:
\[
\forall t\in [a,b],\ |\phi^\prime (t)|\neq 0\; ,
\]
l'ascissa curvilinea \(\sigma\) determinata da \(\phi\) ha inversa di classe \(C^1([0,\ell (\Gamma)])\), in quanto per il teorema di derivazione della funzione inversa si trova:
\[
\dot{\sigma^{-1}}(s) = \frac{1}{\sigma^\prime (\sigma^{-1}(s))} = \frac{1}{|\phi^\prime (\sigma^{-1}(s))|}
\]
(qui e nel seguito denoto col puntino la derivata rispetto al parametro \(s\), mentre l'apice denota derivazione rispetto al parametro \(t\)) con denominatore continuo e mai nullo. Da ciò e dal teorema di derivazione della funzione composta segue che:
\[
\begin{split}
|\dot{\varphi} (s)|^2 &= \sum_{j=1}^N \big( \dot{\varphi_j}(s)\big)^2\\
&= \sum_{j=1}^N \big( \phi_j^\prime (\sigma^{-1}(s))\ \dot{\sigma^{-1}}(s)\big)^2\\
&= \sum_{j=1}^N \big( \phi_j^\prime (\sigma^{-1}(s))\ \frac{1}{|\phi^\prime (\sigma^{-1}(s))|}\big)^2\\
&= \frac{1}{|\phi^\prime (\sigma^{-1}(s))|^2}\ \sum_{j=1}^N \big( \phi_j^\prime (\sigma^{-1}(s))\big)^2\\
&=1
\end{split}
\]
quindi usando nella (3) la parametrizzazione di \(\Gamma\) in base all'ascissa curvilinea troviamo:
\[
\ell (\Gamma) = \int_0^{\ell (\Gamma)} \text{d} s
\]
che è un risultato coerente e perfettamente plausibile alla luce del Teorema Fondamentale del Calcolo Integrale.
***
Nel prossimo post mi prometto di trattare, su queste basi, la questione della definizione dell'integrale curvilineo.
Fantastico, davvero.
Ora però son curioso di conoscere il seguito.
Ora però son curioso di conoscere il seguito.
Integrale curvilineo di una funzione limitata su una curva rettificabile continua rispetto ad una sua parametrizzazione[nota]Quello che sto per scrivere si può scrivere anche direttamente senza riferimento alla parametrizzazione; basta introdurre un orientamento su \(\Gamma\) e considerare delle decomposizioni dell'arco \(\Gamma\), piuttosto di decomposizioni dell'intervallo base della parametrizzazione.[/nota]
Siano \(\Gamma\) una curva continua rettificabile, \(\varphi \in BV([a,b];\mathbb{R}^N)\cap C([a,b];\mathbb{R}^N)\) una sua parametrizzazione ed \(f:C \to \mathbb{R}\) una funzione limitata sul sostegno di \(\Gamma\).
Fissata una decomposizione \(D\in \mathfrak{D}(a,b)\), ha senso considerare le somme:
\[
\begin{split}
s(f;\varphi, D) &:= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\cdot \inf_{t\in [t_k,t_{k+1}]} f(\varphi (t))\\
S(f;\varphi, D) &:= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\cdot \sup_{t\in [t_k,t_{k+1}]} f(\varphi (t))\; ,
\end{split}
\]
perché la funzione composta \(f\circ \varphi\) è limitata in \([a,b]\). Chiaramente si ha:
\[
\ell(\Gamma)\cdot \inf_\Gamma f\leq s(f;\varphi, D)\leq S(f;\varphi, D)\leq \ell(\Gamma)\cdot \sup_\Gamma f\; ,
\]
sicché le due classi:
\[
\begin{split}
\varsigma (f;\varphi) &:= \left\{ s(f;\varphi, D),\ D\in \mathfrak{D}(a,b)\right\}\\
\Sigma (f;\varphi) &:= \left\{ S(f;\varphi, D),\ D\in \mathfrak{D}(a,b)\right\}
\end{split}
\]
sono separate e limitate e la seconda è la classe dei maggioranti; ne viene che:
\[
\ell(\Gamma)\cdot \inf_\Gamma f\leq \sup \varsigma (f;\varphi)\leq \inf \Sigma (f;\varphi) \leq \ell(\Gamma)\cdot \sup_\Gamma f
\]
cioé entrambi l'estremo superiore della classe \(\varsigma (f;\varphi)\) e quello inferiore della \(\Sigma (f;\varphi)\) esistono finiti ed il primo non supera il secondo.
Ha perciò senso la seguente definizione:
L'integrale definito come qui sopra, così come le somme di Riemann e gli integrali superiore ed inferiore godono di tutte le usuali proprietà delle analoghe quantità definite per le funzioni numeriche di una variabile reale (le dimostrazioni di questi fatti si fanno, mutatis mutandis, proprio come quelle di Analisi I): ad esempio, si ha:
\[
I_*(-f;\varphi) = -I^*(f;\varphi) \quad \text{e}\quad I^*(-f;\varphi) = -I_*(f;\varphi)\; ,
\]
e l'integrale è omogeneo, distributivo rispetto all'addizione ed additivo (se si considera la curva cui è esteso come unione di più tratti congiunti agli estremi).
Ovviamente, si può dimostrare che la classe delle funzioni integrabili su \(\Gamma\) rispetto a \(\varphi\) non è vuota, poiché essa contiene (propriamente!) la classe delle funzioni continue su \(\Gamma\).
Infine, notiamo che la costruzione appena fatta ("integrale a là Darboux") potrebbe essere ripetuta in altra maniera, cioé usando le somme intermedie di Riemann:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) := \sum_{k=0}^n f(\varphi(\xi_k))\cdot \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)
\]
(qui, come al solito in integrazione, \(\xi_0,\ldots, \xi_n\) denotano punti degli intervallini \([t_0,t_1],\ldots ,[t_n,t_{n+1}]\) scelti in maniera del tutto arbitraria). Seguendo quest'approccio, non cambierebbe nulla e si ritroverebbero gli stessi risultati.
Indipendenza dell'integrale curvilineo dalla parametrizzazione
Tuttavia, osserviamo che le quantità sopra definite sono tutte dipendenti dalla parametrizzazione \(\varphi\) scelta per definire le somme di Riemann.
Ora, vorremmo mostrare che questa dipendenza è, in realtà, fittizia.
Invero, supponiamo che \(\psi\in BV([c,d];\mathbb{R}^N)\cap C([c,d];\mathbb{R}^N)\) sia una parametrizzazione di \(\Gamma\) tale che \(\psi \approx \varphi\) (cioé una parametrizzazione che induce sul sostegno \(C\) di \(\Gamma\) lo stesso orientamento di \(\varphi\)), cosicché il cambiamento di parametro \(u:[a,b]\to [c,d]\) è continuo e strettamente crescente. Da ciò segue che le classi \(\mathfrak{D}(a,b)\) e \(\mathfrak{D}(c,d)\) sono in corrispondenza biunivoca: invero, assegnata \(D\in \mathfrak{D}(a,b)\) esiste un unica \(D^\prime \in \mathfrak{D}(c,d)\) tale che \(c=\tau_0=u(t_0)=u(a)\), \(\tau_1=u(t_1)\), ..., \(\tau_n =u(t_n)\), \(d=\tau_{n+1}=u(t_{n+1})=u(b)\) e viceversa (usando \(u^{-1}\)).
Da ciò segue che ogni somma di Riemann inferiore [risp. superiore] di \(f\) rispetto alla parametrizzazione \(\psi\) può essere riscritta come una somma di Riemann inferiore [risp. superiore] di \(f\) relativa alla parametrizzazione \(\varphi\) e viceversa: infatti, detta \(D\) una decomposizione di \([a,b]\) si ha:
\[
\begin{split}
s(f;\varphi , D) &= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\ \inf_{t \in [t_k, t_{k+1}]} f(\varphi (t))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{t \in [t_k, t_{k+1}]} f(\psi (u(t)))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{\tau \in [u(t_k), u(t_{k+1})]} f(\psi (\tau))\\
&= \sum_{k=0}^n \operatorname{V}_{\tau_k}^{\tau_{k+1}} (\psi)\ \inf_{\tau \in [\tau_k, \tau_{k+1}]} f(\psi (\tau))\\
&= s(f;\psi , u(D))
\end{split}
\]
e viceversa:
\[
s(f;\psi , D^\prime) = s(f;\varphi , u^{-1}(D^\prime))
\]
[risp. \(s(f;\varphi , D) = S(f;\psi , u(D))\) e \(S(f;\psi , D^\prime) = S(f;\varphi , u^{-1}(D^\prime))\)].
Conseguentemente si ha uguaglianza:
\[
I_*(f;\psi) = I_* (f;\varphi) \quad \text{e} \quad I^*(f;\psi)=I^*(f;\varphi)\; .
\]
D'altro canto, se \(\psi \not\approx \varphi\), cioé se il cambiamento di parametro \(u:[a,b]\to [c,d]\) è strettamente decrescente, le decomposizioni degli intervalli \([a,b]\) e \([c,d]\) continuano ad essere in corrispondenza biunivoca, solo che il cambiamento di parametro "inverte l'ordinamento" interno alle decomposizioni: invero, se \(D\in \mathfrak{D}(a,b)\), si ha:
\[
u(a)=u(t_0)=d>u(t_1)>u(t_2)>\cdots >u(t_n)>u(t_{n+1})=u(b)=c
\]
quindi \(u\) mappa \(D\) sulla decomposizione \(D^\prime =u(D)\) i cui elementi si succedono, però, dal maggiore al minore.
Tuttavia, la variazione su ogni intervallino della decomposizione non risente del cambiamento di ordinamento (per la nota proprietà del valore assoluto \(|x-y|=|y-x|\)), dunque si ha:
\[
\begin{split}
s(f;\varphi , D) &= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\ \inf_{t \in [t_k, t_{k+1}]} f(\varphi (t))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{t \in [t_k, t_{k+1}]} f(\psi (u(t)))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_{k+1})}^{u(t_k)} (\psi\circ u)\ \inf_{\tau \in [u(t_{k+1}), u(t_k)]} f(\psi (\tau))\\
&\stackrel{h=n+1-k}{=} \sum_{h=1}^{n+1} \operatorname{V}_{\tau_{h-1}}^{\tau_h} (\psi)\ \inf_{\tau \in [\tau_{h-1}, \tau_h]} f(\psi (\tau))\\
&\stackrel{j=h-1}{=} \sum_{j=0}^n \operatorname{V}_{\tau_j}^{\tau_{j+1}} (\psi)\ \inf_{\tau \in [\tau_j, \tau_{j+1}]} f(\psi (\tau ))\\
&= s(f;\psi , u(D))
\end{split}
\]
(in cui si è posto \(\tau_0=u(t_{n+1})\), \(\tau_1=u(t_n)\), ..., \(\tau_n=u(t_1)\) e \(\tau_{n+1}=u(t_0)\), di modo che \(c=\tau_0<\tau_1<\cdots <\tau_n<\tau_{n+1}=d\)) ed analogamente:
\[
s(f;\psi , D^\prime) = s(f;\varphi, u^{-1}(D^\prime))
\]
[risp. \(S(f;\varphi , D) = S(f;\psi, u(D))\) e \(S(f;\psi , D^\prime) = S(f;\phi, u^{-1}(D^\prime))\)]. Di conseguenza, gli integrali inferiore e superiore rimangono inalterati dal cambiamento di orientamento:
\[
I_*(f;\psi) = I_*(f;\varphi)\quad \text{e}\quad I^*(f;\psi) = I^*(f;\varphi)\; .
\]
Di conseguenza, se \(f\) è integrabile rispetto a \(\varphi\) essa è integrabile rispetto a qualsiasi altra parametrizzazione \(\psi\) di \(\Gamma\) e risulta:
\[
I(f;\psi) = I(f;\varphi)\; .
\]
Ne viene che l'integrale curvilineo di una funzione limitata ed integrabile dipende essenzialmente dalla curva \(\Gamma\) e non dipende in alcun modo dalla parametrizzazione scelta per descrivere la curva. Questa considerazione rende lecito adottare la notazione:
\[
\int_{\Gamma} f\ \text{d}\sigma
\]
al posto di \(I(f;\varphi)\) per denotare l'integrale curvilineo di \(f\) sulla curva \(\Gamma\): infatti, tale notazione nasconde la parametrizzazione e mette in evidenza ciò che realmente è fondamentale per conoscere l'integrale curvilineo, cioé l'integrando e la curva.
Per quanto detto più sopra, anche la dipendenza dall'orientamento è fittizia e perciò, qualora si sceglie di orientare la curva \(\Gamma\), si ha:
\[
\int_{+\Gamma} f\ \text{d}\sigma = \int_{\Gamma} f\ \text{d}\sigma = \int_{-\Gamma} f\ \text{d}\sigma \; .
\]
Calcolo dell'integrale curvilineo per curve regolari
Evidentemente, la definizione di integrale curvilineo data sopra serve a poco quando si tratti di calcolare esplicitamente un integrale; d'altra parte, essa è l'unica via per effettuare calcoli "diretti" quando la curva \(\Gamma\) è "brutta", cioé quando essa non gode di elevate proprietà di regolarità.
Tuttavia, quando \(\Gamma\) è sufficientemente "liscia" e quando l'integrando \(f\), oltre che limitato, è pure continuo, il calcolo dell'integrale \(\int_{+\Gamma} f\text{d} \sigma\) può essere ricondotto al calcolo di un integrale di Riemann di un'opportuna funzione numerica di una variabile reale.
Ciò può essere fatto a norma del seguente teorema:
Per dimostrare questo fatto si ragiona così come si è ragionato per dimostrare la formula per il calcolo della lunghezza di una curva regolare (quindi la dimostrazione la tralascio... Se serve, basta fare un fischio).
In soldoni, la dimostrazione che essa si basa sulla seguente idea, comune a tutti i ragionamenti euristici del Calcolo Differenziale ed Integrale: quando l'ampiezza degli intervallini \([t_k,t_{k+1}]\) è "piccola", per la variazione della funzione \(\varphi\in C^1([a,b];\mathbb{R}^N)\) vale l'approssimazione:
\[
\operatorname{V}_{t_k}^{t_{k+1}}(\varphi) \sim |\varphi^\prime (\theta_k)|\ (t_{k+1}-t_k)
\]
con \(\theta_k \in [t_k,t_{k+1}]\), quindi, la generica somma intermedia di Riemann \(\sigma (f;\varphi , D, \xi_0,\ldots ,\xi_n)\) si può approssimare con:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) \sim \sum_{k=0}^n f(\varphi(\xi_k))\cdot |\varphi^\prime (\theta_k)|\ (t_{k+1}-t_k)\; ;
\]
d'altra parte, dato che \(|\xi_k -\theta_k|\leq t_{k+1}-t_k\) e che la funzione \(|\varphi^\prime|\) è continua, in regime di ampiezze "piccole" possiamo approssimare \(|\varphi^\prime (\theta_k)|\) con \(|\varphi^\prime (\xi_k)|\) e scrivere:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) \sim \sum_{k=0}^n f(\varphi(\xi_k))\cdot |\varphi^\prime (\xi_k)|\ (t_{k+1}-t_k)
\]
con l'ultimo membro che è una somma intermedia di Riemann relativa alla funzione \(f\circ \varphi: [a,b]\ni t\mapsto f(\varphi (t))\cdot |\varphi^\prime (t)|\in \mathbb{R}\); dato che tale funzione \(f\circ \varphi\) è continua, infittendo la decomposizione si trova l'uguaglianza presente nell'enunciato del teorema.
***
Che te ne pare?
Siano \(\Gamma\) una curva continua rettificabile, \(\varphi \in BV([a,b];\mathbb{R}^N)\cap C([a,b];\mathbb{R}^N)\) una sua parametrizzazione ed \(f:C \to \mathbb{R}\) una funzione limitata sul sostegno di \(\Gamma\).
Fissata una decomposizione \(D\in \mathfrak{D}(a,b)\), ha senso considerare le somme:
\[
\begin{split}
s(f;\varphi, D) &:= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\cdot \inf_{t\in [t_k,t_{k+1}]} f(\varphi (t))\\
S(f;\varphi, D) &:= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\cdot \sup_{t\in [t_k,t_{k+1}]} f(\varphi (t))\; ,
\end{split}
\]
perché la funzione composta \(f\circ \varphi\) è limitata in \([a,b]\). Chiaramente si ha:
\[
\ell(\Gamma)\cdot \inf_\Gamma f\leq s(f;\varphi, D)\leq S(f;\varphi, D)\leq \ell(\Gamma)\cdot \sup_\Gamma f\; ,
\]
sicché le due classi:
\[
\begin{split}
\varsigma (f;\varphi) &:= \left\{ s(f;\varphi, D),\ D\in \mathfrak{D}(a,b)\right\}\\
\Sigma (f;\varphi) &:= \left\{ S(f;\varphi, D),\ D\in \mathfrak{D}(a,b)\right\}
\end{split}
\]
sono separate e limitate e la seconda è la classe dei maggioranti; ne viene che:
\[
\ell(\Gamma)\cdot \inf_\Gamma f\leq \sup \varsigma (f;\varphi)\leq \inf \Sigma (f;\varphi) \leq \ell(\Gamma)\cdot \sup_\Gamma f
\]
cioé entrambi l'estremo superiore della classe \(\varsigma (f;\varphi)\) e quello inferiore della \(\Sigma (f;\varphi)\) esistono finiti ed il primo non supera il secondo.
Ha perciò senso la seguente definizione:
Chiamiamo integrale di Riemann inferiore ed integrale di Riemann superiore di \(f\) esteso a \(\Gamma\) rispetto alla parametrizzazione \(\varphi\), rispettivamente, i due numeri:
\[
I_*(f;\varphi) := \sup \varsigma (f;\varphi) \quad \text{e}\quad I^*(f;\varphi) := \inf \Sigma (f;\varphi)\; .
\]
Per costruzione è \(I_*(f;\varphi) \leq I^* (f;\varphi)\).
Diciamo che \(f\) è integrabile su \(\Gamma\) rispetto alla parametrizzazione \(\varphi\) se e solo se risulta \(I_*(f;\varphi)= I^* (f;\varphi)\) (cioé se le due classi \(\varsigma (f;\varphi)\) e \(\Sigma (f;\varphi)\), oltre che separate, sono pure contigue); in tal caso, il valore comune dell'integrale inferiore e superiore si chiama integrale di \(f\) su \(\Gamma\) rispetto alla parametrizzazione \(\varphi\) e si denota col simbolo \(I(f;\varphi)\).
L'integrale definito come qui sopra, così come le somme di Riemann e gli integrali superiore ed inferiore godono di tutte le usuali proprietà delle analoghe quantità definite per le funzioni numeriche di una variabile reale (le dimostrazioni di questi fatti si fanno, mutatis mutandis, proprio come quelle di Analisi I): ad esempio, si ha:
\[
I_*(-f;\varphi) = -I^*(f;\varphi) \quad \text{e}\quad I^*(-f;\varphi) = -I_*(f;\varphi)\; ,
\]
e l'integrale è omogeneo, distributivo rispetto all'addizione ed additivo (se si considera la curva cui è esteso come unione di più tratti congiunti agli estremi).
Ovviamente, si può dimostrare che la classe delle funzioni integrabili su \(\Gamma\) rispetto a \(\varphi\) non è vuota, poiché essa contiene (propriamente!) la classe delle funzioni continue su \(\Gamma\).
Infine, notiamo che la costruzione appena fatta ("integrale a là Darboux") potrebbe essere ripetuta in altra maniera, cioé usando le somme intermedie di Riemann:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) := \sum_{k=0}^n f(\varphi(\xi_k))\cdot \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)
\]
(qui, come al solito in integrazione, \(\xi_0,\ldots, \xi_n\) denotano punti degli intervallini \([t_0,t_1],\ldots ,[t_n,t_{n+1}]\) scelti in maniera del tutto arbitraria). Seguendo quest'approccio, non cambierebbe nulla e si ritroverebbero gli stessi risultati.
Indipendenza dell'integrale curvilineo dalla parametrizzazione
Tuttavia, osserviamo che le quantità sopra definite sono tutte dipendenti dalla parametrizzazione \(\varphi\) scelta per definire le somme di Riemann.
Ora, vorremmo mostrare che questa dipendenza è, in realtà, fittizia.
Invero, supponiamo che \(\psi\in BV([c,d];\mathbb{R}^N)\cap C([c,d];\mathbb{R}^N)\) sia una parametrizzazione di \(\Gamma\) tale che \(\psi \approx \varphi\) (cioé una parametrizzazione che induce sul sostegno \(C\) di \(\Gamma\) lo stesso orientamento di \(\varphi\)), cosicché il cambiamento di parametro \(u:[a,b]\to [c,d]\) è continuo e strettamente crescente. Da ciò segue che le classi \(\mathfrak{D}(a,b)\) e \(\mathfrak{D}(c,d)\) sono in corrispondenza biunivoca: invero, assegnata \(D\in \mathfrak{D}(a,b)\) esiste un unica \(D^\prime \in \mathfrak{D}(c,d)\) tale che \(c=\tau_0=u(t_0)=u(a)\), \(\tau_1=u(t_1)\), ..., \(\tau_n =u(t_n)\), \(d=\tau_{n+1}=u(t_{n+1})=u(b)\) e viceversa (usando \(u^{-1}\)).
Da ciò segue che ogni somma di Riemann inferiore [risp. superiore] di \(f\) rispetto alla parametrizzazione \(\psi\) può essere riscritta come una somma di Riemann inferiore [risp. superiore] di \(f\) relativa alla parametrizzazione \(\varphi\) e viceversa: infatti, detta \(D\) una decomposizione di \([a,b]\) si ha:
\[
\begin{split}
s(f;\varphi , D) &= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\ \inf_{t \in [t_k, t_{k+1}]} f(\varphi (t))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{t \in [t_k, t_{k+1}]} f(\psi (u(t)))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{\tau \in [u(t_k), u(t_{k+1})]} f(\psi (\tau))\\
&= \sum_{k=0}^n \operatorname{V}_{\tau_k}^{\tau_{k+1}} (\psi)\ \inf_{\tau \in [\tau_k, \tau_{k+1}]} f(\psi (\tau))\\
&= s(f;\psi , u(D))
\end{split}
\]
e viceversa:
\[
s(f;\psi , D^\prime) = s(f;\varphi , u^{-1}(D^\prime))
\]
[risp. \(s(f;\varphi , D) = S(f;\psi , u(D))\) e \(S(f;\psi , D^\prime) = S(f;\varphi , u^{-1}(D^\prime))\)].
Conseguentemente si ha uguaglianza:
\[
I_*(f;\psi) = I_* (f;\varphi) \quad \text{e} \quad I^*(f;\psi)=I^*(f;\varphi)\; .
\]
D'altro canto, se \(\psi \not\approx \varphi\), cioé se il cambiamento di parametro \(u:[a,b]\to [c,d]\) è strettamente decrescente, le decomposizioni degli intervalli \([a,b]\) e \([c,d]\) continuano ad essere in corrispondenza biunivoca, solo che il cambiamento di parametro "inverte l'ordinamento" interno alle decomposizioni: invero, se \(D\in \mathfrak{D}(a,b)\), si ha:
\[
u(a)=u(t_0)=d>u(t_1)>u(t_2)>\cdots >u(t_n)>u(t_{n+1})=u(b)=c
\]
quindi \(u\) mappa \(D\) sulla decomposizione \(D^\prime =u(D)\) i cui elementi si succedono, però, dal maggiore al minore.
Tuttavia, la variazione su ogni intervallino della decomposizione non risente del cambiamento di ordinamento (per la nota proprietà del valore assoluto \(|x-y|=|y-x|\)), dunque si ha:
\[
\begin{split}
s(f;\varphi , D) &= \sum_{k=0}^n \operatorname{V}_{t_k}^{t_{k+1}} (\varphi)\ \inf_{t \in [t_k, t_{k+1}]} f(\varphi (t))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_k)}^{u(t_{k+1})} (\psi\circ u)\ \inf_{t \in [t_k, t_{k+1}]} f(\psi (u(t)))\\
&= \sum_{k=0}^n \operatorname{V}_{u(t_{k+1})}^{u(t_k)} (\psi\circ u)\ \inf_{\tau \in [u(t_{k+1}), u(t_k)]} f(\psi (\tau))\\
&\stackrel{h=n+1-k}{=} \sum_{h=1}^{n+1} \operatorname{V}_{\tau_{h-1}}^{\tau_h} (\psi)\ \inf_{\tau \in [\tau_{h-1}, \tau_h]} f(\psi (\tau))\\
&\stackrel{j=h-1}{=} \sum_{j=0}^n \operatorname{V}_{\tau_j}^{\tau_{j+1}} (\psi)\ \inf_{\tau \in [\tau_j, \tau_{j+1}]} f(\psi (\tau ))\\
&= s(f;\psi , u(D))
\end{split}
\]
(in cui si è posto \(\tau_0=u(t_{n+1})\), \(\tau_1=u(t_n)\), ..., \(\tau_n=u(t_1)\) e \(\tau_{n+1}=u(t_0)\), di modo che \(c=\tau_0<\tau_1<\cdots <\tau_n<\tau_{n+1}=d\)) ed analogamente:
\[
s(f;\psi , D^\prime) = s(f;\varphi, u^{-1}(D^\prime))
\]
[risp. \(S(f;\varphi , D) = S(f;\psi, u(D))\) e \(S(f;\psi , D^\prime) = S(f;\phi, u^{-1}(D^\prime))\)]. Di conseguenza, gli integrali inferiore e superiore rimangono inalterati dal cambiamento di orientamento:
\[
I_*(f;\psi) = I_*(f;\varphi)\quad \text{e}\quad I^*(f;\psi) = I^*(f;\varphi)\; .
\]
Di conseguenza, se \(f\) è integrabile rispetto a \(\varphi\) essa è integrabile rispetto a qualsiasi altra parametrizzazione \(\psi\) di \(\Gamma\) e risulta:
\[
I(f;\psi) = I(f;\varphi)\; .
\]
Ne viene che l'integrale curvilineo di una funzione limitata ed integrabile dipende essenzialmente dalla curva \(\Gamma\) e non dipende in alcun modo dalla parametrizzazione scelta per descrivere la curva. Questa considerazione rende lecito adottare la notazione:
\[
\int_{\Gamma} f\ \text{d}\sigma
\]
al posto di \(I(f;\varphi)\) per denotare l'integrale curvilineo di \(f\) sulla curva \(\Gamma\): infatti, tale notazione nasconde la parametrizzazione e mette in evidenza ciò che realmente è fondamentale per conoscere l'integrale curvilineo, cioé l'integrando e la curva.
Per quanto detto più sopra, anche la dipendenza dall'orientamento è fittizia e perciò, qualora si sceglie di orientare la curva \(\Gamma\), si ha:
\[
\int_{+\Gamma} f\ \text{d}\sigma = \int_{\Gamma} f\ \text{d}\sigma = \int_{-\Gamma} f\ \text{d}\sigma \; .
\]
Calcolo dell'integrale curvilineo per curve regolari
Evidentemente, la definizione di integrale curvilineo data sopra serve a poco quando si tratti di calcolare esplicitamente un integrale; d'altra parte, essa è l'unica via per effettuare calcoli "diretti" quando la curva \(\Gamma\) è "brutta", cioé quando essa non gode di elevate proprietà di regolarità.
Tuttavia, quando \(\Gamma\) è sufficientemente "liscia" e quando l'integrando \(f\), oltre che limitato, è pure continuo, il calcolo dell'integrale \(\int_{+\Gamma} f\text{d} \sigma\) può essere ricondotto al calcolo di un integrale di Riemann di un'opportuna funzione numerica di una variabile reale.
Ciò può essere fatto a norma del seguente teorema:
Sia \(\Gamma\) una curva dotata di una parametrizzazione \(\varphi \in C^1([a,b];\mathbb{R}^N)\) e sia \(f:\Gamma \to \mathbb{R}\) continua su \(\Gamma\).
Allora risulta:
\[
\int_{\Gamma} f\ \text{d}\sigma = \int_a^b f(\varphi (t))\ \left| \varphi^\prime (t)\right|\ \text{d} t\; .
\]
Per dimostrare questo fatto si ragiona così come si è ragionato per dimostrare la formula per il calcolo della lunghezza di una curva regolare (quindi la dimostrazione la tralascio... Se serve, basta fare un fischio).
In soldoni, la dimostrazione che essa si basa sulla seguente idea, comune a tutti i ragionamenti euristici del Calcolo Differenziale ed Integrale: quando l'ampiezza degli intervallini \([t_k,t_{k+1}]\) è "piccola", per la variazione della funzione \(\varphi\in C^1([a,b];\mathbb{R}^N)\) vale l'approssimazione:
\[
\operatorname{V}_{t_k}^{t_{k+1}}(\varphi) \sim |\varphi^\prime (\theta_k)|\ (t_{k+1}-t_k)
\]
con \(\theta_k \in [t_k,t_{k+1}]\), quindi, la generica somma intermedia di Riemann \(\sigma (f;\varphi , D, \xi_0,\ldots ,\xi_n)\) si può approssimare con:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) \sim \sum_{k=0}^n f(\varphi(\xi_k))\cdot |\varphi^\prime (\theta_k)|\ (t_{k+1}-t_k)\; ;
\]
d'altra parte, dato che \(|\xi_k -\theta_k|\leq t_{k+1}-t_k\) e che la funzione \(|\varphi^\prime|\) è continua, in regime di ampiezze "piccole" possiamo approssimare \(|\varphi^\prime (\theta_k)|\) con \(|\varphi^\prime (\xi_k)|\) e scrivere:
\[
\sigma (f;\varphi,D,\xi_0,\ldots ,\xi_n) \sim \sum_{k=0}^n f(\varphi(\xi_k))\cdot |\varphi^\prime (\xi_k)|\ (t_{k+1}-t_k)
\]
con l'ultimo membro che è una somma intermedia di Riemann relativa alla funzione \(f\circ \varphi: [a,b]\ni t\mapsto f(\varphi (t))\cdot |\varphi^\prime (t)|\in \mathbb{R}\); dato che tale funzione \(f\circ \varphi\) è continua, infittendo la decomposizione si trova l'uguaglianza presente nell'enunciato del teorema.
***
Che te ne pare?
Non credo che a parole sia possibile descrivere la riconoscenza che provo per il lavoro immenso che hai fatto. Mi ci vorrà un po' di tempo per digerire tutto quanto, tuttavia inizio già da ora a chiederti cose.
C'è una cosa che non mi è chiara: tu hai scritto che la funzione integranda è una funzione del tipo
\[ f : \Gamma \rightarrow \mathbb{R} \]
Ma \( \Gamma \), se ho ben capito dal tuo precedente post, è una classe di equivalenza di funzioni vettoriali.
Questo mi sembra che vada in contraddizione con l'uso che fai dopo di questa \( f \), nel senso che nelle somme integrali scrivi cose del tipo \( f(\varphi(t)) \), quando in realtà gli elementi del dominio di \( f \) sono funzioni e non elementi di \( \mathbb{R}^n \).
È così o mi son perso qualcosa?
"gugo82":
Siano \(\Gamma\) una curva continua rettificabile, \(\varphi \in BV([a,b];\mathbb{R}^N)\cap C([a,b];\mathbb{R}^N)\) una sua parametrizzazione ed \(f:\Gamma \to \mathbb{R}\) una funzione limitata.
C'è una cosa che non mi è chiara: tu hai scritto che la funzione integranda è una funzione del tipo
\[ f : \Gamma \rightarrow \mathbb{R} \]
Ma \( \Gamma \), se ho ben capito dal tuo precedente post, è una classe di equivalenza di funzioni vettoriali.
Questo mi sembra che vada in contraddizione con l'uso che fai dopo di questa \( f \), nel senso che nelle somme integrali scrivi cose del tipo \( f(\varphi(t)) \), quando in realtà gli elementi del dominio di \( f \) sono funzioni e non elementi di \( \mathbb{R}^n \).
È così o mi son perso qualcosa?
Semplicemente, avevo perso di vista la notazione adottata sopra ed avevo confuso (come di solito si fa, con abuso di notazione e terminologia) tra curva e sostegno.
In altre parole, adottando le notazioni del post precedente, avrei dovuto scrivere \(f:C\to \mathbb{R}\).
In altre parole, adottando le notazioni del post precedente, avrei dovuto scrivere \(f:C\to \mathbb{R}\).

Ok, perfetto, ora mi torna.
Quando avrò assimilato il materiale proverò a dimostrare il teorema che è oggetto di questo thread.
Intanto ti chiedo un'altra cosa: i discorsi che hai fatto qui cambiano di tanto nel caso di integrazione di campi vettoriali (ossia di funzioni del tipo \( \mathbf{F} : \Omega \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^n \))? Naturalmente, parlo di una trattazione che non coinvolga le forme differenziali.
Quando avrò assimilato il materiale proverò a dimostrare il teorema che è oggetto di questo thread.
Intanto ti chiedo un'altra cosa: i discorsi che hai fatto qui cambiano di tanto nel caso di integrazione di campi vettoriali (ossia di funzioni del tipo \( \mathbf{F} : \Omega \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^n \))? Naturalmente, parlo di una trattazione che non coinvolga le forme differenziali.
Aggiungo una domanda un po' più in linea con il thread.
Quello che non sono ancora riuscito a capire di tutto il procedimento che hai seguito è il motivo per cui hai introdotto i concetti di variazione totale e variazione indefinita quando parli delle somme integrali.
Non bastava semplicemente scrivere al posto della variazione totale la lunghezza dell'arco di curva di interesse?
Tuttavia, la cosa che più mi ha lasciato in dubbio è il fatto che usi nelle somme integrali la funzione \( f \circ \varphi \): ma non bastava prendere il \( \sup \) (l'\( \inf \) rispettivamente) di \( f \), anziché della composta? In altre parole, non si poteva in tutta semplicità porre (scegliendo ad esempio le somme inferiori)
\[ s(f,D) = \sum_{k=0}^n l(\Gamma_k) \inf_{\Gamma_k} f(\mathbf{x}) \]
dove \( \Gamma_k \) è il tratto di sostegno dell'arco \( k \)-simo della decomposizione della curva?
Quello che non sono ancora riuscito a capire di tutto il procedimento che hai seguito è il motivo per cui hai introdotto i concetti di variazione totale e variazione indefinita quando parli delle somme integrali.
Non bastava semplicemente scrivere al posto della variazione totale la lunghezza dell'arco di curva di interesse?
Tuttavia, la cosa che più mi ha lasciato in dubbio è il fatto che usi nelle somme integrali la funzione \( f \circ \varphi \): ma non bastava prendere il \( \sup \) (l'\( \inf \) rispettivamente) di \( f \), anziché della composta? In altre parole, non si poteva in tutta semplicità porre (scegliendo ad esempio le somme inferiori)
\[ s(f,D) = \sum_{k=0}^n l(\Gamma_k) \inf_{\Gamma_k} f(\mathbf{x}) \]
dove \( \Gamma_k \) è il tratto di sostegno dell'arco \( k \)-simo della decomposizione della curva?
Sì, si può fare... In quel modo riesci a dare una definizione di integrale direttamente intrinseca, poiché non ti riferisci a nessuna parametrizzazione in particolare. [Questo è il modo usato, ad esempio, sul testo di Cafiero.]
Per fare un discorso del genere, comunque, devi prima parlare di archi di curva orientati, altrimenti, la decomposizione di \(\Gamma\) in archetti \(\Gamma_0,\Gamma_1,\ldots, \Gamma_n\) come la fai?
In altre parole, l'ordine, qualsiasi esso sia (e.g., \(\leq\) sulla retta numerica o l'orientamento di un arco) è una componente delle decomposizioni usate per costruire ogni integrale al modo di Riemann.
Quindi, per parlare di orientamento, avrei comunque dovuto usare prima le parametrizzazioni... Il gioco non valeva la candela, ed ho preferito scrivere come ho scritto. Questione di gusto personale.
D'altra parte, è abbastanza tipico degli analisti riguardare le curve sempre attraverso una qualche loro paramerizzazione, perché essi sono interessati più a cosa può venir fuori facendo Calcolo, piuttosto che alle proprietà intrinseche (dei sostegni) delle curve.
Inoltre, le funzioni a variazione limitata, che si citano davvero di rado (forse si studiano -un po'- in alcuni corsi di Analisi Funzionale), sono una classe di funzioni assai importanti nell'Analisi[nota]Ad esempio, la maggior parte dei teoremi classici sulle serie di Fourier funziona per le funzioni \(BV\)...[/nota], quindi mi è sembrato opportuno richiamare un po' di attenzione su di esse.
Per fare un discorso del genere, comunque, devi prima parlare di archi di curva orientati, altrimenti, la decomposizione di \(\Gamma\) in archetti \(\Gamma_0,\Gamma_1,\ldots, \Gamma_n\) come la fai?
In altre parole, l'ordine, qualsiasi esso sia (e.g., \(\leq\) sulla retta numerica o l'orientamento di un arco) è una componente delle decomposizioni usate per costruire ogni integrale al modo di Riemann.
Quindi, per parlare di orientamento, avrei comunque dovuto usare prima le parametrizzazioni... Il gioco non valeva la candela, ed ho preferito scrivere come ho scritto. Questione di gusto personale.
D'altra parte, è abbastanza tipico degli analisti riguardare le curve sempre attraverso una qualche loro paramerizzazione, perché essi sono interessati più a cosa può venir fuori facendo Calcolo, piuttosto che alle proprietà intrinseche (dei sostegni) delle curve.
Inoltre, le funzioni a variazione limitata, che si citano davvero di rado (forse si studiano -un po'- in alcuni corsi di Analisi Funzionale), sono una classe di funzioni assai importanti nell'Analisi[nota]Ad esempio, la maggior parte dei teoremi classici sulle serie di Fourier funziona per le funzioni \(BV\)...[/nota], quindi mi è sembrato opportuno richiamare un po' di attenzione su di esse.
In questo post pongo un problema che mi si è presentato consultando il testo di Analisi 2 che ho in possesso (Bramanti, Pagani, Salsa - Analisi matematica 2, Zanichelli).
Partiamo dall'inizio. Mi è saltato all'occhio questo confronto tra integrale di linea di prima specie e integrale di linea di seconda specie:
«L'integrale di linea di prima specie di una funzione continua \( f \) lungo una curva \( \gamma \) parametrizzata da \( \mathbf{r}(t) = (x(t),y(t),z(t)) \), \( t \in [a,b] \) è
\[ \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
L'integrale di linea di seconda specie, lungo \( \gamma \), del campo \( \mathbf{F} \) è
\[ \int_a^b \mathbf{F}(\mathbf{r}(t)) \cdot \mathbf{r}'(t)\, {\rm d}t \]
L'integrale di linea di prima specie è invariante per cambiamenti di parametrizzazione della curva, anche quando la nuova parametrizzazione ne cambia l'orientazione.
L'integrale di linea di seconda specie, invece, cambia segno se si cambia l'orientazione sulla curva, mentre continua ad essere invariante per cambiamenti di parametro che non alterino l'orientazione.
Shockato dall'affermazione in grassetto, vado a vedere come arriva in precedenza a giustificarla e ne trovo una dimostrazione.
Inizio dalla definizione di integrale che riporta:
Sia \( \mathbf{r} : [a,b] \rightarrow \mathbb{R}^m \) un arco di curva regolare di sostegno \( \gamma \) e sia \( f : A \subseteq \mathbb{R}^m \rightarrow \mathbb{R} \), con \( \gamma \subseteq A \). Si dice integrale di linea di prima specie di \( f \) lungo \( \gamma \) l'integrale
\[ \int_{\gamma} f\, {\rm d}s = \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
Subito dopo, passa ad enunciare la seguente proposizione.
«L'integrale di \( f \) di prima specie lungo \( \gamma \) è invariante per parametrizzazioni equivalenti ed anche per cambiamento di orientazione su \( \gamma \)».
Riporto solo la dimostrazione del caso interessante, cioè se il cambiamento di parametro inverte l'orientazione della curva.
Si ha
\[ \int_{\gamma} f\, {\rm d}s = \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
cambiamo parametrizzazione della curva ponendo \( t = \varphi(u) \), con \( \varphi : [c,d] \rightarrow [a,b] \) derivabile, invertibile e decrescente. Si ha allora \( \varphi'(u) \le 0 \), perciò
\[ \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u) = - \left | \mathbf{r}'(\varphi(u)) \varphi'(u) \right | = - \left | \frac{\rm d}{{\rm d}u} \mathbf{r}(\varphi(u)) \right | \]
Inoltre, in questo caso sarà \( \varphi(c) = b \) e \( \varphi(d) = a \), perciò il cambio di variabile \( t = \varphi(u) \) nell'integrale porta a
\[ \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t = \int_d^c f(\mathbf{r}(\varphi(u))) \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u)\, {\rm d}u \]
Sviluppando, si ottiene
\[ \int_d^c f(\mathbf{r}(\varphi(u))) \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u)\, {\rm d}u = -\int_d^c f(\mathbf{r}(\varphi(u))) \left | \frac{\rm d}{{\rm d}u} \mathbf{r}(\varphi(u)) \right |\, {\rm d}u = \int_c^d f(\tilde{\mathbf{r}}(u)) \left | \tilde{\mathbf{r}}'(u) \right |\, {\rm d}u \]
da cui la tesi.
Conclusioni
Credo che la divergenza tra quanto scritto da gugo e quanto riportato dal mio testo sia dovuta al fatto che gugo ha definito l'integrale di linea di prima specie lungo curve orientate, mentre il mio testo no.
Tuttavia sono confuso, perché non riesco a capire come interviene il fatto che il percorso di integrazione sia orientato nei discorsi che sono stati fatti.
Qualche opinione in merito?
Partiamo dall'inizio. Mi è saltato all'occhio questo confronto tra integrale di linea di prima specie e integrale di linea di seconda specie:
«L'integrale di linea di prima specie di una funzione continua \( f \) lungo una curva \( \gamma \) parametrizzata da \( \mathbf{r}(t) = (x(t),y(t),z(t)) \), \( t \in [a,b] \) è
\[ \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
L'integrale di linea di seconda specie, lungo \( \gamma \), del campo \( \mathbf{F} \) è
\[ \int_a^b \mathbf{F}(\mathbf{r}(t)) \cdot \mathbf{r}'(t)\, {\rm d}t \]
L'integrale di linea di prima specie è invariante per cambiamenti di parametrizzazione della curva, anche quando la nuova parametrizzazione ne cambia l'orientazione.
L'integrale di linea di seconda specie, invece, cambia segno se si cambia l'orientazione sulla curva, mentre continua ad essere invariante per cambiamenti di parametro che non alterino l'orientazione.
Shockato dall'affermazione in grassetto, vado a vedere come arriva in precedenza a giustificarla e ne trovo una dimostrazione.
Inizio dalla definizione di integrale che riporta:
Sia \( \mathbf{r} : [a,b] \rightarrow \mathbb{R}^m \) un arco di curva regolare di sostegno \( \gamma \) e sia \( f : A \subseteq \mathbb{R}^m \rightarrow \mathbb{R} \), con \( \gamma \subseteq A \). Si dice integrale di linea di prima specie di \( f \) lungo \( \gamma \) l'integrale
\[ \int_{\gamma} f\, {\rm d}s = \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
Subito dopo, passa ad enunciare la seguente proposizione.
«L'integrale di \( f \) di prima specie lungo \( \gamma \) è invariante per parametrizzazioni equivalenti ed anche per cambiamento di orientazione su \( \gamma \)».
Riporto solo la dimostrazione del caso interessante, cioè se il cambiamento di parametro inverte l'orientazione della curva.
Si ha
\[ \int_{\gamma} f\, {\rm d}s = \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t \]
cambiamo parametrizzazione della curva ponendo \( t = \varphi(u) \), con \( \varphi : [c,d] \rightarrow [a,b] \) derivabile, invertibile e decrescente. Si ha allora \( \varphi'(u) \le 0 \), perciò
\[ \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u) = - \left | \mathbf{r}'(\varphi(u)) \varphi'(u) \right | = - \left | \frac{\rm d}{{\rm d}u} \mathbf{r}(\varphi(u)) \right | \]
Inoltre, in questo caso sarà \( \varphi(c) = b \) e \( \varphi(d) = a \), perciò il cambio di variabile \( t = \varphi(u) \) nell'integrale porta a
\[ \int_a^b f(\mathbf{r}(t)) \left | \mathbf{r}'(t) \right |\, {\rm d}t = \int_d^c f(\mathbf{r}(\varphi(u))) \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u)\, {\rm d}u \]
Sviluppando, si ottiene
\[ \int_d^c f(\mathbf{r}(\varphi(u))) \left | \mathbf{r}'(\varphi(u)) \right | \varphi'(u)\, {\rm d}u = -\int_d^c f(\mathbf{r}(\varphi(u))) \left | \frac{\rm d}{{\rm d}u} \mathbf{r}(\varphi(u)) \right |\, {\rm d}u = \int_c^d f(\tilde{\mathbf{r}}(u)) \left | \tilde{\mathbf{r}}'(u) \right |\, {\rm d}u \]
da cui la tesi.
Conclusioni
Credo che la divergenza tra quanto scritto da gugo e quanto riportato dal mio testo sia dovuta al fatto che gugo ha definito l'integrale di linea di prima specie lungo curve orientate, mentre il mio testo no.
Tuttavia sono confuso, perché non riesco a capire come interviene il fatto che il percorso di integrazione sia orientato nei discorsi che sono stati fatti.
Qualche opinione in merito?
Opinione?
Beh, semplice, ho scritto una ca***ta io, sovrapponendo le considerazioni che si fanno nella costruzione dell'integrale di Stieltjes con la situazione che si presenta quando si costruiscono gli integrali curvilinei.
La cosa in effetti non mi quadrava (troppo casino per dimostrare quella cosa lì) e "la gatta per la fretta...."
Scusa, Ric, correggo.
Beh, semplice, ho scritto una ca***ta io, sovrapponendo le considerazioni che si fanno nella costruzione dell'integrale di Stieltjes con la situazione che si presenta quando si costruiscono gli integrali curvilinei.
La cosa in effetti non mi quadrava (troppo casino per dimostrare quella cosa lì) e "la gatta per la fretta...."

Scusa, Ric, correggo.
Son contento che abbiamo chiarito questa cosa.
Potresti mandarmi (anche via p.m.) una scansione delle pagine del testo di Cafiero che parlano della costruzione intrinseca dell'integrale? Mi piacerebbe fare un confronto (purtroppo non possiedo quel testo).
Potresti mandarmi (anche via p.m.) una scansione delle pagine del testo di Cafiero che parlano della costruzione intrinseca dell'integrale? Mi piacerebbe fare un confronto (purtroppo non possiedo quel testo).
"gugo82":
Per dimostrare questo fatto si ragiona così come si è ragionato per dimostrare la formula per il calcolo della lunghezza di una curva regolare (quindi la dimostrazione la tralascio... Se serve, basta fare un fischio).
Io ci ho provato a fare gli stessi ragionamenti, ma non ne sono uscito vivo.
Potresti (quando hai tempo e voglia) scrivere per esteso la dimostrazione del risultato \( \int_{\Gamma} f\ \text{d}\sigma = \int_a^b f(\varphi (t))\ \left| \varphi^\prime (t)\right|\ \text{d} t \)? In altre parole, sto facendo il fischio.

Da quel che ho capito l'idea di fondo è mostrare che, preso un qualunque \( \varepsilon > 0 \), sia verificata la disuguaglianza
\[ \left | \int_{\Gamma} f\, {\rm d}\sigma - \int_a^b f(\varphi (t))\ \left| \varphi^\prime (t)\right|\ \text{d} t \right | < \varepsilon \]
ma da qui a fare tutto il resto ho bisogno di aiuto.
"gugo82":
"Date due parametrizzazioni \(\phi \in C([a,b];\mathbb{R}^N)\) e \(\psi \in C([c,d];\mathbb{R}^N)\) della medesima curva continua \(\Gamma\), si pone:
\[
\phi \approx \psi
\]
se e solo se il cambiamento di parametro \(u:[a,b]\to [c,d]\) è strettamente crescente."[/list:u:1w711dup]
Geometricamente, se \(P\) e \(Q\) sono punti distinti del sostegno \(C\) di \(\Gamma\) e \(\phi\) e \(\psi\) sono due parametrizzazioni distinte di \(\Gamma\), esistono punti \(t,\tau \in [a,b]\) ed \(s,\sigma \in [c,d]\) tali che:
\[
\phi (t)=P=\psi (s)\qquad \text{e}\qquad \psi (\tau)=Q=\psi (\sigma)\; ;
\]
ora, supposto per semplicità che \(t<\tau\), se \(\phi \approx \psi\) si ha pure \(s=u(t)u(\tau)=\sigma\).
Ciò non è vero in generale se $\phi$ non è iniettiva. Ad esempio se \(\phi(t)=(\cos(t), \operatorname{sen}(t))\) per $t\in [0, 2 \pi]$, $\psi=\phi$, $P=(1,0)$ e $Q=(-1,0)$, si ha $\phi(0)=P=\psi(2\pi)$ e $\phi(\pi)=Q=\psi(\pi)$.