Prodotto vettoriale in un integrale (?!)
Salve ragazzi,
sto studiando i campi magnetici. Che razza di integrale è una cosa del genere?
\[\int^{\mathbf{r}(B)}_{\mathbf{r}(A)} \mathbf{G}\times d\mathbf{r}\]
$\mathbf{G}$, si capisce, è un campo vettoriale...non so se può essere rilevante, ma si tratta della seconda legge elementare di Laplace:
\[\mathbf{F}=i\int^Q_P d\mathbf{s}\times\mathbf{B}\]
dove $\mathbf{B}$ è il campo magnetico ed $i$ la corrente.
Non ho mai trovato una cosa simile in Analisi 2
mi perdo/mi sfugge qualcosa?
Se si tratta di intuire "fisicamente" quello che sto calcolando ci arrivo, ma per il resto buio totale...
sto studiando i campi magnetici. Che razza di integrale è una cosa del genere?
\[\int^{\mathbf{r}(B)}_{\mathbf{r}(A)} \mathbf{G}\times d\mathbf{r}\]
$\mathbf{G}$, si capisce, è un campo vettoriale...non so se può essere rilevante, ma si tratta della seconda legge elementare di Laplace:
\[\mathbf{F}=i\int^Q_P d\mathbf{s}\times\mathbf{B}\]
dove $\mathbf{B}$ è il campo magnetico ed $i$ la corrente.
Non ho mai trovato una cosa simile in Analisi 2

Se si tratta di intuire "fisicamente" quello che sto calcolando ci arrivo, ma per il resto buio totale...
Risposte
Ciao Plepp, se ti può tranquilizzare un integrale simile l'ho trovato anch'io quando stavo studiando il momento d'inerzia. Beh, se lo interpreti come una somma di contributi infinitesimi credo che il significato sia evidente, ma matematicamente (anzi, analiticamente) non saprei proprio come muovermi. Aspettiamo il parere di qualche esperto, ciao!
Eheheh che questo è il "guaio"...interpretarlo "all'antica" è semplice (una volta tanto...di solito faccio più confusione così che non ragionando come in Analisi)

Non so se ti può essere d'aiuto.
Ti posto le pagine del mencuccini silvestrini sull'argomento:
Ti posto le pagine del mencuccini silvestrini sull'argomento:
Grazie Lisdap, sempre gentilissimo
però, una volta tanto, non è questione di Mazzoldi*
è una mia curiosità...
_____________________________________________
*anche se, come vedo, la sua solita stupidaggine (a mio avviso) l'ha fatta: che senso ha parlare della forza che una particella subisce quando è immersa in un campo magnetico, senza aver spiegato prima per bene cos'è questo benedetto campo magnetico? Il tuo libro (ripeto: una favola
), invece, fa il contrario, come trovo naturale che sia.


_____________________________________________
*anche se, come vedo, la sua solita stupidaggine (a mio avviso) l'ha fatta: che senso ha parlare della forza che una particella subisce quando è immersa in un campo magnetico, senza aver spiegato prima per bene cos'è questo benedetto campo magnetico? Il tuo libro (ripeto: una favola

Ma qual è il problema? Non riesci ad attribuire un significato all'integrale di una funzione a valori vettoriali? Non c'è problema a definire una nozione di integrale per funzioni a valori in uno spazio vettoriale. Se questo spazio vettoriale è finito dimensionale tale integrale coinciderà con il vettore le cui componenti sono gli integrali, semplicemente. Infatti spesso si taglia corto e si definisce direttamente l'integrale così.
Intuitivamente la storia è sempre la stessa: si approssima l'integrale con una somma di Riemann (che ha senso, perché è una combinazione lineare) e si fa tendere a zero l'ampiezza della partizione.
Vedi qui per dettagli sulla costruzione formale:
post431407.html#p431407
Intuitivamente la storia è sempre la stessa: si approssima l'integrale con una somma di Riemann (che ha senso, perché è una combinazione lineare) e si fa tendere a zero l'ampiezza della partizione.
Vedi qui per dettagli sulla costruzione formale:
post431407.html#p431407
"dissonance":
Ma qual è il problema? Non riesci ad attribuire un significato all'integrale di una funzione a valori vettoriali? Non c'è problema a definire una nozione di integrale per funzioni a valori in uno spazio vettoriale. Se questo spazio vettoriale è finito dimensionale tale integrale coinciderà con il vettore le cui componenti sono gli integrali, semplicemente. Infatti spesso si taglia corto e si definisce direttamente l'integrale così.
Beh, dissonance, penso che qualunque studente di Ingegneria che abbia superato Analisi 2 sappia qual'è l'integrale di una funzione a valori vettoriali


\[\int r(t)\,dt = \left(\int r_1(t)\,dt,\dots, \int r_N(t)\,dt \right)\]
Una cosa simile per le funzioni da $RR^N$ in $RR^K$. Va benissimo, nessuno scandalo, ci mancherebbe

Però, un prodotto vettoriale tra la funzione vettoriale (di variabile reale o vettoriale che sia) e il $d\mathbf{r}$ non l'ho mai incontrato (al massimo, ho trovato un prodotto scalare, in alcune notazioni utilizzate per indicare l'integrale curvilineo)...e trovo qualche difficoltà ad attribuire un senso matematico a questo prodotto, dopo tutti i discorsi che si dono fatti sui $\text{d-qualcosa}$

Che mi dici? Grazie per l'intervento.
Dico che la cosa migliore è ragionare in termini di spostamenti infinitesimi, perché è così che sono state ricavate quelle formule. Quando poi vuoi calcolare esplicitamente l'integrale basta prendere coordinate cartesiane \(x, y, z\), di versori \(e_1, e_2, e_3\), in modo che esso diventi
\[\int B \times ds= \sum_{i, j, k=1}^3 \left(\int \varepsilon_{ijk}B_i dx_j\right)e_k\]
che poi è anche una ben precisa definizione dal punto di vista strettamente matematico, e puoi dormire tranquillo.
Il calcolo vettoriale classico non è il contesto adatto a farsi questi problemi. Se vuoi vedere la teoria di differenziazione ed integrazione sotto una luce più moderna e avanzata devi studiare la geometria differenziale. Ad esempio puoi trovare del materiale interessante sulla questione in esame nel bellissimo libro The Geometry of Physics di Frankel, parte prima, paragrafo "Vector Analysis in \(\mathbb{R}^3\)".
\[\int B \times ds= \sum_{i, j, k=1}^3 \left(\int \varepsilon_{ijk}B_i dx_j\right)e_k\]
che poi è anche una ben precisa definizione dal punto di vista strettamente matematico, e puoi dormire tranquillo.
Il calcolo vettoriale classico non è il contesto adatto a farsi questi problemi. Se vuoi vedere la teoria di differenziazione ed integrazione sotto una luce più moderna e avanzata devi studiare la geometria differenziale. Ad esempio puoi trovare del materiale interessante sulla questione in esame nel bellissimo libro The Geometry of Physics di Frankel, parte prima, paragrafo "Vector Analysis in \(\mathbb{R}^3\)".
@dissonance:
Ma riprendere il vecchio calcolo infinitesimale è un'idiozia?
Credo che tutte (sicuramente tutte quelle di fisica 1 e 2) le formule di Fisica (e Ingegneria) siano ricavate basandosi sul vecchio calcolo. Sei d'accordo con questa affermazione?
EDIT: lo so, sono paranoico
, ma io continuo a non vedere altre alternative per trovare coerenza...
Ma riprendere il vecchio calcolo infinitesimale è un'idiozia?
Credo che tutte (sicuramente tutte quelle di fisica 1 e 2) le formule di Fisica (e Ingegneria) siano ricavate basandosi sul vecchio calcolo. Sei d'accordo con questa affermazione?
EDIT: lo so, sono paranoico

Senti, c'è chi propone strade simili, vedi ad esempio i libri di Analisi non-standard per i licei proposti in copertina del sito. Io trovo che sia una idiozia, quei libri sono semplicemente minestra riscaldata, ovvero il vecchio calcolo infinitesimale riproposto pari pari ma con la clausola "Robinson ha dimostrato che gli infinitesimi hanno senso".
Meglio sviluppare una elasticità mentale che ci permetta di avere una corretta intuizione, e andare avanti nello studio finché non arriviamo a studiare il corretto formalismo moderno, trattato su libri come quello di Frankel che a me piace molto (hai provato a sfogliarlo, almeno?).
Sul rapporto corretto tra rigore e intuizione c'è una bella pagina di Terence Tao:
http://terrytao.wordpress.com/career-ad ... nd-proofs/
Meglio sviluppare una elasticità mentale che ci permetta di avere una corretta intuizione, e andare avanti nello studio finché non arriviamo a studiare il corretto formalismo moderno, trattato su libri come quello di Frankel che a me piace molto (hai provato a sfogliarlo, almeno?).
Sul rapporto corretto tra rigore e intuizione c'è una bella pagina di Terence Tao:
http://terrytao.wordpress.com/career-ad ... nd-proofs/
"dissonance":
(hai provato a sfogliarlo, almeno?).
Sicuramente sarà una delle mie prossime letture. Purtroppo il mio Inglese fa davvero schifo, e ciò è una grossa limitazione verso l'apprendimento

"dissonance":
Senti, c'è chi propone strade simili, vedi ad esempio i libri di Analisi non-standard per i licei proposti in copertina del sito. Io trovo che sia una idiozia, quei libri sono semplicemente minestra riscaldata, ovvero il vecchio calcolo infinitesimale riproposto pari pari ma con la clausola "Robinson ha dimostrato che gli infinitesimi hanno senso".
Comunque una letta non fa mai male, e le premesse di questo libro (gratuito in formato pdf) sono davvero buone!
Mi fa piacere, Paolo. Vedo che tu ne capisci sicuramente più di me e mi rassicura il fatto che tu sia d'accordo. Io non conosco l'analisi non standard se non per qualche lettura per passatempo dal blog di Terence Tao (*), quindi l'unica cosa di cui sono sicuro è che NON è una roba semplice. Per questo non posso essere convinto da libri che la propongono al liceo, tipo quello di Bonavoglia. Infatti a una rapida lettura quel libro non fa altro che prendere vecchiume tipo "la derivata di $x^2$ si ottiene sviluppando il binomio $(x+dx)^2$" e contrabbandarlo come analisi non standard.
Non è così che si scrive un buon libro di testo.
_____________
(*) Che avevo giù citato prima. Ultimamente prendo a citare sempre le stesse cose!
Non è così che si scrive un buon libro di testo.
_____________
(*) Che avevo giù citato prima. Ultimamente prendo a citare sempre le stesse cose!
"dissonance":
Dico che la cosa migliore è ragionare in termini di spostamenti infinitesimi, perché è così che sono state ricavate quelle formule. Quando poi vuoi calcolare esplicitamente l'integrale basta prendere coordinate cartesiane \(x, y, z\), di versori \(e_1, e_2, e_3\), in modo che esso diventi
\[\int B \times ds= \sum_{i, j, k=1}^3 \left(\int \varepsilon_{ijk}B_i dx_j\right)e_k\]
che poi è anche una ben precisa definizione dal punto di vista strettamente matematico, e puoi dormire tranquillo.
Halt


A prescindere da questo, mi sembra che tu abbia esplicitato il prodotto $\mathbf{B}\times d\mathbf{s}$ trattando il $d\mathbf{s}$ come un vettore vero e proprio, e qui c'ero arrivato pure io, come ti ho già detto...
"dissonance":
Il calcolo vettoriale classico non è il contesto adatto a farsi questi problemi. Se vuoi vedere la teoria di differenziazione ed integrazione sotto una luce più moderna e avanzata devi studiare la geometria differenziale. Ad esempio puoi trovare del materiale interessante sulla questione in esame nel bellissimo libro The Geometry of Physics di Frankel, parte prima, paragrafo "Vector Analysis in \(\mathbb{R}^3\)".
Non vedo l'ora di studiarla, questa benedetta geometria differenziale

[Semi-OT]
Giacché avete tirato fuori l'argomento, anch'io ho letto (anche se in maniera abbastanza superficiale) il libro di Bonavoglia, ed anche a me è parso che si stiano contrabbandando molti concetti del vecchio calcolo per quelli dell'ANS; inoltre si vuole spacciare per semplice/intuitiva quella roba, che evidentemente tanto semplice/intuitiva non è...
Ovviamente, io ne so molto molto poco di ANS, ma anche ad un ignorante come me la situazione è parsa evidente.
Sono pienamente d'accordo con Paolo90.
[Semi-OT]
"Plepp":
cos'è quel $\varepsilon_{ijk}$?
Beh, \(\varepsilon_{ijk}\) è il cosiddetto simbolo di Levi-Civita, che serve per scrivere in maniera compatta il prodotto vettoriale ed i determinanti.
Il simbolo è definito come segue:
\[
\varepsilon_{ijk} := \begin{cases} 1 &\text{, se la permutazione } (i\ j\ k) \text{ non contiene inversioni}\\
-1 &\text{, se la permuazione } (i\ j\ k) \text{ contiene un'inversione}\\
0 &\text{, altrimenti;}\end{cases}
\]
inoltre, dato che le permutazioni che non contengono inversioni sono quelle che "intuitivamente" conservano l'ordine, i.e. \((1\ 2\ 3),\ (2\ 3\ 1),\ (3\ 1\ 2)\), e che quelle che contengono una sola inversione sono quelle che "intuitivamente" scambiano di posto due numeri l'uno maggiore dell'altro, i.e. \((1\ 3\ 2),\ (2\ 1\ 3),\ (3\ 2\ 1)\), si può scrivere direttamente:
\[
\varepsilon_{ijk} := \begin{cases} 1 &\text{, se } (i\ j\ k)= (1\ 2\ 3),\ (2\ 3\ 1),\ (3\ 1\ 2)
\\ -1 &\text{, se } (i\ j\ k) = (1\ 3\ 2),\ (2\ 1\ 3),\ (3\ 2\ 1)\\
0 &\text{, altrimenti.}\end{cases}
\]
In maniera del tutto equivalente si può pure definire:
\[
\varepsilon_{ijk} := \frac{(i-j)\ (j-k)\ (k-i)}{2}\; ;
\]
lascio a te mostrare che le due definizioni sono del tutto equivalenti (basta fare un contariello).
Ad esempio, usando il simbolo di L-C, il prodotto vettoriale tra \(\mathbf{a}=(a^1,a^2,a^3)\) e \(\mathbf{b}=(b^1,b^2,b^3)\) nella base \(\{ \mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3\}\) si scrive:
\[
\mathbf{a}\times \mathbf{b} = \sum_{i,j,k=1}^3 \varepsilon_{ijk}\ \mathbf{e}_i\ a^j\ b^k
\]
(lascio a te dimostrare l'uguaglianza); d'altra parte ciò segue, in maniera del tutto formale of course, dalla formula del determinante:
\[
\begin{vmatrix} u_{11} & u_{12} & u_{13}\\
u_{21} & u_{22} & u_{23}\\
u_{31} & u_{32} & u_{33}\\\end{vmatrix} = \sum_{i,j,k=1}^3 \varepsilon_{ijk}\ u_{1i}\ u_{2j}\ u_{3k}
\]
(dimostrala!

Salve Gugo!
Scusa l'enorme ritardo, ma in questi giorni mi sono un po' "isolato" da tutto per dare l'esame di Fisica 2; ti ringrazio per l'intervento: come al solito, molto esauriente
Mah, che dire
l'equivalenza tra le due definizioni è facilmente dimostrabile, come dici tu, facendo un paio di conticini, ma al momento non trovo lo spunto per una dimostrazione più "elegante" (ammesso che sia possibile...).
L'identità
\[\mathbf{a}\times\mathbf{b}=\sum_{i,j,k=1}^3 \cdots\]
immagino segua dalla formula del determinante: per dimostrarla, forse, potrei usare il primo Teorema di Laplace. Sbaglio?
Scusa l'enorme ritardo, ma in questi giorni mi sono un po' "isolato" da tutto per dare l'esame di Fisica 2; ti ringrazio per l'intervento: come al solito, molto esauriente

Mah, che dire

L'identità
\[\mathbf{a}\times\mathbf{b}=\sum_{i,j,k=1}^3 \cdots\]
immagino segua dalla formula del determinante: per dimostrarla, forse, potrei usare il primo Teorema di Laplace. Sbaglio?