Parentesi di Lie
Ciao, ho bisogno di qualcuno che possa aiutarmi su una domanda ignobile (nel senso di piuttosto sciocca).
Purtroppo sono un fisico e il nostro piano di studi non prevede molto di algebra (eufemismo per dire nulla) e trovandomi ad affrontare il corso di meccanica analitica il professore ne da un approccio molto matematico (gemoetria + algebra) e ci ha fatto un enorme preambolo su vari strumenti che utilizzeremo a cui non sono avvezzo tra cui anche algebra di lie e prima ancora parentesi di lie (+ geometria differenziale e suoi vari fibrati).
Ora, credo di non aver capito una questione piuttosto scema ma non so proprio a chi chiedere non avendo mai seguito corsi su questo ed essendo una introduzione al II anno di fisica.
Ad ogni modo venendo alla questione delle parentesi di lie:
Ci è stata definita la parentesi di lie che è in sostanza da quanto ho appreso da queste prime pagine sull'argomento è un campo vettoriale che per definirlo guardo la sua "azione" come derivazione su una funzione f; insomma: $[X,Y](f)=X(Yf)-Y(Xf)$
questo è il campo vettoriale generato da questa operazione della parentesi di lie, che è una operazione che tra le altre cose ha la proprietà di rispettare l'identità di jacobi: $[[X,Y],Z]+[[Y,Z],Z]+[[Z,X],Y]=0$
il mio dubbio sorge nel dimostrarla, nel senso che si va a sviluppare $[XY-YX,Z]+[YZ-ZY,Z]+[ZX-XZ,Y]=0$
Il mio dubbio stupido è che non comprendo perché: $[X,Y]=XY-YX$, perché di fatto io definisco $[X,Y]$ come sua "applicazione su f", $[X,Y]=X(Y*)-Y(X*)$ dove * ci devo mettere la f, se io scrivo $[X,Y]=XY-YX$ perdo il fatto che X agisce su (Yf), scritto così XY-YX mi sembra di perdere la precedenza delle operazioni date dalle parentesi tonde e su cosa agisca su f prima che X agisca su Y.
Scusate il linguaggio improprio ma volevo cercare di trasmettere il dubbio che mi attanaglia.
Grazie e scusate la domanda
PS: per fortuna al III anno abbiamo un corso di geometria differenziale e algebra di lie... peccato che sia dopo questo corso! Geniale. Quindi in qualche modo devo capire i concetti per andare avanti
Addendum: credo di aver appena dimostrato la mia idiozia, mi è venuto in mente che forse quella scritta dal prof era solo una notazione più breve ma che correttamente sarebbe:
$[[X,Y],Z](f)+[[Y,Z],Z](f)+[[Z,X],Y](f)=$
$[X,Y](Yf)-Z([X,Y]f)+[Y,Z](Xf)-X([Y,Z](f))+[Z,X](Yf)-Y([X,Y]f)=.....$
Purtroppo sono un fisico e il nostro piano di studi non prevede molto di algebra (eufemismo per dire nulla) e trovandomi ad affrontare il corso di meccanica analitica il professore ne da un approccio molto matematico (gemoetria + algebra) e ci ha fatto un enorme preambolo su vari strumenti che utilizzeremo a cui non sono avvezzo tra cui anche algebra di lie e prima ancora parentesi di lie (+ geometria differenziale e suoi vari fibrati).
Ora, credo di non aver capito una questione piuttosto scema ma non so proprio a chi chiedere non avendo mai seguito corsi su questo ed essendo una introduzione al II anno di fisica.
Ad ogni modo venendo alla questione delle parentesi di lie:
Ci è stata definita la parentesi di lie che è in sostanza da quanto ho appreso da queste prime pagine sull'argomento è un campo vettoriale che per definirlo guardo la sua "azione" come derivazione su una funzione f; insomma: $[X,Y](f)=X(Yf)-Y(Xf)$
questo è il campo vettoriale generato da questa operazione della parentesi di lie, che è una operazione che tra le altre cose ha la proprietà di rispettare l'identità di jacobi: $[[X,Y],Z]+[[Y,Z],Z]+[[Z,X],Y]=0$
il mio dubbio sorge nel dimostrarla, nel senso che si va a sviluppare $[XY-YX,Z]+[YZ-ZY,Z]+[ZX-XZ,Y]=0$
Il mio dubbio stupido è che non comprendo perché: $[X,Y]=XY-YX$, perché di fatto io definisco $[X,Y]$ come sua "applicazione su f", $[X,Y]=X(Y*)-Y(X*)$ dove * ci devo mettere la f, se io scrivo $[X,Y]=XY-YX$ perdo il fatto che X agisce su (Yf), scritto così XY-YX mi sembra di perdere la precedenza delle operazioni date dalle parentesi tonde e su cosa agisca su f prima che X agisca su Y.
Scusate il linguaggio improprio ma volevo cercare di trasmettere il dubbio che mi attanaglia.
Grazie e scusate la domanda

PS: per fortuna al III anno abbiamo un corso di geometria differenziale e algebra di lie... peccato che sia dopo questo corso! Geniale. Quindi in qualche modo devo capire i concetti per andare avanti

Addendum: credo di aver appena dimostrato la mia idiozia, mi è venuto in mente che forse quella scritta dal prof era solo una notazione più breve ma che correttamente sarebbe:
$[[X,Y],Z](f)+[[Y,Z],Z](f)+[[Z,X],Y](f)=$
$[X,Y](Yf)-Z([X,Y]f)+[Y,Z](Xf)-X([Y,Z](f))+[Z,X](Yf)-Y([X,Y]f)=.....$
Risposte
Non serve molto altro che un po' di algebra lineare per capire l'idea.
Prima di tutto, saprai bene che il prodotto di matrici (quadrate, nxn) non è commutativo. Il "commutatore" tra due matrici è definito proprio allo stesso modo: \([A,B] := AB-BA\), e per definizione è zero se e solo se \(AB=BA\). Pensando alla matrice \(\left(\begin{smallmatrix}
10^{-32} & 0.001 \\
0 & 3.5\times 10^{-12}
\end{smallmatrix}\right)\) come a una matrice 2x2 "molto vicina a essere zero" poi puoi dire una cosa come "\([A,B]\) è una misura di quanto lontane sono A e B dal commutare." Per contro, la matrice \(\left(\begin{smallmatrix}
106 & 203 \\
95409 & 54444
\end{smallmatrix}\right)\) è molto più lontana dal commutare.
Non c'è molto altro che questa idea, semplicemente trasportata dall'algebra lineare ad uno scenario leggermente più generale che è quello delle $k$-algebre dotate di un operatore come il commutatore di matrici.
Una cosa alla volta:
- una $k$-algebra è innanzitutto uno spazio vettoriale $V$ sul campo $k$;
- su $V$ è però anche definita una operazione bilineare di moltiplicazione \[(x+x')\cdot y = x\cdot y+ x'\cdot y,\]- che permette di definire un operatore come il commutatore, usando il prodotto di cui sopra invece del prodotto di matrici. E' chiaro che due elementi x,y di una $k$-algebra $V$ commutano se e solo se \([x,y]=xy-yx=0\). E' altrettanto chiaro che vale
\[[[X,Y],Z]+[[Y,Z],X]+[[Z,X],Y]=
(XY-YX)Z - Z(XY-YX)+(YZ-ZY)X-X(YZ-ZY)+(ZX-XZ)Y-Y(ZX-XZ)=\dots=0\] svolgendo con calma tutti i prodotti.
Un'algebra di Lie è una struttura simile, solo che non si richiede che la parentesi di Lie venga da un commutatore, ma semplicemente che esista -si fa la stessa cosa che si fa quando si ha a che fare con l'insieme dei polinomi, con le sue operazioni di somma, prodotto, eccetera, e se ne astrae la struttura per parlare di "anelli", oppure quando si prende \(L^p[0,1]\) e se ne astraggono le proprietà per studiare, poi, gli spazi di Banach in astratto.
C'è da aggiungere che in realtà poi si trova che l'esempio di un'algebra di commutatori non è poi così speciale, nel senso che ogni algebra di Lie $L$ si immerge in una canonica, dove la parentesi è interpretata come un commutatore: si chiama l'algebra inviluppante universale di $L$. Del resto questa è una storia lunga e per ora è solo una distrazione.
Ti lascio con una domanda: considera l'insieme \(\mathbb R[X]\) dei polinomi a coefficienti reali. Definisci l'operazione di commutatore rispetto al prodotto dato dalla composizione di polinomi, guardati come funzioni polinomiali. Per esempio, se \(f(X)=3 X^2+5 X-2\) e \(g(X)=X^4-2 X^3+X^2-5\), allora
\[[f,g](X)=f(g(X))-g(f(X))=-78 X^8-552 X^7-1062 X^6-162 X^5+1270 X^4+190 X^3-770 X^2+300 X+17\] Domanda: \(\mathbb R[X]\) è una \(\mathbb R\)-algebra rispetto al prodotto di composizione? E questa operazione rende \(\mathbb R[X]\) un'algebra di Lie? Pensaci su...
Prima di tutto, saprai bene che il prodotto di matrici (quadrate, nxn) non è commutativo. Il "commutatore" tra due matrici è definito proprio allo stesso modo: \([A,B] := AB-BA\), e per definizione è zero se e solo se \(AB=BA\). Pensando alla matrice \(\left(\begin{smallmatrix}
10^{-32} & 0.001 \\
0 & 3.5\times 10^{-12}
\end{smallmatrix}\right)\) come a una matrice 2x2 "molto vicina a essere zero" poi puoi dire una cosa come "\([A,B]\) è una misura di quanto lontane sono A e B dal commutare." Per contro, la matrice \(\left(\begin{smallmatrix}
106 & 203 \\
95409 & 54444
\end{smallmatrix}\right)\) è molto più lontana dal commutare.
Non c'è molto altro che questa idea, semplicemente trasportata dall'algebra lineare ad uno scenario leggermente più generale che è quello delle $k$-algebre dotate di un operatore come il commutatore di matrici.
Una cosa alla volta:
- una $k$-algebra è innanzitutto uno spazio vettoriale $V$ sul campo $k$;
- su $V$ è però anche definita una operazione bilineare di moltiplicazione \[(x+x')\cdot y = x\cdot y+ x'\cdot y,\]- che permette di definire un operatore come il commutatore, usando il prodotto di cui sopra invece del prodotto di matrici. E' chiaro che due elementi x,y di una $k$-algebra $V$ commutano se e solo se \([x,y]=xy-yx=0\). E' altrettanto chiaro che vale
\[[[X,Y],Z]+[[Y,Z],X]+[[Z,X],Y]=
(XY-YX)Z - Z(XY-YX)+(YZ-ZY)X-X(YZ-ZY)+(ZX-XZ)Y-Y(ZX-XZ)=\dots=0\] svolgendo con calma tutti i prodotti.
Un'algebra di Lie è una struttura simile, solo che non si richiede che la parentesi di Lie venga da un commutatore, ma semplicemente che esista -si fa la stessa cosa che si fa quando si ha a che fare con l'insieme dei polinomi, con le sue operazioni di somma, prodotto, eccetera, e se ne astrae la struttura per parlare di "anelli", oppure quando si prende \(L^p[0,1]\) e se ne astraggono le proprietà per studiare, poi, gli spazi di Banach in astratto.
C'è da aggiungere che in realtà poi si trova che l'esempio di un'algebra di commutatori non è poi così speciale, nel senso che ogni algebra di Lie $L$ si immerge in una canonica, dove la parentesi è interpretata come un commutatore: si chiama l'algebra inviluppante universale di $L$. Del resto questa è una storia lunga e per ora è solo una distrazione.
Ti lascio con una domanda: considera l'insieme \(\mathbb R[X]\) dei polinomi a coefficienti reali. Definisci l'operazione di commutatore rispetto al prodotto dato dalla composizione di polinomi, guardati come funzioni polinomiali. Per esempio, se \(f(X)=3 X^2+5 X-2\) e \(g(X)=X^4-2 X^3+X^2-5\), allora
\[[f,g](X)=f(g(X))-g(f(X))=-78 X^8-552 X^7-1062 X^6-162 X^5+1270 X^4+190 X^3-770 X^2+300 X+17\] Domanda: \(\mathbb R[X]\) è una \(\mathbb R\)-algebra rispetto al prodotto di composizione? E questa operazione rende \(\mathbb R[X]\) un'algebra di Lie? Pensaci su...
Non ero minimamente a conoscenza di questo signore "k-algebra"!
1) mi pare di no perché non ci vedo bilinearità con la somma tra polinomi. Mi chiedo però: se definisco una operazione "somma" a tavolino che rispetti la bilinearità con la composizione di polinomi avrei una k-algebra con quella somma e prodotto (composizione)? Oppure la somma richiesta nella definizione di k-algebra è quella dello spazio vettoriale per forza?
2) mi pare di si perché rispetta jacobi.
Risponderei così ma sicuro avrò sbagliato
Volevo inoltre gentilmente porti due domanduncole da fisico:
a) nella k-algebra mi viene facile vedere il commutatore perché deriva dalle operazioni che ho già diciamo così, e così la parentesi di lie come nel tuo esempio $[x,y]=xy−yx$. Però nel caso dei campi mi confonde il fatto che io debba definirle applicandole a una funzione $[X,Y](f)=X(Yf)−Y(Xf)$ e non capisco all'atto pratico questa cosa cosa implichi. Perché non è puramente un xy−yx degli elementi dello spazio vettoriale su cui si basa, ma devo "valutarli" in f. Non so perché ma questa "differenza" mi urta.
b) nel frattempo me la sono dimenticata
, mi verrà poi.
Domanda: R[X] è una R-algebra rispetto al prodotto di composizione? E questa operazione rende R[X] un'algebra di Lie? Pensaci su...
1) mi pare di no perché non ci vedo bilinearità con la somma tra polinomi. Mi chiedo però: se definisco una operazione "somma" a tavolino che rispetti la bilinearità con la composizione di polinomi avrei una k-algebra con quella somma e prodotto (composizione)? Oppure la somma richiesta nella definizione di k-algebra è quella dello spazio vettoriale per forza?
2) mi pare di si perché rispetta jacobi.
Risponderei così ma sicuro avrò sbagliato

Volevo inoltre gentilmente porti due domanduncole da fisico:
a) nella k-algebra mi viene facile vedere il commutatore perché deriva dalle operazioni che ho già diciamo così, e così la parentesi di lie come nel tuo esempio $[x,y]=xy−yx$. Però nel caso dei campi mi confonde il fatto che io debba definirle applicandole a una funzione $[X,Y](f)=X(Yf)−Y(Xf)$ e non capisco all'atto pratico questa cosa cosa implichi. Perché non è puramente un xy−yx degli elementi dello spazio vettoriale su cui si basa, ma devo "valutarli" in f. Non so perché ma questa "differenza" mi urta.
b) nel frattempo me la sono dimenticata

Uhm no, purtroppo devo aspettare la moderazione perché venga pubblicata la precedente, ma volevo correggere la mia risposta e aggiungere la b):
2)seppur vero che jacobi mi sembra valere, tuttavia non valendo la bilinearità mi fa saltare una delle richieste per essere algebra di lie. Quindi direi no anche per questa.
O almeno per quanto dice wikipedia: https://it.wikipedia.org/wiki/Algebra_di_Lie perché con la definizione del mio prof che richiede jacobi + anticommutatività della parentesi e basta funzionerebbe (andrebbero uniformate le due definizioni, perché con la mia risponderei si, con quella di wiki no).
b) scrivevi che
.
Se non avessi bilinearità mi pare che potrei definire sì il commutatore, al massimo non varrebbe jacobi perché non potrei calcolarlo senza quella "distributività".
[EDITATO link wiki]
2)seppur vero che jacobi mi sembra valere, tuttavia non valendo la bilinearità mi fa saltare una delle richieste per essere algebra di lie. Quindi direi no anche per questa.
O almeno per quanto dice wikipedia: https://it.wikipedia.org/wiki/Algebra_di_Lie perché con la definizione del mio prof che richiede jacobi + anticommutatività della parentesi e basta funzionerebbe (andrebbero uniformate le due definizioni, perché con la mia risponderei si, con quella di wiki no).
b) scrivevi che
- che permette di definire un operatore come il commutatore, usando il prodotto di cui sopra invece del prodotto di matrici.ma non ho capito perché dalla bilinearità discende che posso definire il commutatore, a me pare di poterlo definire anche senza di essa, ma definendo solo una operazione prodotto anche priva di quella proprietà.

Se non avessi bilinearità mi pare che potrei definire sì il commutatore, al massimo non varrebbe jacobi perché non potrei calcolarlo senza quella "distributività".
[EDITATO link wiki]
la somma richiesta nella definizione di k-algebra è quella dello spazio vettoriale per forza?Sì, davo per scontato che la somma sia proprio quella di vettori.
nel caso dei campi mi confonde il fatto che io debba definirle applicandole a una funzioneNon c'è differenza tra le due situazioni, semplicemente l'algebra di Lie data dal commutatore di matrici ha per elementi le matrici, e quella dei campi vettoriali dei funzionali che mangiano funzione e sputano funzione. Sempre vettori sono. C'è uno spazio vettoriale un elemento del quale è la funzione coseno...
dalla bilinearità discende che posso definire il commutatoreInfatti puoi farlo. E' saggio farlo?
Perfetto grazie 
Comunque direi che è chiaro.
Rimaneva solo quell'unico dubbio sulla risposta 2) alla tua domanda (intendendo la 1 corretta):

Infatti puoi farlo. E' saggio farlo?non mi sembra tanto saggio perché poi non avrei l'identità di jacobi quindi non era utile ai nostri scopi... però mi incuriosiva, perché da come avevi scritto mi sembrava discendesse dalla bilinearità il definire il commutatore e non mi tornava, ma avevo solo mal interpretato

Non c'è differenza tra le due situazioni, semplicemente l'algebra di Lie data dal commutatore di matrici ha per elementi le matrici, e quella dei campi vettoriali dei funzionali che mangiano funzione e sputano funzione. Sempre vettori sono. C'è uno spazio vettoriale un elemento del quale è la funzione coseno...sì certo è chiaro, solo che per le matrici l'operazione "commutatore" la posso definire grazie agli elementi stessi, nel caso di campi vettoriali devo applicarli a f per definire il commutatore. E quindi questa richiesta di avere in più la funzione su cui applicarli mi "destabilizzava".
Comunque direi che è chiaro.
Rimaneva solo quell'unico dubbio sulla risposta 2) alla tua domanda (intendendo la 1 corretta):
2) mi pare di si perché rispetta jacobi.alla fine R[X] è algebra di lie? perché stando alle due definizioni in un caso lo è nell'altro (se seguo wiki) mi par di no.
2)seppur vero che jacobi mi sembra valere, tuttavia non valendo la bilinearità mi fa saltare una delle richieste per essere algebra di lie. Quindi direi no anche per questa.
O almeno per quanto dice wikipedia: https://it.wikipedia.org/wiki/Algebra_di_Lie perché con la definizione del mio prof che richiede jacobi + anticommutatività della parentesi e basta funzionerebbe (andrebbero uniformate le due definizioni, perché con la mia risponderei si, con quella di wiki no).
Senza bilinearità non vale nemmeno Jacobi: prendi \(f,g,h\) tre polinomi generici di grado 1, diciamo \(f(X)=X+a,g(X)=X+b,h(X)=X+c\); allora \([[f,g],h]+[[h,f],g]+[[g,h],f]=-(a+b+c)\).
2) mi pare di si perché rispetta jacobi.
Già è vero che scemo, per evitarmi l'esempietto e la voglia di svolgermi il calcolo mi ero detto beh
$[[f,g],h]+[[h,f],g]+[[g,h],f]$ diventa:
$fgh-hfg-gfh+hgf+ghf-....$ e quindi si elidono anche senza bilinearità... sì, peccato che per ottenere quella forma serviva la bilinearità.
Ho capito ti ringrazio, comunque questa roba è proprio porno, ed è il motivo per cui se solo fossi stato più intelligente[nota]come puoi vedere dalle stronxate che ho detto sulle tue semplici domande[/nota] avrei fatto matematica
. Fighissima! Peccato ci sia spiegata alla cavolo. Spero il corso al terzo anno sia fatto meglio, essendo tenuto da un matematico e dovrebbe coprire queste cose.
$[[f,g],h]+[[h,f],g]+[[g,h],f]$ diventa:
$fgh-hfg-gfh+hgf+ghf-....$ e quindi si elidono anche senza bilinearità... sì, peccato che per ottenere quella forma serviva la bilinearità.
Ho capito ti ringrazio, comunque questa roba è proprio porno, ed è il motivo per cui se solo fossi stato più intelligente[nota]come puoi vedere dalle stronxate che ho detto sulle tue semplici domande[/nota] avrei fatto matematica

"casorzo":Concordo, andrebbe vietata sotto una certa età. E ho evitato di spiegarti come si costruisce l'algebra inviluppante universale di $L$, lì ti saresti venuto nelle mutande
comunque questa roba è proprio porno
Avrei fatto matematicaNon sei tu il problema, è che ti viene raccontata una storia porno da della gente spaventata dall'impiegare il linguaggio giusto. Prenditi un libro e studialo, le cose sono lì, non c'è mistero...
è che ti viene raccontata una storia porno da della gente spaventata dall'impiegare il linguaggio giustosì, perché questo corso di meccanica analitica è fatta da un fisico matematico e quindi i concetti sono tipo 4 corsi in uno, alla velocità della luce e sinceramente mi spiace perché è roba davvero potente.
C'è solo il corso al terzo anno che potrebbe un po' tamponare trattando geometria differenziale e algebra di lie approfonditamente, ma non capisco perché farlo dopo e non prima di quest'altro! Misteri della didattica.
Purtroppo sto sempre più rendendomi conto che se avessi avuto più coraggio e intelligenza avrei scelto matematica, ma ormai ho così tanti esami alle spalle superati che mi spiace cestinare tutto.... magari una seconda laurea, ci penserò

E' che passare una vita nella mezz'ombra della conoscenza mi scazza. Dovrò rifletterci
Prenditi un libro e studialo, le cose sono lì, non c'è mistero...Questo poco ma sicuro! Nel senso che il libro è la fonte da cui nutrirsi, però spesso è utile anche una guida, ossia qualcuno che sapendo la materia te ne parla. Le lezioni le ho trovate utili, come un Virgilio, poi da lì parti per i tuoi viaggi.
Ad esempio in termodinamica mi è stato molto utile, da solo avevo idee raffazzonate e la guida è stata ottima. Per questo stavo valutando una integrazione di una triennale. Mah, è che sento proprio una attrazione.