Dimostrazione di Binet con Levi Civita

alextimes
Salve a tutti, sto riscontrando delle difficoltà a digerire la dimostrazione del teorema di Binet (determinante del prodotto = prodotto dei determinanti), come da titolo, vi faccio vedere:
Siano A e B due matrici quadrate di dimensione n definite su un campo...

\(\displaystyle |AB|= \sum_{i_1 \ldots i_n} \epsilon_{i_1 \ldots i_n} \sum_{k1}a_{1 k_1}b_{k_1 i_1} \ldots \sum_{k_n}a_{nk_n} b_{k_n i_n} = \)
\(\displaystyle =\sum_{k_1 \ldots k_n} a_{1 k_1} \ldots a_{nk_n} \sum_{i_1 \ldots i_n} \epsilon_{i_1 \ldots i_n}b_{k_1 i_1} \ldots b_{k_n i_n} \)

Anzitutto non riesco ad abituarmi all'idea che abbia usato \(\displaystyle i_1 \ldots i_n \) come secondo pedice per l'elemento b e non \(\displaystyle 1 \ldots n \) ossia il primo pedice di a. Devo comprendere bene questo, che poi è l fulcro della dimostrazione perché è grazie a questo che 'porto fuori' a dalla sommatoria su i.
Il prosieguo è: dal momento che l'ultima espressione di \(\displaystyle |AB| \) ha per fattore destro \(\displaystyle |B| \) sarà necessario moltiplicare per \(\displaystyle \epsilon_{k_1 \ldots k_n} \) per ottenere

\(\displaystyle =\sum_{k_1 \ldots k_n} \epsilon_{k_1 \ldots k_n}a_{1 k_1} \ldots a_{nk_n} |B| = |AB| \)

Anche qui non è chiaro se quel \(\displaystyle \epsilon_{k_1 \ldots k_n} \) sia comparso assolutamente dal nulla per giustificare il segno della permutazione o era in realtà 'inglobato' già precedentemente in qualche altro fattore.

Ringrazio di cuore in anticipo chi sarà disposto ad aprirmi la mente con cortesia ed entusiasmo.
Love. ;-)

Risposte
killing_buddha
E' davvero necessario dimostrarlo con le sommatorie e tutto o accetti una dimostrazione da persona evoluta?

killing_buddha
Vabbè te la dico lo stesso: lo spazio delle forme $n$-lineari alternanti su $k^n$ ha dimensione \(\binom{n}{n}=1\), quindi ogni altra applicazione $n$-lineare alternante non costantemente nulla è un multiplo scalare non nullo di $\det$.

Ora, $B\mapsto \det(AB)$ è una tale applicazione $n$-lineare alternante, quindi $\det(AB)=\lambda\det(B)$; è ora facile dimostrare che $\lambda=\det(A)$.

alextimes
:-D Grazie ler la risposta,
Non è che non trovavo un'altra dimostrazione è che volevo davvero capire come si svolgeva questa, anche perché - per quanto sia brutta a vedersi - è solo di 3 passaggi.

In ogni caso anche per come l'hai proposta tu mi vengono spontanee altre domande :lol:
Perché la dimensione dello spazio vettoriale formato dalle forme n-lineari è proprio quella?

killing_buddha
"alextimes":
Perché la dimensione dello spazio vettoriale formato dalle forme n-lineari è proprio quella?

E' più facile vedere la dimostrazione trovando una base per lo spazio duale \(\mathcal A_k(V)^*\) delle \(k\)-lineari alternanti: la dimensione è poi la stessa, ovviamente.

Fissa una base di \(V\), spazio vettoriale su \(\mathbb K\) di dimensione \(n\) (e prendi la caratteristica del campo zero, o comunque diversa da due, altrimenti Gesù piange). Chiama questa base \(\{e_1,...,e_n\}\) e definisci il covettore
\[
e_I := e_{i_1}\land _{i_2}\land\dots\land e_{i_k} : \mathcal A_k(V)\to \mathbb K : f \mapsto f(e_{i_1},...,e_{i_k})
\] se \(I\) è una \(k\)-upla totalmente ordinata di elementi \(1\le i_1\le i_2\le\dots\le i_k\le n\). Dico che l'insieme dei covettori \(e_{i_1}\land _{i_2}\land\dots\land e_{i_k}\) genera lo spazio delle applicazioni \(k\)-lineari alternanti. Noto questo, è ovvio che allora la dimensione di tale spazio è \(\binom{n}{k}=\frac{n!}{k!(n-k)!}\), e la tesi segue.

Tale fatto si dimostra come si dimostrano tutti i fatti simili: questi elementi sono generatori e indipendenti.

alextimes
Dicendo così mi stimoli a dispiacere Gesù e a cercare di approfondire un po' di più il tuo discorso sul duale, ma così c'è anche il rischio di deviare un po' dal mio piccolo orticello didattico... speriamo non torni più confuso di prima... grazie per a pazienzs.

dissonance
"killing_buddha":
E' davvero necessario dimostrarlo con le sommatorie e tutto o accetti una dimostrazione da persona evoluta?

Anche a me piace di più la dimostrazione con l'algebra multilineare, però ho due remark da fare.

1. Imparare a fare i conti con gli indici, anche se sono antiestetici, non fa male. Prima si inizia e meglio è.

2. Per il "Principe de conservation de l'emmerdement" di Brezis, la dimostrazione multilineare, anche se meglio strutturata, non elimina la necessità di fare dei conti; li sposta e li organizza meglio, ma non li elimina. Infatti, per portare a termine quella dimostrazione servono varie proprietà: la dimensione del duale è uguale alla dimensione dello spazio di partenza, la dimensione dello spazio delle \(n\) forme è uguale a \(1\), ecc... Sommando l'emmerdement proveniente da ciascuna di queste proprietà, per il principio di Brezis, si troverà esattamente la stessa quantità di emmerdement contenuta nella dimostrazione con gli indici.

P.S.: Emmerdement significa "rottura, scocciatura" .http://www.grandidizionari.it/Dizionari ... mmerdement

killing_buddha
li sposta e li organizza meglio

E' la definizione di "persona evoluta che fa dimostrazioni evolute", sì. I teoremi strutturali, poi, non sono fonte di emmerdement: sono stati inventati per evitarlo.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.