Determinante di \(A+\alpha I\)
Ciao Sergio
In che senso $S_(n-i)$ è la somma dei minori?
In che senso $S_(n-i)$ è la somma dei minori?
Risposte
"Sergio":
Pare che \(\det(\mathbf{A}+\alpha\mathbf{I})=\alpha^n+\sum_{i=0}^{n-1}\alpha^i\mathbf{S}_{n-i}\), dove \(\mathbf{A}\) è una matrice quadrata di ordine \(n\), \(\mathbf{I}\) è una matrice identità anch'essa ovviamente di ordine \(n\), \(\alpha\) un numero reale, mentre \(\mathbf{S}_{n-i}\) è la somma di tutti i minori principali di \(\mathbf{A}\) di ordine \(n-i\).
Francamente mi giunge nuova...
Prima che mi impazzisco, qualcuno sa dove potrei trovare una dimostrazione?
Ciao,
per capirci qualcosa partirei dal fatto che i coefficienti del polinomio caratteristico (a meno del segno) sono le tracce delle potenze esterne dell'endomorfismo (associato alla matrice quadrata), vedi per esempio
https://en.wikipedia.org/wiki/Exterior_algebra
queste sono legate ai minori (con gli indici giusti) una volta che scrivi la rappresentazione in coordinate della potenze esterne...è un po' noioso (non ho fatto i conti per controllare...)
Vediamo cosa succede per $n=2,3$.
Per $n=2$ risulta:
$|(a_(11) + alpha, a_(12)), (a_(21), a_(22) + alpha)| = alpha^2 + (a_(11) + a_(22)) alpha + det A$
e fin qui, ok; per $n=3$:
$|(a_(11) + alpha, a_(12), a_(13)), (a_(21), a_(22) + alpha, a_(23)), (a_(31), a_(32), a_(33) + alpha)| = alpha^3 + (a_(11) + a_(22)+ a_(33)) alpha^2 + ( |(a_(11), a_(12)), (a_(21), a_(22))| + |(a_(11), a_(13)), (a_(31), a_(33))| + |(a_(22), a_(23)), (a_(32), a_(33))| ) alpha $
$+ det A$
ed ok pure qui.
La dimostrazione del caso generale sembra una cosa combinatoria e credo si possa fare sfruttando la definizione di determinante coi prodotti dedotti… Ma francamente non mi va di fare i conti.
Per $n=2$ risulta:
$|(a_(11) + alpha, a_(12)), (a_(21), a_(22) + alpha)| = alpha^2 + (a_(11) + a_(22)) alpha + det A$
e fin qui, ok; per $n=3$:
$|(a_(11) + alpha, a_(12), a_(13)), (a_(21), a_(22) + alpha, a_(23)), (a_(31), a_(32), a_(33) + alpha)| = alpha^3 + (a_(11) + a_(22)+ a_(33)) alpha^2 + ( |(a_(11), a_(12)), (a_(21), a_(22))| + |(a_(11), a_(13)), (a_(31), a_(33))| + |(a_(22), a_(23)), (a_(32), a_(33))| ) alpha $
$+ det A$
ed ok pure qui.
La dimostrazione del caso generale sembra una cosa combinatoria e credo si possa fare sfruttando la definizione di determinante coi prodotti dedotti… Ma francamente non mi va di fare i conti.

https://math.stackexchange.com/question ... ant-of-i-a
P.S.: NO, questo è solo un caso particolare. Comunque lo lascio, forse può essere utile...
P.S.: NO, questo è solo un caso particolare. Comunque lo lascio, forse può essere utile...
"alessio76":
[quote="Sergio"]Pare che \(\det(\mathbf{A}+\alpha\mathbf{I})=\alpha^n+\sum_{i=0}^{n-1}\alpha^i\mathbf{S}_{n-i}\), dove \(\mathbf{A}\) è una matrice quadrata di ordine \(n\), \(\mathbf{I}\) è una matrice identità anch'essa ovviamente di ordine \(n\), \(\alpha\) un numero reale, mentre \(\mathbf{S}_{n-i}\) è la somma di tutti i minori principali di \(\mathbf{A}\) di ordine \(n-i\).
Francamente mi giunge nuova...
Prima che mi impazzisco, qualcuno sa dove potrei trovare una dimostrazione?
Ciao,
per capirci qualcosa partirei dal fatto che i coefficienti del polinomio caratteristico (a meno del segno) sono le tracce delle potenze esterne dell'endomorfismo (associato alla matrice quadrata), vedi per esempio
https://en.wikipedia.org/wiki/Exterior_algebra
queste sono legate ai minori (con gli indici giusti) una volta che scrivi la rappresentazione in coordinate della potenze esterne...è un po' noioso (non ho fatto i conti per controllare...)[/quote]
Ah, ho capito questa risposta ora. Ma non è ovvio quindi? Cosa manca alla dimostrazione?
"solaàl":
Ma non è ovvio quindi? Cosa manca alla dimostrazione?
La pazienza di scriverla?

Si può fare così per controllare che è vero in tutte le dimensioni basse:
Effettivamente quel che si vede è che
mat[n_] := Array[Subscript[a, ##] &, {n, n}] ess[A_] := Table[Tr[Minors[A, i]], {i, Length[A], 1, -1}] dets[A_] := CoefficientList[Det[A + t IdentityMatrix[Length[A]]], t] test[A_] := dets[A] - Join[ess[A], {1}] // Simplify
Effettivamente quel che si vede è che
In[41]:= Table[test[mat[i]], {i, 1, 8}] Out[41]= {{0, 0}, {0, 0, 0}, {0, 0, 0, 0}, {0, 0, 0, 0, 0}, {0, 0, 0, 0, 0, 0}, {0, 0, 0, 0, 0, 0, 0}, {0, 0, 0, 0, 0, 0, 0, 0}, {0, 0, 0, 0, 0, 0, 0, 0, 0}}
Un'idea potrebbe essere quella di interpretare il determinante come funzione multilineare che agisce sulle righe della matrice.
Ad esempio, per $n=3$, indicate con $A_1,A_2,A_3$ le righe di $A$ e con $e_1,e_2,e_3$ le righe della matrice identità, allora
\begin{array}{l}\mbox{det}(A+\alpha I)=\mbox{det}(A_1+\alpha e_{1},A_2+\alpha e_{2},A_3+\alpha e_3)=\\ \\=\mbox{det}(A_1,A_2,A_3)+\mbox{det}(A_1,A_2,\alpha e_3)+\mbox{det}(A_1,\alpha e_2,A_3)+\mbox{det}(A_1,\alpha e_2,\alpha e_3)+\\ \\+\mbox{det}(\alpha e_1,A_2,A_3)+\mbox{det}(\alpha e_1,A_2,\alpha e_3)+\mbox{det}(\alpha e_1,\alpha e_2, A_3)+\mbox{det}(\alpha e_1,\alpha e_2,\alpha e_3)\end{array}
A questo punto osserviamo che:
$\mbox{det}(A_1,A_2,A_3)=\mbox{det}(A)$;
$\mbox{det}(A_1,A_2,\alpha e_3)=\alpha\mbox{det}(A_1,A_2,e_3)=\alpha M_{3,3}^{(2)}$
dove $M_{3,3}^{(2)}$ è il minore principale di $A$ del secondo ordine ottenuto cancellando la 3° riga e la 3° colonna di $A$.
$\mbox{det}(A_1,\alpha e_2,A_3)=\alpha\mbox{det}(A_1,e_2,A_3)=\alpha M_{2,2}^{(2)}$
dove $M_{2,2}^{(2)}$ è il minore principale di $A$ di ordine 2 ottenuto cancellando la 2° riga e la 2° colonna di $A$
$\mbox{det}(A_1,\alpha e_2,\alpha e_3)=\alpha^2\mbox{det}(A_1,e_2,e_3)=\alpha^2 M_{(2,3),(2,3)}^{(1)}$
dove $M_{(2,3),(2,3)}^{(1)}$ è il minore di ordine 1 ottenuto cancellando la seconda e la terza riga, la seconda e la terza colonna di $A$... e così via per le altre.
$\mbox{det}(\alpha e_1,A_2,A_3)=\alpha\mbox{det}(e_1,A_2,A_3)=\alpha M_{1,1}^{(2)}$
$\mbox{det}(\alpha e_1,A_2,\alpha e_3)=\alpha^2\mbox{det}(e_1,A_2,e_3)=\alpha^2 M_{(1,3),(1,3)}^{(1)}$
$\mbox{det}(\alpha e_1,\alpha e_2, A_3)=\alpha^2\mbox{det}(e_1,e_2,A_3)=\alpha^2 M_{(1,2),(1,2)}^{(1)}$
$\mbox{det}(\alpha e_1,\alpha e_2,\alpha e_3)=\alpha^3\mbox{det}(I)=\alpha^3$
In definitiva
\begin{array}{l}\mbox{det}(A+\alpha I)=\mbox{det}(A)+\alpha M_{3,3}^{(2)}+\alpha M_{2,2}^{(2)}+\alpha^2 M_{(2,3),(2,3)}^{(1)}+\alpha M_{1,1}^{(2)}+\alpha^2 M_{(1,3),(1,3)}^{(1)}+\alpha^2 M_{(1,2),(1,2)}^{(1)}+\alpha^3 \\ \\ =\mbox{det}(A)+\alpha(M_{3,3}^{(2)}+M_{2,2}^{(2)}+ M_{1,1}^{(2)})+\alpha^2 (M_{(2,3),(2,3)}^{(1)}+M_{(1,3),(1,3)}^{(1)}+M_{(1,2),(1,2)}^{(1)})+\alpha^3\end{array}
Ora con lo stesso principio penso si possa dimostrare anche il caso generale. Purtroppo non sono stato in grado di alleggerire le notazioni e mi sono ingolfato tra sommatorie e indici...
Ad esempio, per $n=3$, indicate con $A_1,A_2,A_3$ le righe di $A$ e con $e_1,e_2,e_3$ le righe della matrice identità, allora
\begin{array}{l}\mbox{det}(A+\alpha I)=\mbox{det}(A_1+\alpha e_{1},A_2+\alpha e_{2},A_3+\alpha e_3)=\\ \\=\mbox{det}(A_1,A_2,A_3)+\mbox{det}(A_1,A_2,\alpha e_3)+\mbox{det}(A_1,\alpha e_2,A_3)+\mbox{det}(A_1,\alpha e_2,\alpha e_3)+\\ \\+\mbox{det}(\alpha e_1,A_2,A_3)+\mbox{det}(\alpha e_1,A_2,\alpha e_3)+\mbox{det}(\alpha e_1,\alpha e_2, A_3)+\mbox{det}(\alpha e_1,\alpha e_2,\alpha e_3)\end{array}
A questo punto osserviamo che:
$\mbox{det}(A_1,A_2,A_3)=\mbox{det}(A)$;
$\mbox{det}(A_1,A_2,\alpha e_3)=\alpha\mbox{det}(A_1,A_2,e_3)=\alpha M_{3,3}^{(2)}$
dove $M_{3,3}^{(2)}$ è il minore principale di $A$ del secondo ordine ottenuto cancellando la 3° riga e la 3° colonna di $A$.
$\mbox{det}(A_1,\alpha e_2,A_3)=\alpha\mbox{det}(A_1,e_2,A_3)=\alpha M_{2,2}^{(2)}$
dove $M_{2,2}^{(2)}$ è il minore principale di $A$ di ordine 2 ottenuto cancellando la 2° riga e la 2° colonna di $A$
$\mbox{det}(A_1,\alpha e_2,\alpha e_3)=\alpha^2\mbox{det}(A_1,e_2,e_3)=\alpha^2 M_{(2,3),(2,3)}^{(1)}$
dove $M_{(2,3),(2,3)}^{(1)}$ è il minore di ordine 1 ottenuto cancellando la seconda e la terza riga, la seconda e la terza colonna di $A$... e così via per le altre.
$\mbox{det}(\alpha e_1,A_2,A_3)=\alpha\mbox{det}(e_1,A_2,A_3)=\alpha M_{1,1}^{(2)}$
$\mbox{det}(\alpha e_1,A_2,\alpha e_3)=\alpha^2\mbox{det}(e_1,A_2,e_3)=\alpha^2 M_{(1,3),(1,3)}^{(1)}$
$\mbox{det}(\alpha e_1,\alpha e_2, A_3)=\alpha^2\mbox{det}(e_1,e_2,A_3)=\alpha^2 M_{(1,2),(1,2)}^{(1)}$
$\mbox{det}(\alpha e_1,\alpha e_2,\alpha e_3)=\alpha^3\mbox{det}(I)=\alpha^3$
In definitiva
\begin{array}{l}\mbox{det}(A+\alpha I)=\mbox{det}(A)+\alpha M_{3,3}^{(2)}+\alpha M_{2,2}^{(2)}+\alpha^2 M_{(2,3),(2,3)}^{(1)}+\alpha M_{1,1}^{(2)}+\alpha^2 M_{(1,3),(1,3)}^{(1)}+\alpha^2 M_{(1,2),(1,2)}^{(1)}+\alpha^3 \\ \\ =\mbox{det}(A)+\alpha(M_{3,3}^{(2)}+M_{2,2}^{(2)}+ M_{1,1}^{(2)})+\alpha^2 (M_{(2,3),(2,3)}^{(1)}+M_{(1,3),(1,3)}^{(1)}+M_{(1,2),(1,2)}^{(1)})+\alpha^3\end{array}
Ora con lo stesso principio penso si possa dimostrare anche il caso generale. Purtroppo non sono stato in grado di alleggerire le notazioni e mi sono ingolfato tra sommatorie e indici...

Mi sono ricordato di avere già parlato di questa formula qui:
https://math.stackexchange.com/a/2189752/8157
(cfr. the n\times n case). Il punto è che gli autovalori di \(I+A\) sono \(1+\lambda_j\), dove \(\lambda_j\), per \(j\) da \(1\) a \(n\), sono gli autovalori di \(A\). Siccome il determinante è il prodotto degli autovalori,
\[
\det(I+A)=\prod_{j=1}^n(1+\lambda_j)=1+ \sum_{j=1}^n \lambda_j +\sum_{j_1
E ora resta da dimostrare che
\[
\sum_{j_1<\ldots
è la somma dei minori principali di \(A\) di ordine \(k\). Nel link, questa cosa l'ho scritta senza dimostrazione, e in questo momento non saprei come dimostrarlo

non so se qualcuno prima di me aveva già parlato di questo approccio, mi sembra molto probabile, ma non ho seguito tutto il thread.
https://math.stackexchange.com/a/2189752/8157
(cfr. the n\times n case). Il punto è che gli autovalori di \(I+A\) sono \(1+\lambda_j\), dove \(\lambda_j\), per \(j\) da \(1\) a \(n\), sono gli autovalori di \(A\). Siccome il determinante è il prodotto degli autovalori,
\[
\det(I+A)=\prod_{j=1}^n(1+\lambda_j)=1+ \sum_{j=1}^n \lambda_j +\sum_{j_1
\[
\sum_{j_1<\ldots



non so se qualcuno prima di me aveva già parlato di questo approccio, mi sembra molto probabile, ma non ho seguito tutto il thread.
@Dissonance: molto carina quella relazione! 
Continuo a pensare che interpretare il determinante come funzione multilineare sia la strategia concettualmente più semplice, ma, di contro, si trascina un carrozzone di indici e sommatorie che rende la dimostrazione praticamente illeggibile.
Sono certo che la dimostrazione diventi "easy to see", una volta imbroccata la giusta notazione.

Continuo a pensare che interpretare il determinante come funzione multilineare sia la strategia concettualmente più semplice, ma, di contro, si trascina un carrozzone di indici e sommatorie che rende la dimostrazione praticamente illeggibile.
Sono certo che la dimostrazione diventi "easy to see", una volta imbroccata la giusta notazione.
Grazie Sergio! Ora posso morire in pace.

Un applauso a tutti:
Cambiando \(\alpha\) per \(-x\), questo thread dimostra che i coefficienti del polinomio caratteristico \(p_A(x)=\det(A-xI)\) sono le somme dei minori principali; il termine noto è il determinante, il coefficiente di \(x\) è meno la somma dei minori principali di ordine \(n-1\), e così via fino al termine \(x^{n-1}\), il cui coefficiente è \((-1)^{n-1}\) per la traccia (=somma dei minori principali di ordine \(1\)). Il coefficiente di \(x^n\) è \((-1)^n\).
E questo è quello che diceva Alessio con il linguaggio dell'algebra esterna. E questa dell'algebra esterna è una cosa che mi ha tormentato parecchie volte; mi ritrovo a pensare: non sarà che questa cosa complicata che sto scrivendo in realtà è una cavolata, se scritta in termini di algebra esterna?
Sergei Winitzki ha un libro in cui reinterpreta l'algebra lineare in termini di prodotti esterni:
http://www.math.umaine.edu/~weiss/books ... oducts.pdf
L'ho sfogliato varie volte. È interessante ed esteticamente gradevole, ma non mi è mai stato davvero utile.

Cambiando \(\alpha\) per \(-x\), questo thread dimostra che i coefficienti del polinomio caratteristico \(p_A(x)=\det(A-xI)\) sono le somme dei minori principali; il termine noto è il determinante, il coefficiente di \(x\) è meno la somma dei minori principali di ordine \(n-1\), e così via fino al termine \(x^{n-1}\), il cui coefficiente è \((-1)^{n-1}\) per la traccia (=somma dei minori principali di ordine \(1\)). Il coefficiente di \(x^n\) è \((-1)^n\).
E questo è quello che diceva Alessio con il linguaggio dell'algebra esterna. E questa dell'algebra esterna è una cosa che mi ha tormentato parecchie volte; mi ritrovo a pensare: non sarà che questa cosa complicata che sto scrivendo in realtà è una cavolata, se scritta in termini di algebra esterna?
Sergei Winitzki ha un libro in cui reinterpreta l'algebra lineare in termini di prodotti esterni:
http://www.math.umaine.edu/~weiss/books ... oducts.pdf
L'ho sfogliato varie volte. È interessante ed esteticamente gradevole, ma non mi è mai stato davvero utile.
Mah, tensori, lui fa solo il prodotto tensoriale. Ma è giusto un ammennicolo per appenderci il prodotto esterno. Non è una vera e propria algebra tensoriale, di quelle piene di indici alti, bassi, spaziati, diesis e bemolle. Si, avrebbe potuto definire direttamente il prodotto esterno, ma è esattamente lo stesso.
Come si definisce l'algebra esterna senza parlare di tensori?
Ma infatti è così. L'obiettivo, in fondo, è solo dare una definizione di \(v\wedge w\), dati due vettori \(v\) e \(w\). E questo convenzionalmente si fa definendo prima \(v\otimes w\), e poi ponendo
\[
v\wedge w := \frac{1}{2}(v\otimes w - w\otimes v).\]
Da questo momento in poi, \(\otimes\) sparisce. Ora, la definizione di \(v\otimes w\) è assiomatica; deve essere una roba bilineare in \((v, w)\), e niente più\(^{[1]}\). Quindi, uno potrebbe anche assiomaticamente definire direttamente \(v\wedge w\) e non scrivere neanche una volta il simbolo \(\otimes\). Questione di gusti; il secondo approccio risparmia un passaggio, ma a parte questo non cambia nulla.
P.S.: Non so se mi sono spiegato, sopra. In due parole, voglio dire che a rigore Sergio ha ragione: il prodotto tensoriale non è necessario per parlare di prodotto esterno. Togliendolo di mezzo, si risparmia qualcosa; ma in pratica, questo risparmio è minimo.
---
[1] Se \(v\in\mathbb R^n\) e \(w\in\mathbb R^m\), allora c'è un isomorfismo che permette di identificare \(v\otimes w\) con \(vw^T\) (da non confondere con il prodotto scalare \(v^Tw\)). Addendum: naturalmente, anche se per abitudine ho scritto \(\mathbb R^n\), questa è una cosa puramente algebrica e vale su un campo qualsiasi. L'unica differenza è che in generale \(v^T w\) non è un prodotto scalare.
\[
v\wedge w := \frac{1}{2}(v\otimes w - w\otimes v).\]
Da questo momento in poi, \(\otimes\) sparisce. Ora, la definizione di \(v\otimes w\) è assiomatica; deve essere una roba bilineare in \((v, w)\), e niente più\(^{[1]}\). Quindi, uno potrebbe anche assiomaticamente definire direttamente \(v\wedge w\) e non scrivere neanche una volta il simbolo \(\otimes\). Questione di gusti; il secondo approccio risparmia un passaggio, ma a parte questo non cambia nulla.
P.S.: Non so se mi sono spiegato, sopra. In due parole, voglio dire che a rigore Sergio ha ragione: il prodotto tensoriale non è necessario per parlare di prodotto esterno. Togliendolo di mezzo, si risparmia qualcosa; ma in pratica, questo risparmio è minimo.
---
[1] Se \(v\in\mathbb R^n\) e \(w\in\mathbb R^m\), allora c'è un isomorfismo che permette di identificare \(v\otimes w\) con \(vw^T\) (da non confondere con il prodotto scalare \(v^Tw\)). Addendum: naturalmente, anche se per abitudine ho scritto \(\mathbb R^n\), questa è una cosa puramente algebrica e vale su un campo qualsiasi. L'unica differenza è che in generale \(v^T w\) non è un prodotto scalare.
La definizione dell'algebra esterna mediante l'algebra tensoriale potrebbe venire dalla combinazione di due fatti: (1) due delle "fonti" di studio di questi oggetti sono la fisica matematica (tensori) e la geometria differenziale (integrazione su varietà, forme di volume...) quindi "ci sta" che uno introduca prima gli "oggetti concreti" (i tensori con indici "alti" e "bassi", etc...) e all'interno di quel framework sviluppi ulteriormente la teoria; (2) da un punto di vista moderatamente astratto sia l'algebra simmetrica (rozzamente: l'algebra "polinomiale" con polinomi commutativi) che l'algebra esterna sono entrambe quozienti dell'algebra tensoriale (ancora rozzamente: l'algebra "polinomiale" con polinomi non commutativi, o "algebra associativa libera")...quindi...i tensori (visti in modo più o meno astratto, o più o meno concreto, a seconda dei gusti...) son come il maiale, non si butta va niente... A complicare le cose ci sta il fatto che le si può anche definire come sottospazi dell'algebra tensoriale...(come nel terzo link...)
Sempre da un punto di vista mediamente astratto, si possono definire le potenze esterne di un K-spazio vettoriale V finito dimensionale (o per R-moduli liberi finitamente generati) mediante generatori e relazioni e provare a mano le proprietà (soprattutto: 1) la funtorialità e 2) l'espressione in coordinate dell'azione sulle mappe: queste due poi danno le forme forti del Teorema di Binet e una pletora di relazioni combinatoriche simpatiche), ma è poco meno della fatica che metter su la teoria dei prodotti tensoriali e poi quozientare...quindi...tanto vale...
Se uno rinuncia a lavorare con gli elementi e non è infastidito da un po' di "abstract nonsense" può ricondurre tutto
alle proprietà di completezza di un'opportuna categoria...ma poi ha un po' di lavoro da fare per ritrovarsi le relazioni carine su determinanti e minori...
Comunque si scelga di procedere, se uno ha voglia di lavorare un po' di più e definire per bene tutto senza lavorare con spazi vettoriali finitamente generati trova che (cfr. Th. 4.1 del quarto link...) uno spazio vettoriale ha dimensione finita se e solo se le sue potenze esterne sono definitivamente nulle e in tal caso la sua dimensione è la massima potenza che non si annulla (si definisce $\wedge^0 0:=K$...).
Delle tre, personalmente, essendo un pigro, seguirei la strada (2) con tensori...più o meno sulla falsa riga di una delle seguenti note (nel primo link, può essere utile l'osservazione 3.8 a pagina 13/ pag. 21 del quarto link...; nel secondo link, può essere utile, per "motivarsi" un po', andare subito a pagina 6, relazione (8); nel terzo link, che segue un'impostazione "sghemba", qualcosa di simile lo si trova a pagina 78, tra l'altro vi si trova una distinzione fra una versione "covariante" -ma funtorialmente controvariante- e una controvariante -ma funtorialmente covariante- della potenza esterna, per provare poi che sono l'una la duale dell'altra, in dimensione finita...ma non riporta una piena dimostrazione della compatibilità della costruzione con la composizione...):
http://www.dima.unige.it/~bartocci/ifm/algmult.pdf
http://www1.mat.uniroma1.it/people/salv ... /Cap_2.pdf
http://www.dima.unige.it/~carletti/DIDA ... ltilin.pdf
https://kconrad.math.uconn.edu/blurbs/l ... extmod.pdf
Delle quattro quella che mi soddisfa di più è la quarta, ma non è in italiano e lavora su moduli (oggetti un po' più generali degli spazi vettoriali).
Sempre da un punto di vista mediamente astratto, si possono definire le potenze esterne di un K-spazio vettoriale V finito dimensionale (o per R-moduli liberi finitamente generati) mediante generatori e relazioni e provare a mano le proprietà (soprattutto: 1) la funtorialità e 2) l'espressione in coordinate dell'azione sulle mappe: queste due poi danno le forme forti del Teorema di Binet e una pletora di relazioni combinatoriche simpatiche), ma è poco meno della fatica che metter su la teoria dei prodotti tensoriali e poi quozientare...quindi...tanto vale...
Se uno rinuncia a lavorare con gli elementi e non è infastidito da un po' di "abstract nonsense" può ricondurre tutto
alle proprietà di completezza di un'opportuna categoria...ma poi ha un po' di lavoro da fare per ritrovarsi le relazioni carine su determinanti e minori...
Comunque si scelga di procedere, se uno ha voglia di lavorare un po' di più e definire per bene tutto senza lavorare con spazi vettoriali finitamente generati trova che (cfr. Th. 4.1 del quarto link...) uno spazio vettoriale ha dimensione finita se e solo se le sue potenze esterne sono definitivamente nulle e in tal caso la sua dimensione è la massima potenza che non si annulla (si definisce $\wedge^0 0:=K$...).
Delle tre, personalmente, essendo un pigro, seguirei la strada (2) con tensori...più o meno sulla falsa riga di una delle seguenti note (nel primo link, può essere utile l'osservazione 3.8 a pagina 13/ pag. 21 del quarto link...; nel secondo link, può essere utile, per "motivarsi" un po', andare subito a pagina 6, relazione (8); nel terzo link, che segue un'impostazione "sghemba", qualcosa di simile lo si trova a pagina 78, tra l'altro vi si trova una distinzione fra una versione "covariante" -ma funtorialmente controvariante- e una controvariante -ma funtorialmente covariante- della potenza esterna, per provare poi che sono l'una la duale dell'altra, in dimensione finita...ma non riporta una piena dimostrazione della compatibilità della costruzione con la composizione...):
http://www.dima.unige.it/~bartocci/ifm/algmult.pdf
http://www1.mat.uniroma1.it/people/salv ... /Cap_2.pdf
http://www.dima.unige.it/~carletti/DIDA ... ltilin.pdf
https://kconrad.math.uconn.edu/blurbs/l ... extmod.pdf
Delle quattro quella che mi soddisfa di più è la quarta, ma non è in italiano e lavora su moduli (oggetti un po' più generali degli spazi vettoriali).
"dissonance":Questo non mi sembra vero... Non deve essere solo bilineare, deve anche essere universale.
Ora, la definizione di \(v\otimes w\) è assiomatica; deve essere una roba bilineare in \((v, w)\), e niente più\(^{[1]}\).
@solaal: si, certo, io riporto il punto di vista del libro di Winitzki. Avevo messo delle virgolette su quell'espressione, ma poi per qualche motivo le ho cancellate.