Condizione per la dipendenza lineare di vettori di $K^m$
Provo a riformulare un dubbio relativo alla dimostrazione di un teorema che sono convinto di avere "trascritto" correttamente, ma di cui non riesco proprio a essere convinto:
"Consideriamo gli $n$ vettori $\xi _(s)=(a_(1s),a_(2s), ... , a_(ms))inK^m$ $(s=1,2, ... , n)$ e con essi si formino le colonne della matrice
$((a_(11),a_(12),...,a_(1n)) , (a_(21),a_(22),...,a_(2n)) , (... , ... , ... , ...) , (a_(m1),a_(m2),...,a_(mn)))$. Sia $\rho(A)=p$ la caratteristica di $A$ $(p<=m, p<=n)$.
Poiché i vettori $\xi _(s)$ generano in $K^m$ un sottospazio avente dimensione $p$, $p+1$ colonne di $A$ - comunque scelte - risultano l.d. su $K$ e, quindi, risultano tutti nulli i minori di ordine $p+1$ di $A$ - e, naturalmente, anche quelli di ordine $>p+1$ -.
Inversamente, sia $q$ il massimo ordine di minori non nulli che si possono estrarre da $A$ - sarà, certamente, $q<=p$ e sia,
ad es., $ | (a_(11),a_(12),...,a_(1q)) ,(a_(21),a_(22),...,a_(2q)) , (...,...,...,...) , (a_(q1),a_(q2),...,a_(qq))| $ $= \mu != 0$.
Risulta, allora, nullo qualsiasi determinante del tipo di
$ | (a_(11),...,a_(1q),a_(1j)) , (...,...,...,...) , (a_(q1),...,a_(qq),a_(qj)) , (a_(l1),...,a_(lq),a_(lj)) | $ $=$
$=\lambda_1a_(l1)+\lambda_2a_(l2)+ ... +lambda_qa_(lq)+\lambdaa_(lj)$ $(j=1,2, ... , n;l=1,2, ... , m)$.
Ma, dal momento che $\lambda=\mu!=0$ $=>$ il vettore $\xi_j$ risulta C.L. di $\xi_1, \xi_2, . . ., \xi_q$.
Quindi, la dimensione $\rho(A)=p$ del sottospazio generato da $\xi_1, \xi_2, . . ., \xi_n$ risulta $p<=q$.
Ma, se $q<=p$ e - al tempo stesso - $p<=q$, non può che essere $p=q$.
Quindi, la caratteristica di una matrice si può anche definire come ordine massimo dei suoi minori non nulli."
Risulta chiaro che $a_(lj)$ è C.L. degli elementi della sua riga:
$\lambda_1a_(l1)+\lambda_2a_(l2)+ ... +lambda_qa_(lq)+\lambdaa_(lj)=0$ $=>$
$=>$ $a_(lj)=-\lambda_1/\lambdaa_(l1)-\lambda_2/\lambdaa_(l2)- ... -lambda_q/\lambdaa_(lq)$.
Anche a me risulta chiaro che, se effettuo il calcolo relativo ad un altro elemento della stessa colonna aggiunta alla matrice, ottengo sempre la stessa forma di combinazione lineare, ma - per poter concludere che quella colonna è combinazione lineare delle altre - occorre (evidentemente!) che i corrispettivi coefficienti $\lambda_j$ siano gli stessi.
Questo è il punto cruciale del teorema, ma - siccome non mi pare che sia evidente "a priori" e, per altro, si tratta, ogni volta, di calcoli eseguiti su elementi diversi della matrice che devono essere del tutto generici - non riesco proprio a comprendere come il teorema dimostri l'eguaglianza dei rispettivi coefficienti $\lambda_j$, condizione in assenza della quale non mi sembra si possa concludere.
Neppure mi aiuta la notazione adottata dal prof., che indica i coefficienti come $\lambda_j$. Capisco che voglia intendere che dipendano soltanto dall'indice $j$, ma dipendere solo da $j$ non implica che siano necessariamente eguali.
Grazie $\infty$ a chi avrà la cortesia - e la pazienza - per potermi dare una mano.
"Consideriamo gli $n$ vettori $\xi _(s)=(a_(1s),a_(2s), ... , a_(ms))inK^m$ $(s=1,2, ... , n)$ e con essi si formino le colonne della matrice
$((a_(11),a_(12),...,a_(1n)) , (a_(21),a_(22),...,a_(2n)) , (... , ... , ... , ...) , (a_(m1),a_(m2),...,a_(mn)))$. Sia $\rho(A)=p$ la caratteristica di $A$ $(p<=m, p<=n)$.
Poiché i vettori $\xi _(s)$ generano in $K^m$ un sottospazio avente dimensione $p$, $p+1$ colonne di $A$ - comunque scelte - risultano l.d. su $K$ e, quindi, risultano tutti nulli i minori di ordine $p+1$ di $A$ - e, naturalmente, anche quelli di ordine $>p+1$ -.
Inversamente, sia $q$ il massimo ordine di minori non nulli che si possono estrarre da $A$ - sarà, certamente, $q<=p$ e sia,
ad es., $ | (a_(11),a_(12),...,a_(1q)) ,(a_(21),a_(22),...,a_(2q)) , (...,...,...,...) , (a_(q1),a_(q2),...,a_(qq))| $ $= \mu != 0$.
Risulta, allora, nullo qualsiasi determinante del tipo di
$ | (a_(11),...,a_(1q),a_(1j)) , (...,...,...,...) , (a_(q1),...,a_(qq),a_(qj)) , (a_(l1),...,a_(lq),a_(lj)) | $ $=$
$=\lambda_1a_(l1)+\lambda_2a_(l2)+ ... +lambda_qa_(lq)+\lambdaa_(lj)$ $(j=1,2, ... , n;l=1,2, ... , m)$.
Ma, dal momento che $\lambda=\mu!=0$ $=>$ il vettore $\xi_j$ risulta C.L. di $\xi_1, \xi_2, . . ., \xi_q$.
Quindi, la dimensione $\rho(A)=p$ del sottospazio generato da $\xi_1, \xi_2, . . ., \xi_n$ risulta $p<=q$.
Ma, se $q<=p$ e - al tempo stesso - $p<=q$, non può che essere $p=q$.
Quindi, la caratteristica di una matrice si può anche definire come ordine massimo dei suoi minori non nulli."
Risulta chiaro che $a_(lj)$ è C.L. degli elementi della sua riga:
$\lambda_1a_(l1)+\lambda_2a_(l2)+ ... +lambda_qa_(lq)+\lambdaa_(lj)=0$ $=>$
$=>$ $a_(lj)=-\lambda_1/\lambdaa_(l1)-\lambda_2/\lambdaa_(l2)- ... -lambda_q/\lambdaa_(lq)$.
Anche a me risulta chiaro che, se effettuo il calcolo relativo ad un altro elemento della stessa colonna aggiunta alla matrice, ottengo sempre la stessa forma di combinazione lineare, ma - per poter concludere che quella colonna è combinazione lineare delle altre - occorre (evidentemente!) che i corrispettivi coefficienti $\lambda_j$ siano gli stessi.
Questo è il punto cruciale del teorema, ma - siccome non mi pare che sia evidente "a priori" e, per altro, si tratta, ogni volta, di calcoli eseguiti su elementi diversi della matrice che devono essere del tutto generici - non riesco proprio a comprendere come il teorema dimostri l'eguaglianza dei rispettivi coefficienti $\lambda_j$, condizione in assenza della quale non mi sembra si possa concludere.
Neppure mi aiuta la notazione adottata dal prof., che indica i coefficienti come $\lambda_j$. Capisco che voglia intendere che dipendano soltanto dall'indice $j$, ma dipendere solo da $j$ non implica che siano necessariamente eguali.
Grazie $\infty$ a chi avrà la cortesia - e la pazienza - per potermi dare una mano.
Risposte
Mi basterebbe anche solo l'indicazione di un testo reperibile che esponga la dimostrazione del teorema chiarendo un po' meglio alcuni assunti - che probabilmente risultano scontati -, ma che, evidentemente, non riesco a cogliere. Grazie