Algebra lineare

Principe2
Sia $A$ una matrice $s\times t$ ad entrate in un dominio euclideo (facciamo anche $ZZ$).
Mostrare che esistono $U,V$ invertibili tali che $UAV$ è diagonale

Risposte
alberto.chiarini
la matrice $UAV$ appartiene a $M_(sxt)(ZZ)$ giusto? se è così non puoi definirla diagonale, si parla di matrici diagonali solo in caso di matrici quadrate.
Dunque immagino intendessi (spero di non fraintenderti) che si trovasse una matrice del tipo

$H=((\alpha_1,0,...,0),(0,\alpha_2,...,0),(.,.,.,.),(0,0,...,\alpha_s),(0,0,...,0))

perdonami se è scritta male, è per capirsi..

alberto861
spero di non dire una baggianata..ma se hai solo che è un dominio euclideo come fai a definire matrici invertibili..nel senso se $A$ è invertibile allora da Binet segue che $det(A)*det(A^(-1))=1$ ma se le matrici sono in un dominio allora det(A) è elemento del dominio e non è detto che sia invertibile se per esempio il dominio è $Z$ non lo è mai..in $Z$ non hai matrici con $det(A^(-1))$ razionale..

alberto.chiarini
non vorrei tradire il problema iniziale, ma credo che sia meglio riscriverlo in questo modo..

Problema
sia $A$ appartenente a $M_(sxt)(K)$ dove $K$ è un campo. Si dimostri che esistono matrici invertibili $U$ , $V$ tali che $UAV$ è del tipo:


$C=((B,O),(O,O))

($C$ appartenente a $M_(sxt)(K)$ scritta a blocchi) dove B è diagonale.

alberto861
albè il problema è che non hai un campo ma un dominio d'integrità..poi mi sono reso conto di aver detto una cavolata perchè quelle a determinante uguale a uno sono invertibili infatti nei domini c'è almeno l'elemento neutro invertibile

alberto.chiarini
hai perfettamente ragione, non so cosa mi sia saltato in mente.... :oops:

alberto861
se la matrice è pseudo-ortogonale,cioè con colonne orogonali ma di norma arbitraria che ammette una normalizzazione delle colonne in $Z$, funziona in $Z$ infatti se ho $U$ pseudo-ortogonale allora della $A$ quella ortonormalizzata basta prendere $A^T$ e $A*A^T$ e il prodotto $A^T*U*A*A^T$è diagonale

alberto861
se considero A come applicazione lineare e mi decompongo $Im(A)$ secondo una base pseudo-ortonormale (con Gram-Smidth senza rendere i vettori unitari altrimenti non sto in $Z$),e considero $U$ la matrice del cambio di base allora $U*A$ è pseudo-ortonormale e posso applicare quanto detto prima per diagonalizzare...quindi è dimostrato no??che sbaglio?

alberto861
ah già mi manca da far vedere che la matrice trovata ammette una normalizzazione in $Z$ altrimenti non ha $det$ uno e non è invertibile

alberto861
forse ci sono nel caso di matrici quadrate..allora se $A$ è invertibile basta prendere $U=In$ e $V=A^(-1)$..se $A$ non è invertibile avrà un minore di ordine $k< n$, con n dimensione della matrice, con determinante nullo e senza mancare di generalità(basterà poi scambiare gli elementi della base) possiamo supporre che sia $(aij)i=k,...n;j=k,...n$ allora esisterà una base, con matrice $B$del cambiamento, per cui $AB$ ha le ultime k colonne nulle..ora la moltiplicazione per una matrice diagonale moltiplica le colonne j-esime del fattore di posto (j,j) della matrice diagonale, per cui indicando $MCDj$ il massimo comun divisore della colonna j possiamo scivere $AB=CL$ con $C$ avente le prime n-k colonne uguali a quelle di $AB$ ciascuna però divisa per $MCDj$ e con le ultime k le coordinate dei vettori della nuova base appartenenti al
$ker(AB)$ e in tale modo $C$ è invertibile,mentre L è una matrice diagonale con $L(j,j)=MCDj per j=1,...k-1 e L(j,j)=0 per j=k,...n$ quindi se prendo $V=B$ e $U=C^(-1)$ ho la tesi..

alberto861
nel caso generale $sxt$ la cosa non è molto dissimile. Allora chiamo lo spazio di partenza V e lo spazio di arrivo W e in tal caso da $W=Im(A)+ker(A*)$,dove la somma è diretta e $A*$ è l'aggiunto, posso prendere una base di $Im(A)$ una di $ker(A*)$ e ottengo una nuova base per W con matrice del cambiamento C. Poi scelgo una base per V che mi dia la decomposizione $V=ker(A)+Ra(A)$ e sia D la matrice del cambiamento di base per V. Ora
a meno di riordinare le basi $C^(-1)*A*D$ ha un blocchetto quadrato di ordine $dimRa(A)$ con determinante non nullo e gli altri tre blocchetti di ordini opportuni nulli. A questo punto opero sul blocchetto con det non nullo come nel caso della matice quadrata invertibile, completando ove serve con blocchetti opportuni di zeri e con colonne opportune dei vettori di $ker(A)$ e $ker(A*)$..in questo caso la matrice non verrà diagonale ma diagonale a blocchi..le altre sono invertibili perchè costruite completandole con vettori indipendenti. Mi sembra tutto giusto no?..non ho scritto bene i dettagli perchè non so inserire bene i simboli e le matrici..
attendo conferma o confutazione

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.