Rango di applicazioni lineari e di forme bilineari
Problema: data una matrice complessa $A$, di $n$ righe per $n$ colonne, vorrei dimostrare che il rango di $A^HA$ è uguale al rango di $A$. (Con $A^H$ indico la trasposta coniugata).
Sicuramente ci sarà un motivo intrinseco per cui questo succede, probabilmente legato alla doppia interpretazione di $A$ come applicazione lineare o come forma bilineare (sesquilineare per essere precisi). Però per prima cosa vorrei trovare una spiegazione diretta in termini di prodotto di matrici. Come posso fare? Forse gli autovalori di $A^HA$ sono i moduli al quadrato degli autovalori di $A$?
Sicuramente ci sarà un motivo intrinseco per cui questo succede, probabilmente legato alla doppia interpretazione di $A$ come applicazione lineare o come forma bilineare (sesquilineare per essere precisi). Però per prima cosa vorrei trovare una spiegazione diretta in termini di prodotto di matrici. Come posso fare? Forse gli autovalori di $A^HA$ sono i moduli al quadrato degli autovalori di $A$?
Risposte
$rg(A^HA)>=rg(A)$ si può pensare così: supponi che $rg(A)=k$ allora A possiede un minore di ordine k con determinante non nullo, supponiamo per semplicità che sia quello formato dalle prime k righe e k colonne e chiamiamolo $I_k$ allora il minore di $A^HA$ formato dalle stesse righe e colonne è $I_k^H*I_k$ che avrà ancora determinante diverso da zero, quindi $rg(A^HA)>=k$
forse funziona anche al contrario: se $rg(A^HA)=t>k$ allora $A^HA$ ha un minore di ordine t $J_t$ con $detJ_t!=0$ se supponiamo di nuovo che sia il primo di testa deve essere $J_t=I_t^H*I_t$ il che implica che $det(I_t)!=0$ e quindi $rg(A)>=t>k$ contro le ipotesi
a me sembra che supporre che sia proprio quel minore non sia restrittivo, ma non ho provato negli altri casi. Non userei gli autovalori perchè $A^HA$ sarà diagonalizzabile in quanto autoaggiunta (giusto?) mentre su $A$ non sappiamo molto e questo mi confonde un po', ma magari si fa comunque non so. ti convince?
forse funziona anche al contrario: se $rg(A^HA)=t>k$ allora $A^HA$ ha un minore di ordine t $J_t$ con $detJ_t!=0$ se supponiamo di nuovo che sia il primo di testa deve essere $J_t=I_t^H*I_t$ il che implica che $det(I_t)!=0$ e quindi $rg(A)>=t>k$ contro le ipotesi
a me sembra che supporre che sia proprio quel minore non sia restrittivo, ma non ho provato negli altri casi. Non userei gli autovalori perchè $A^HA$ sarà diagonalizzabile in quanto autoaggiunta (giusto?) mentre su $A$ non sappiamo molto e questo mi confonde un po', ma magari si fa comunque non so. ti convince?
Quindi tu fai discendere il risultato, in ultima analisi, dal fatto che il rango per righe e il rango per colonne coincidono. E' un'idea, però non capisco una cosa:
se supponiamo che $A$ sia una matrice $ntimesn$, di rango $k$, e supponiamo che un minore non nullo di ordine $k$ sia proprio il primo minore di testa: $A=[[I_k, B], [**, **]]$; di conseguenza $A^H=[[I_k^H, **], [B^H, **]]$ e il prodotto $A A^H=[[I_kI_k^H+BB^H, **],[**,**]]$, dove con $B$ e con gli asterischi ho indicato dei blocchi di dimensioni opportune. Se non ho sbagliato, il minore di testa della matrice prodotto è $I_kI_k^H+BB^H$, non solo $I_kI_k^H$, come facciamo a dire che non è singolare?
se supponiamo che $A$ sia una matrice $ntimesn$, di rango $k$, e supponiamo che un minore non nullo di ordine $k$ sia proprio il primo minore di testa: $A=[[I_k, B], [**, **]]$; di conseguenza $A^H=[[I_k^H, **], [B^H, **]]$ e il prodotto $A A^H=[[I_kI_k^H+BB^H, **],[**,**]]$, dove con $B$ e con gli asterischi ho indicato dei blocchi di dimensioni opportune. Se non ho sbagliato, il minore di testa della matrice prodotto è $I_kI_k^H+BB^H$, non solo $I_kI_k^H$, come facciamo a dire che non è singolare?
hai perfettamente ragione mi sembrava venisse solo $I_k^H*I_k$, non funziona come ho detto io, perlomeno non in maniera così ovvia 
con quel rango k avevo messo tutti zeri sotto $I_k$
a questo punto non saprei, se trovi qualcosa aggiornami.
aggiungo solo che secondo me (ho fatto qualche conto) quel $B^HB$ aggiunge ad ogni riga combinazioni lineari delle righe sotto $I_k$ troncate alla k-esima entrata, che sono combinazione delle righe di $I_k$. non ne ho cavato niente, magari però può esserti utile, ciao!

con quel rango k avevo messo tutti zeri sotto $I_k$

aggiungo solo che secondo me (ho fatto qualche conto) quel $B^HB$ aggiunge ad ogni riga combinazioni lineari delle righe sotto $I_k$ troncate alla k-esima entrata, che sono combinazione delle righe di $I_k$. non ne ho cavato niente, magari però può esserti utile, ciao!
Ho pensato di fare così: dimostriamo che $Av=0$ se e solo se $A^HAv=0$. Infatti, se $Av=0$, ovviamente $A^HAv=0$; viceversa, se $A^HAv=0$, allora $v^HA^HAv=(Av)^HAv=0$, ovvero il prodotto scalare $\langleAv, Av\rangle=0$ e quindi $Av=0$. In conclusione $A$ e $A^HA$ hanno lo stesso nucleo e quindi anche lo stesso rango.
Due domande:
1) va bene?
2) Dalla dimostrazione (sempre che vada bene) si capisce che l'endomorfismo di matrice $A$, quello di matrice $A^HA$ e la forma Hermitiana di matrice $A^HA$ hanno lo stesso nucleo. Mi piacerebbe approfondire questa cosa. Ci sono altre correlazioni tra queste tre applicazioni?
Due domande:
1) va bene?

2) Dalla dimostrazione (sempre che vada bene) si capisce che l'endomorfismo di matrice $A$, quello di matrice $A^HA$ e la forma Hermitiana di matrice $A^HA$ hanno lo stesso nucleo. Mi piacerebbe approfondire questa cosa. Ci sono altre correlazioni tra queste tre applicazioni?
la tua mia pare vada bene anche se mi sembra usi il fatto che ad A è associata un'applicazione lineare in quanto parli di nucleo, però breve e pulita mi sa che di meglio non si può fare. Il mio tentativo così come è scritto non credo vada bene e per il resto non saprei proprio, sono stato un po' inutile in questo topic 
alla prossima

alla prossima
"rubik":
...usi il fatto che ad A è associata un'applicazione lineare in quanto parli di nucleo...
Alcuni autori parlano di "nucleo" anche riferendosi a forme bi/sesqui-lineari, intendendo l'insieme dei vettori ortogonali a tutto lo spazio. In effetti si tratta del nucleo di un operatore lineare, ed è un concetto che spiega alcune domande saltate fuori nei post precedenti, ma necessita di tirare in ballo gli spazi duali e complicare il discorso.
Invece, come spiegazione di questo fenomeno (delle due matrici $A, A^HA$ che hanno lo stesso rango), ho trovato quest'altra nozione (matrice di Gram - http://en.wikipedia.org/wiki/Gramian_matrix ). L'idea è che $A^HA$ è la matrice dei prodotti scalari $\langleA_{(i)}, A_{(j)}\rangle$, dove $A_{(i)}$ è l'$i$-esima colonna di $A$.
Come è spiegato pure sulla pagina di wikipedia, queste matrici forniscono un test dell'indipendenza lineare di insiemi di vettori. Infatti, se $v_1,...v_n$ sono vettori di uno spazio a prodotto scalare, $M=[\langlev_i, v_j\rangle]_{i, j=1..n}$ è non singolare se e solo se $v_1,...,v_n$ sono l.i.: questo perché una combinazione lineare delle colonne di $M$ si riduce ad essere $[[\langlev_1, lambda_1v_1\rangle],[vdots],[\langlev_n, lambda_nv_n\rangle]]$, che è uguale a zero se e solo se $sum_{i=1}^nlambda_iv_i$ è ortogonale a tutti i $v_1, v_2, ...,v_n$; il che significa dire che $sum_{i=1}^nlambda_iv_i\in("span"(v_1, ...,v_n))^(bot)nn"span"(v_1,...,v_n)$. La tesi segue allora dal fatto noto che l'ultima intersezione è $\langle0\rangle$.
Raffinando un poco il discorso (tirando in ballo il principio dei minori orlati) arriviamo facilmente a dire che il rango di $M$ è proprio il numero di vettori lin. indip. di $v_1,...,v_n$: il che, trasportato alle nostre matrici $A$ e $A^HA$ significa proprio che i loro ranghi coincidono.
Ho voluto postare questa dimostrazione perché (sempre che non abbia sbagliato!) mi sembra maggiormente esplicativa. L'altra è molto più corta ma non mi convince, non sembra spiegare il perché delle cose.