Dubbio su quadriche

anto_zoolander
ciao :D

Ho notato che quando si ha a che fare con quadriche si parte da una matrice $A$ in $k^(n+1)$ e si considera la sottomatrice $A_(00)$ su $k^(n)$ ottenuta togliendo la prima riga e la prima colonna

in particolare si diagonalizza la sottomatrice $A_(00)$ per classificare la quadrica.
Questo argomento non mi sembra per niente scontato e ho provato a rispondermi in questo modo

Scrivo $varphi(x,y)=<>$ dove $A$ è simmetrica non singolare e $<<|>>$ il ps standard di $k^(n+1)$

presa la base canonica di $k^(n+1)$ e scritta come $B={e_0,...,e_n}$ mi restringo al sottospazio $X= <>$ con $B'={e_1,...,e_n}$

la matrice della restrizione rispetto a questa base è proprio $A_(00)$ ovvero si ottiene $varphi_(k^n)(x,y)=x^tA_(00)y$
chiamo $C_(B'):k^n->X$ l'applicazione classica delle coordinate $C_(B')(x_1,...,x_n)=sum_(i=1)^(n)x_i e_i$
e $T_(A_(00)):k^n->k^n$ definita come $T_(A_(00))(x)=A_(00)x$

è chiaro che posso definire l'omomorfismo $T:X->X$ come $T=C_(B')circT_(A_(00))circC_(B')^(-1)$

data la costruzione questo omomorfismo rispetto alla base $B'$ di $X$ si rappresenta proprio con $A_00$
Adesso posso[nota]affermo questo perchè in genere $A_(00)$ non è dato dalla restrizione di $Ax$ al sottospazio, in quanto nulla mi garantisce che $A(X)subsetX$[/nota] scrivere

$varphi_(X)(x,y)=<>$[nota]infatti $<> = C_(B')^(-1)(T(x))^t C_(B')^(-1)(y)=C_(B')^(-1)(C_(B')circT_(A_(00))circC_(B')^(-1)(x))^tC_(B')^(-1)(y)=$

$=(A_(00)C_(B')^(-1)(x))^t C_(B')^(-1)(y)=C_(B')^(-1)(x)^t A_(00)C_(B')^(-1)(y)=varphi_(X)(x,y)$[/nota]

dove $T$ è autoaggiunto rispetto al prodotto scalare su $X$ stesso e posso usare il teorema spettrale per diagonalizzare il tutto. Una volta trovata la base spettrale che siamo $S={s_1,...,s_n}$ avrò che

$varphi_X(s_i,s_j)=lambda_i delta_(ij)$ dove la $delta$ è di kronecker

quindi sulla base ${e_0,s_1,...,s_n}$ di $k^(n+1)$ la matrice sarà del tipo

$[(a_(00),b_(01),...,b_(0n)),(b_(10),lambda_1,...,0),( : , : , ... , : ),(b_(0n),0,...,lambda_n)]$

ovvero ottengo una forma, ponendo $x_0=1$, del tipo $a_(00)+2sum_(i=1)^(n)b_(0i)x_i+sum_(i=1)^(n)lambda_ix_i^2=0$

Questa argomentazione è inutile? assurdamente inutile? sensata?
Ho cercato ovunque ma da nessuna parte mi sembra che si chiarisca il perché di quella diagonalizzazione fatta praticamente a "caso"

Tutto questo è partito dal classificare le tracce affini delle quadriche proiettive, quindi parto sempre da una matrice in $S_(n+1)(k)$

Risposte
j18eos
Ti sei dimenticato di specificare che la matrice \(\displaystyle A\) è simmetrica di ordine \(\displaystyle n+1\)... giusto per cominciare.

Poi la scrittura corretta è \(\displaystyle x^T\times A\times y\) ove \(\displaystyle x,y\in\mathbb{K}^{n+1}\), e non è un'operazione interna, ma un prodotto bilineare simmetrico!

Mi fermo qui...

anto_zoolander
Ciao :-D

Allora per quanto riguarda la matrice si l'ho dimenticato
Sull'operatore bilineare considero la restrizione di $varphi$ al sottospazio, alla fine posso farlo, no?

Quello che faccio è calcolare i $varphi(e_i, e_j) $ per $e_i, e_j in X$ in questo modo ottengo la matrice rappresentativa di $varphi_X$ rispetto alla base di $X$ che sarà propri $A_(00)$

Attenzione: in $<>$ il prodotto scalare è quello di $k^(n+1)$ considerato su $X$

Idem per $x^tAy$, lo vedo come $<>$

:(

solaàl
Non ho capito se quello che non ti è chiaro è perché si diagonalizza un operatore o perché si diagonalizza proprio $A_{00}$.

j18eos
Poi inizi a combinare i casìni: fissata la matrice simmetrica quadrata \(\displaystyle A\in\mathbb{K}^{n+1}_{n+1}\), secondo le tue notazioni, una quadrica affine in \(\displaystyle\mathbb{A}^n_{\mathbb{K}}\) corrisponde al luogo degli zeri della funzione omogenea di grado \(\displaystyle2\)
\[
(1,x_1,\dotsc,x_n)\times A\times(1,x_1,\dotsc,x_n)^T=0
\]
ove la \(\displaystyle n\)-pla \(\displaystyle(x_1,\dotsc,x_n)\) è confusa con un punto di \(\displaystyle\mathbb{A}^n_{\mathbb{K}}\), mediante un'opportuna coordinazione fissata ma ininfluente.

Ti è più chiaro questo passaggio?

anto_zoolander
@solal
Volevo capire perché si diagonalizzasse proprio quella matrice

@jeos
Mi spiego meglio che forse sono sono stato un poco vago

Intanto per ogni endomorfismo $L:k^(n+1)->k^(n+1)$ autoaggiunto rispetto al ps standard, l'applicazione $varphi(x, y) = <>$ definisce una forma bilineare simmetrica.

Poniamo $L(x) =Ax$ con $A$ simmetrica.

Posso considerare la applicazione $varphi_(X)$ restrizione di $varphi$ al sottospazio $X= <>$

Ora dove voglio arrivare: l'applicazione $varphi_X$ è ancora bilineare quindi rispetto a quella base avrà una sua matrice rappresentativa, facendo i conti si evince che la matrice rappresentativa è $A_(00)$

Per questo scrivo $varphi_(X)(x, y) = C_(B_X)^(-1)(x)A_(00)C_(B_X)^(-1)(y)$

La $n$-upla $(x_1,...,x_n)$ rappresenta le coordinate di $(0,x_1,...,x_n)$, non lo confondo ma lo uso per rappresentare la forma bilineare con una matrice.

Continuo prendendo semplicemente un operatore $T$ che rispetto alla base $B_X$ ha proprio $A_(00)$ come matrice ed è proprio l'operatore definito sopra.

In questo modo si ottiene l'uguaglianza

$varphi_(X) (x, y) = <>$


Per esempio prendo $A=[(1,0,1),(0,1,-1),(1,-1,1)]$
Prendo $X= <<. (0,1,0),(0,0,1)>>$ allora rispetto a questa base di $X$ avremo che

$varphi_X(. (0, x_1, y_1),(0, x_2, y_2)) =((x_1,y_1) )((1,-1),(-1,1))((x_2),(y_2))$

Ora l'operatore $T(0,x,y)=(0,x-y,y-x)$
È proprio quello di sopra, rappresentato dalla matrice $A_(00)$

Inoltre si ottiene proprio $<> =((x_1,y_1) )((1,-1),(-1,1))((x_2),(y_2))$

Dai non ci sono errori :evil: :lol:

j18eos
"anto_zoolander":
[...] Dai non ci sono errori :evil: :lol:
No, non ci sono! :smt023

...e diagonalizzare una matrice quadrata simmetrica equivale a trovare una base ortonormale di suoi autovettori: lo sapevi? :?:

anto_zoolander
Per il gusto di andarmi contro :evil: :lol: :lol:

"j18eos":
...e diagonalizzare una matrice quadrata simmetrica equivale a trovare una base ortonormale di suoi autovettori: lo sapevi? :?:

Si infatti nel primo post lo uso

Bokonon
"j18eos":

...e diagonalizzare una matrice quadrata simmetrica equivale a trovare una base ortonormale di suoi autovettori: lo sapevi? :?:

Certo che lo sa Armando :-D
"anto_zoolander":
@solal
Volevo capire perché si diagonalizzasse proprio quella matrice

Non sono intervenuto finora perchè come solaàl non ero certo se ponessi una domanda semplice ma ora ne sono quasi persuaso.
Tutta l'idea della classificazione delle quadriche è basata sul concetto di congruenza (concetto geometrico). Se due forme quadratiche sono congruenti allora sono la stessa forma (esattamente come due triangoli).
Sylvester ha notato che esistono degli invarianti (vedi il suo teorema), ovvero la segnatura (infatti il problema di catalogare le forme quadratiche è pressochè identico a quello di catalogare i prodotti scalari).
Due matrici quadrate A e B sono congruenti se esiste una matrice P tale che $B=P^TAP$
Questo è banalmente vero se si prende una matrice simmetrica e si applica il teorema spettrale per cui $B=Q^(-1)AQ=Q^TAQ$ per cui A e B non sono solo congruenti ma anche simili.
Ora, presa una qualsiasi forma quadratica e la matrice simmetrica associata abbiamo sostanzialmente uno spazio affine che è immerso in uno spazio $RR^(n+1)$ per pura comodità: altrimenti avremmo un sottospazio analogo in $RR^n$ + una traslazione...che non è una trasformazione lineare.
Ma che ci frega della traslazione in se per determinare a quale forma quadratica di base associare una forma quadratica generica Q? Niente. Possiamo benissimo rimuovere la traslazione e far passare Q per l'origine rimuovendo la prima colonna e riga, tanto la forma in se è isomorfa alla traslazione. L'unica cosa di cui dobbiamo accertarci è che effettivamente il termine noto della quadrica rappresenti una traslazione e non sia effettivamente parte di Q nella forma canonica (ovvero la matrice completa deve avere determinante diverso da zero). Per capirci (anche se non è una quadrica) è come definire una retta "affine" in $RR^3$ come $t<1,0,0>+<2,0,0>$...la traslazione è finta, quella retta passa per l'origine.
Una volta che ci siamo accertati che la traslazione in se è vera, la rimoviamo e consideriamo la quadrica in $RR^n$. E a questo punto cerchiamo una base (una rotazione in questo caso specifico) che ci offra una visuale chiara e distinta della quadrica in se in forma canonica (gli autovettori della matrice ridotta). La matrice diagonale sarà la matrice congruente/simile.
Ora, la diagonalizzazione è certamente il metodo più svelto e chiaro per risolvere il problema di "associare Q ad una quadrica di base" ma non è l'unico metodo. Possiamo benissimo trovare prima una base ortogonale dello spazio di partenza in cui la matrice simmetrica ridotta $Q_r$ viene usata esattamente come un prodotto scalare: da qua deriviamo una trasformazione (lineare) P in $RR^n$ per cui $P^TQ_rP=B$ dove B è una matrice diagonale. Poi usiamo la trasformazione sulla forma quadratica (e questo eliminerà tutti i termini misti) e, raccogliendo i termini rimasti in quadrati, otteniamo pure il nuovo termine noto dopo la trasformazione.
Poi creiamo una trasformazione di tutti i termini del tipo $(x-a)^2$ per $x'=x-a rArr x=x'+a$ e arriviamo alla forma canonica con un nuovo termine noto. E per avere l'intera applicazione lineare, componiamo le due che abbiamo creato per ottenere una matrice estesa M tale che $M^TQM=B$ e quindi la nostra congruenza.
Insomma, l'idea di prendere la matrice ridotta e diagonalizzarla è per svelitire il processo in se di trovare una forma congruente indipendentemente dalla traslazione dello spazio affine Q rispetto all'origine del nostro sistema.

j18eos
@anto_zoolander M'era venuto il dubbio, dato che il primo post non l'ho molto capìto... Una volta diagonalizzata \(\displaystyle A_{00}\) trovi la forma canonica della tua quadrica e la studi. Quali sono gli altri dubbi?

@Bokonon [ot]Si chiama "effetto esami di Geometria ed Algebra agli studenti di ingegneria"... :smt089

Su sette (7) esaminandi, solo due (2) scrivono perfettamente riguardo alla diagonalizzabilità della matrice
\[
\begin{pmatrix}
0 & 0 & 0 & 1\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
1 & 0 & 0 & 0
\end{pmatrix},
\]
e uno dei due all'orale non sa come si chiamano gli oggetti che ha calcolato... e non commento ulteriormente.

Ma soprattutto: nessuno m'ha scritto che questa matrice è diagonalizzabile perché (reale e) simmetrica![/ot]

Bokonon
@Armando
[ot]Devono avere un pessimo professore :-D :snakeman:
Ma davvero non sanno nemmeno definire che hanno trovato autovalori e autovettori e cosa sono?

Però è vero che lo studente non "osserva" la matrice prima di iniziare a macinare calcoli.
L'ho notato anche qua nel forum. Anzi, nonostante in due occasioni abbia replicato di "fissare" intensamente la matrice...non l'hanno fatto. Bizzarri, anzichenò[/ot]

j18eos
@Bokonon [ot]Veramente solo uno non sapeva nulla all'orale (on-line)... e continuo a non esprimermi in merito![/ot]

dissonance
"j18eos":
e continuo a non esprimermi in merito!

https://youtu.be/MLABdlCqE4U

:D

j18eos
Più o meno esatto :smt040

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.