Domande ricerca base ortogonale
Buongiorno a tutti..
Se io ho una matrice simmetrica e devo determinare una base ortogonale di R^3 con il prodotto scalare associato a quella matrice, io faccio in questo modo:
1. mi calcolo il prodotto scalare associato alla matrice A
2. cerco un vettore non isotropo di R^3, ovvero il cui autoprodotto sia diverso da 0
3. mi calcolo il sottospazio ortogonale al vettore scelto
Ora.. a questo punto ottengo ad esempio 2 vettori appartententi al sottospazio ortogonale. Questi devono anche essere ortogonali fra loro.. Ma cosi' non è!
Come mai?
Riporto un esempio
$( ( 0 , 0 , 1 ),( 0 , -1 , 0 ),( 1 , 0 , 0 ) ) $
Il vettore non isotropo che ho scelto è $ {: ( 1 ),( 1 ),( 1 ) :} $
Il sottospazio ortogonale a questo vettore mi viene $ <( ( 1 ),( 1 ),( 0 ) ) $ $ ( ( -1 ),( 0 ),( 1 ) )> $
Il loro prodotto scalare NON CANONICO è diverso da 0...
Se io ho una matrice simmetrica e devo determinare una base ortogonale di R^3 con il prodotto scalare associato a quella matrice, io faccio in questo modo:
1. mi calcolo il prodotto scalare associato alla matrice A
2. cerco un vettore non isotropo di R^3, ovvero il cui autoprodotto sia diverso da 0
3. mi calcolo il sottospazio ortogonale al vettore scelto
Ora.. a questo punto ottengo ad esempio 2 vettori appartententi al sottospazio ortogonale. Questi devono anche essere ortogonali fra loro.. Ma cosi' non è!
Come mai?
Riporto un esempio
$( ( 0 , 0 , 1 ),( 0 , -1 , 0 ),( 1 , 0 , 0 ) ) $
Il vettore non isotropo che ho scelto è $ {: ( 1 ),( 1 ),( 1 ) :} $
Il sottospazio ortogonale a questo vettore mi viene $ <( ( 1 ),( 1 ),( 0 ) ) $ $ ( ( -1 ),( 0 ),( 1 ) )> $
Il loro prodotto scalare NON CANONICO è diverso da 0...
Risposte
E infatti non hai finito.
Devi ripetere il procedimento allo spazio $<((1),(1),(0)),((-1),(0),(1))>$ per ottenere una base ortogonale rispetto al "prodotto scalare non canonico" (non ho mai sentito questa terminologia).
N.B. Non ho controllato i tuoi conti.
Devi ripetere il procedimento allo spazio $<((1),(1),(0)),((-1),(0),(1))>$ per ottenere una base ortogonale rispetto al "prodotto scalare non canonico" (non ho mai sentito questa terminologia).
N.B. Non ho controllato i tuoi conti.
Capito!
Quindi dato questo sottospazio devo trovarmi il suo ortogonale ??
Ma se lo faccio, non mi torna il vettore iniziale???
PS: Per prodotto scalare non canonico intendo quello associato alla matrice A ^^
Quindi dato questo sottospazio devo trovarmi il suo ortogonale ??
Ma se lo faccio, non mi torna il vettore iniziale???
PS: Per prodotto scalare non canonico intendo quello associato alla matrice A ^^
Scusate l'intromissione: un procedimento alternativo per risolvere l'esercizio poteva essere questo?
Considero la forma quadratica (associata a quel prodotto scalare): la scrivo in forma normale. La base rispetto alla quale si scrive in forma normale è la base cercata, ortonormale rispetto al prodotto scalare associato a $A$.
Che dite?
Grazie
Considero la forma quadratica (associata a quel prodotto scalare): la scrivo in forma normale. La base rispetto alla quale si scrive in forma normale è la base cercata, ortonormale rispetto al prodotto scalare associato a $A$.
Che dite?
Grazie

Uhm.. a dire il vero non ho capito cosa intendi!
Cioè il problema è:
Ho il PS associato ad A
Ho un vettore non isotropo di $R^3$
Ho il sottospazio ortogonale di questo vettore
I 2 vettori che mi vengono fuori non sono ortogonali tra loro rispetto al PS associato ad A.
Se io mi trovo il sottospazio ortogonale al sottospazio ortogonale, mi ritrovo il vettore non isotropo di partenza?!
Cioè il problema è:
Ho il PS associato ad A
Ho un vettore non isotropo di $R^3$
Ho il sottospazio ortogonale di questo vettore
I 2 vettori che mi vengono fuori non sono ortogonali tra loro rispetto al PS associato ad A.
Se io mi trovo il sottospazio ortogonale al sottospazio ortogonale, mi ritrovo il vettore non isotropo di partenza?!
Forse mi sono spiegato male. Sia V=$<((1),(1),(0)),((-1),(0),(1))>$.
Prendo un vettore non istropo di $V$, per esempio $v=((1),(1),(0))$.
Calcolo il sottospazio ortogonale di $$ nello spazio $V$.
Forse è meglio inizio io: sia $w=a((1),(1),(0))+b((-1),(0),(1))$.
Impongo che $w$ è ortogonale a $v$ (rispetto al "prodotto scalare non canonico").
Troverò una condizione su $a$ e $b$.
Dunque troverò una base dell'ortogonale di $v$ in $V$. E questo sarà il terzo vettore della base richiesta.
Prendo un vettore non istropo di $V$, per esempio $v=((1),(1),(0))$.
Calcolo il sottospazio ortogonale di $
Forse è meglio inizio io: sia $w=a((1),(1),(0))+b((-1),(0),(1))$.
Impongo che $w$ è ortogonale a $v$ (rispetto al "prodotto scalare non canonico").
Troverò una condizione su $a$ e $b$.
Dunque troverò una base dell'ortogonale di $v$ in $V$. E questo sarà il terzo vettore della base richiesta.
"gael90rm":No, perchè adesso l'ortogonale lo stai facendo in $V$ e non nell'intero $RR^3$.
Se io mi trovo il sottospazio ortogonale al sottospazio ortogonale, mi ritrovo il vettore non isotropo di partenza?!
"Paolo90":
Scusate l'intromissione: un procedimento alternativo per risolvere l'esercizio poteva essere questo?
Considero la forma quadratica (associata a quel prodotto scalare): la scrivo in forma normale. La base rispetto alla quale si scrive in forma normale è la base cercata, ortonormale rispetto al prodotto scalare associato a $A$.
Certo Paolo, stiamo facendo esattamente questo: scrivere la forma quadratica in forma normale (immagino che per "forma normale" intendi in forma diagonale).
E l'algoritmo utilizzato è quello che si usa di solito, ovvero
1) Si fissa un vettore non isotropo $v$ in $V$ e si calcola lo spazio ortogonale $W=
2) Se la forma bilineare è degenere su $W$ allora abbiamo finito, perchè $v$ e una qualunque base di $W$ formeranno una base ortogonale;
3) Se la forma bilineare non è degenere, allora esiste un vettore non isotropo. Si può ripetere dunque il procedimento alla stessa forma bilineare, però ristretta a $W$.
Nota che la dimensione di $W$ è più piccola di quella di $V$, quindi in un numero finito di passi dobbiamo finire.
Mi sto confondendo.. Scrivo i passaggi che ho fatto io.. devo capire dove ho sbagliato visto che in tutti gli esercizi di questo tipo mi blocco qui..
Ne riporto di seguito uno:
$ A= ( ( 1 , 0 , -2 ),( 0 , .4 , 4 ),( -2 , 4 , 0 ) ) $
Sia definito il prodotto scalare associato ad A
$ x @ y =((x1, x2, x3))( ( 1 , 0 , -2 ),( 0 , .4 , 4 ),( -2 , 4 , 0 ))( ( y1 ),( y2 ),( y3 ) ) = ( ( x1 , x2 , x3 ) )( ( y1-2y3 ),( -4y2+4y3 ),( -2y1+4y2 ) ) = x1(y1-2y3)+x2(4y3-4y2)+x3(4y2-2y1) $
Scelgo vettore non isotropo di $ R^3 $
ad esempio $ v=( ( 1 ),( 0 ),( 0 ) ) $
$ R^3 = ( ( 1 ),( 0 ),( 0 ) )$ sommadiretta $( ( 1 ),( 0 ),( 0 ) ) $ ortogonale
L'ortogonale viene
$ <( ( 0 ),( 1 ),( 0 ) ) ( ( 0 ),( 0 ),( 1 ) ) > $
Ora:
$ ( ( 0 ),( 1 ),( 0 ) ) @ ( ( 0 ),( 0 ),( 1 ) ) = 4 $ ..diverso da 0
quindi questi due vettori non sono ortogonali.. Cosa dovrei fare?
Chiamare $ W $ questo sottospazio, prendere un vettore non isotropo di questo sottospazio e calcolarmi il suo ortogonale??
In questo caso mi escono fuori altri 2 vettori.. Sono questi quelli che mi servono alla fine per scrivere la base ortogonale??
Ne riporto di seguito uno:
$ A= ( ( 1 , 0 , -2 ),( 0 , .4 , 4 ),( -2 , 4 , 0 ) ) $
Sia definito il prodotto scalare associato ad A
$ x @ y =((x1, x2, x3))( ( 1 , 0 , -2 ),( 0 , .4 , 4 ),( -2 , 4 , 0 ))( ( y1 ),( y2 ),( y3 ) ) = ( ( x1 , x2 , x3 ) )( ( y1-2y3 ),( -4y2+4y3 ),( -2y1+4y2 ) ) = x1(y1-2y3)+x2(4y3-4y2)+x3(4y2-2y1) $
Scelgo vettore non isotropo di $ R^3 $
ad esempio $ v=( ( 1 ),( 0 ),( 0 ) ) $
$ R^3 = ( ( 1 ),( 0 ),( 0 ) )$ sommadiretta $( ( 1 ),( 0 ),( 0 ) ) $ ortogonale
L'ortogonale viene
$ <( ( 0 ),( 1 ),( 0 ) ) ( ( 0 ),( 0 ),( 1 ) ) > $
Ora:
$ ( ( 0 ),( 1 ),( 0 ) ) @ ( ( 0 ),( 0 ),( 1 ) ) = 4 $ ..diverso da 0
quindi questi due vettori non sono ortogonali.. Cosa dovrei fare?
Chiamare $ W $ questo sottospazio, prendere un vettore non isotropo di questo sottospazio e calcolarmi il suo ortogonale??
In questo caso mi escono fuori altri 2 vettori.. Sono questi quelli che mi servono alla fine per scrivere la base ortogonale??
Grazie per la risposta, cirasa.
Certo Paolo, stiamo facendo esattamente questo: scrivere la forma quadratica in forma normale (immagino che per "forma normale" intendi in forma diagonale).
[/quote]
Mmm, penso che abbiamo un diverso modo di chiamare le cose.
A lezione, noi abbiamo visto che considerata una forma bilineare (simmetrica per comodità) gli si associa in modo naturale una forma quadratica. Nel momento in cui diagonalizzo la matrice associata alla f.b. (o alla f.q.) - ad esempio, usando il teorema spettrale e una matrice ortogonale - ho quella che noi abbiamo chiamato forma canonica.
Tuttavia, esistono infinite forme canoniche per la stessa forma quadratica: siccome i matematici hanno una predilezione per il numero 1
, si preferisce la forma canonica che ha (come coefficienti) tanti 1 quanti sono gli autovalori positivi, tanti -1 quanti gli autovalori negativi (e tanti zero per gli autovalori nulli): questa noi la chiamiamo forma normale.
Io ho sempre fatto così, non conoscevo il vostro algoritmo (che però adesso mi guardo con calma): se un esercizio mi chiedeva di trovare una base ortonormale (o anche solo ortogonale, come in questo caso) rispetto a una forma bilineare allora io trovavo la base rispetto cui la forma quadratica associata si scrive in forma normale.
E' giusto quanto dico o sto sparando cavolate? Se mi sono espresso male dimmelo, posto un esempio così magari riusciamo a capirci meglio.
Grazie per l'aiuto e scusa l'ignoranza
"cirasa":
[quote="Paolo90"]Scusate l'intromissione: un procedimento alternativo per risolvere l'esercizio poteva essere questo?
Considero la forma quadratica (associata a quel prodotto scalare): la scrivo in forma normale. La base rispetto alla quale si scrive in forma normale è la base cercata, ortonormale rispetto al prodotto scalare associato a $A$.
Certo Paolo, stiamo facendo esattamente questo: scrivere la forma quadratica in forma normale (immagino che per "forma normale" intendi in forma diagonale).
[/quote]
Mmm, penso che abbiamo un diverso modo di chiamare le cose.
A lezione, noi abbiamo visto che considerata una forma bilineare (simmetrica per comodità) gli si associa in modo naturale una forma quadratica. Nel momento in cui diagonalizzo la matrice associata alla f.b. (o alla f.q.) - ad esempio, usando il teorema spettrale e una matrice ortogonale - ho quella che noi abbiamo chiamato forma canonica.
Tuttavia, esistono infinite forme canoniche per la stessa forma quadratica: siccome i matematici hanno una predilezione per il numero 1

Io ho sempre fatto così, non conoscevo il vostro algoritmo (che però adesso mi guardo con calma): se un esercizio mi chiedeva di trovare una base ortonormale (o anche solo ortogonale, come in questo caso) rispetto a una forma bilineare allora io trovavo la base rispetto cui la forma quadratica associata si scrive in forma normale.
E' giusto quanto dico o sto sparando cavolate? Se mi sono espresso male dimmelo, posto un esempio così magari riusciamo a capirci meglio.
Grazie per l'aiuto e scusa l'ignoranza

Provo a rispondere ad entrambi in un colpo solo 
@Paolo: Quello che dici è giusto.
Il nostro invece è un algoritmo molto facile con il quale, partendo da una forma bilineare $b$ simmetrica, ottengo una base dello spazio ortogonale (rispetto a $b$), senza passare attraverso il teorema spettrale.
Ciò significa che la matrice associata a $b$ rispetto a tale nuova base è diagonale.
Poi, come dici tu, nel caso reale, a meno di riordinare i vettori della base e/o moltiplicarli per qualche scalare, si può ottenere la matrice diagonale con tanti $1$, $-1$ o $0$ sulla diagonale principale.
L'algoritmo è quello descritto nel mio post precedente (se vuoi, ti posto una precisa dimostrazione).
@gael90rm: Vedo che non ti è chiara la questione di dove calcolare l'ortogonale. Proseguo dal punto in cui ti sei fermato (sperando che i tuoi conti precedenti siano giusti, visto che non li ho controllati)
Prendi $w=( ( 0 ),( 1 ),( 0 ) )$. Dovrebbe essere non isotropo. Devi calcolare l'ortogonale di $w$, ma -bada bene- in $W$ e non in $RR^3$.
Vediamo come fare: l'ortogonale di $w$ in $W$ è l'insieme di tutti i vettori di $W$ (e non di $RR^3$) ortogonali a $w$.
I vettori di $W$ sono tutti del tipo $v=a( ( 0 ),( 1 ),( 0 ) ) +b ( ( 0 ),( 0 ),( 1 ) )=( ( 0 ),( a ),( b ) )$.
Impongo che $v$ sia ortogonale a $w$ (cioè calcolo $v\circ w$ e lo pongo $=0$):
$( ( 0 ),( 1 ),( 0 ) ) \circ ( ( 0 ),( a ),( b ) )=4b+4a$
Ponendolo $=0$ ottengo $4b+4a=0$, cioè $b=-a$.
Quindi i vettori dell'ortogonale di $w$ in $W$ (ripeto: in $W$ e non in $RR^3$) sono tutti nella forma $v=( ( 0 ),( a ),( -a ) )$, ovvero una base è formata dal solo vettore $u=( ( 0 ),( 1),( -1 ) )$.
A te lascio il compito di controllare che il primo vettore isotropo, il secondo $w$ e quest'ultimo $u$ formano una base ortogonale di $RR^3$.
Almeno lo spero, visto che con i conti sono una frana e le probabilità che abbia commesso qualche errore di calcolo sono molto alte
.

@Paolo: Quello che dici è giusto.
Il nostro invece è un algoritmo molto facile con il quale, partendo da una forma bilineare $b$ simmetrica, ottengo una base dello spazio ortogonale (rispetto a $b$), senza passare attraverso il teorema spettrale.
Ciò significa che la matrice associata a $b$ rispetto a tale nuova base è diagonale.
Poi, come dici tu, nel caso reale, a meno di riordinare i vettori della base e/o moltiplicarli per qualche scalare, si può ottenere la matrice diagonale con tanti $1$, $-1$ o $0$ sulla diagonale principale.
L'algoritmo è quello descritto nel mio post precedente (se vuoi, ti posto una precisa dimostrazione).
@gael90rm: Vedo che non ti è chiara la questione di dove calcolare l'ortogonale. Proseguo dal punto in cui ti sei fermato (sperando che i tuoi conti precedenti siano giusti, visto che non li ho controllati)
"gael90rm":
Ora:
$ ( ( 0 ),( 1 ),( 0 ) ) @ ( ( 0 ),( 0 ),( 1 ) ) = 4 $ ..diverso da 0
quindi questi due vettori non sono ortogonali.. Cosa dovrei fare?
Chiamare $ W $ questo sottospazio, prendere un vettore non isotropo di questo sottospazio e calcolarmi il suo ortogonale??
In questo caso mi escono fuori altri 2 vettori.. Sono questi quelli che mi servono alla fine per scrivere la base ortogonale??
Prendi $w=( ( 0 ),( 1 ),( 0 ) )$. Dovrebbe essere non isotropo. Devi calcolare l'ortogonale di $w$, ma -bada bene- in $W$ e non in $RR^3$.
Vediamo come fare: l'ortogonale di $w$ in $W$ è l'insieme di tutti i vettori di $W$ (e non di $RR^3$) ortogonali a $w$.
I vettori di $W$ sono tutti del tipo $v=a( ( 0 ),( 1 ),( 0 ) ) +b ( ( 0 ),( 0 ),( 1 ) )=( ( 0 ),( a ),( b ) )$.
Impongo che $v$ sia ortogonale a $w$ (cioè calcolo $v\circ w$ e lo pongo $=0$):
$( ( 0 ),( 1 ),( 0 ) ) \circ ( ( 0 ),( a ),( b ) )=4b+4a$
Ponendolo $=0$ ottengo $4b+4a=0$, cioè $b=-a$.
Quindi i vettori dell'ortogonale di $w$ in $W$ (ripeto: in $W$ e non in $RR^3$) sono tutti nella forma $v=( ( 0 ),( a ),( -a ) )$, ovvero una base è formata dal solo vettore $u=( ( 0 ),( 1),( -1 ) )$.
A te lascio il compito di controllare che il primo vettore isotropo, il secondo $w$ e quest'ultimo $u$ formano una base ortogonale di $RR^3$.
Almeno lo spero, visto che con i conti sono una frana e le probabilità che abbia commesso qualche errore di calcolo sono molto alte

Perfetto
Ora torna tutto.. Grazie mille per la pazienza

"cirasa":
Provo a rispondere ad entrambi in un colpo solo
@Paolo: Quello che dici è giusto.
Il nostro invece è un algoritmo molto facile con il quale, partendo da una forma bilineare $b$ simmetrica, ottengo una base dello spazio ortogonale (rispetto a $b$), senza passare attraverso il teorema spettrale.
Ciò significa che la matrice associata a $b$ rispetto a tale nuova base è diagonale.
Poi, come dici tu, nel caso reale, a meno di riordinare i vettori della base e/o moltiplicarli per qualche scalare, si può ottenere la matrice diagonale con tanti $1$, $-1$ o $0$ sulla diagonale principale.
L'algoritmo è quello descritto nel mio post precedente (se vuoi, ti posto una precisa dimostrazione).
Grazie carissimo per la tua risposta. Ci ho meditato sopra, c'è qualche punto non chiaro.
Prendi ad esempio, la forma quadratica su $RR^4$, data da $Q(x)=-x_2^2+2x_1x_3+x_4^2$. (è un pezzo di un esercizio che ho trovato)
Ho fatto tutti i conti del caso, matrice associata etc, e si trova che è indefinita non degenere.
Adesso, considera il sottospazio $Z$ di $RR^4$ così definito: $Z=mathcal L{(1,2,0,0), (0,4,1,0)} $.
Voglio trovare una base ortogonale (rispetto alla f.b.s. associata a $Q$) di $Z$.
L'altro giorno ho fatto due conti e ho applicato Gram-Schmidt (spero sia lecito).
[size=75](piccola noticina: tra l'altro mi è servito parecchio, perchè mi sono accorto che se non si normalizza facendo G-S - come in questo caso - bisogna fare attenzione e dividere ancora per una norma)[/size]
Comunque, come base ortogonale, trovo ad esempio, $B={(1,2,0,0), (-7,2,4,0)}$ in accordo con le soluzioni proposte.
Provo invece a fare come dici tu: prendo un vettore di $Z$ non isotropo, ad esempio $v=(1,2,0,0)$. Adesso mi calcolo l'ortogonale (rispetto alla f.b.s.) di $v$ in $Z$ (mi dimentico di $RR^4$, giusto?).
Quindi, $
Ok fin qui? Ora ho evidentemente finito, giacchè ho trovato due (=dimensione di $Z$) vettori ortogonali.
Non mi è chiaro però il discorso che si fa quando la forma è degenere su $
Porta pazienza, per piacere, e grazie mille per il tuo aiuto.

P.S. Noticina sui vettori isotropi che mi è venuta in mente scrivendo. L'insieme dei vettori isotropi non è in generale un sottospazio: ma se la forma è semidefinita esso non coincide con il nucleo? Posso affermare che, data una forma semidefinita, l'insieme dei vettori isotropi è un sottospazio e coincide con il nucleo? Ho abbozzato una dimostrazione molto rapida di questo fatto, se vuoi vederla dimmelo che la posto (sempre che sia vero: lo so, adesso mi smonti, lo so... temo un controesempio banalissimo...


"Paolo90":
Ok fin qui? Ora ho evidentemente finito, giacchè ho trovato due (=dimensione di $Z$) vettori ortogonali.
Sono sicuro che i tuoi calcoli siano giusti. Mi perdonerai se non controllo, vero? Più passa il tempo e più la pigrizia prende il sopravvento.


"Paolo90":
Non mi è chiaro però il discorso che si fa quando la forma è degenere su $^bot$: che cosa vuol dire che una forma è degenere su un sottospazio? Che la restrizione della forma a quel sottospazio è degenere? Quindi ammette vettori isotropi... quindi? C'è qualcosa che non torna.
Innanzitutto devo fare il mea culpa. Mi espresso male. Intendevo dire "forma nulla" e non "forma degenere", cioè forma che si annulla su ogni coppia di vettori.
Sono passati più di quattro anni da quando non faccio esercizi su queste cose, ogni tanto capita una svista...

Se la forma bilineare è nulla su un dato sottospazio, la matrice associata a qualsiasi base è quella nulla e quindi ovviamente diagonale.
Ricapitoliamo un po' l'algoritmo.
1) Dobbiamo trovare una base ortogonale (rispetto ad una data forma bilineare simmetrica).
2) Se la forma bilineare è nulla, allora siamo a posto perchè rispetto ad ogni base la matrice associata è nulla.
3) Se la forma non è nulla, allora esiste un vettore non isotropo $v$. Si calcola $v^bot$ (è un sottospazio di dimensione più piccola di $1$). La base cercata è formata da $v$ e da una base ortogonale di $v^bot$, cioè se $v_1,...,v_{n-1}$ è base ortogonale di $v^bot$, allora $v,v_1,...,v_{n-1}$ è base ortogonale dell'intero spazio. Quindi ci siamo ricondotti a cercare una base ortogonale di $v^bot$ che è un sottospazio di dimensione più piccola. Possiamo tornare al punto 1).
Dopo un numero finito di passi l'algoritmo deve terminare.
Mi raccomando, ora, non vorrei confonderti le idee con questo nuovo algoritmo, soprattutto per il fatto che sei a pochi giorni da un esame.

"Paolo90":
P.S. Noticina sui vettori isotropi che mi è venuta in mente scrivendo. L'insieme dei vettori isotropi non è in generale un sottospazio: ma se la forma è semidefinita esso non coincide con il nucleo? Posso affermare che, data una forma semidefinita, l'insieme dei vettori isotropi è un sottospazio e coincide con il nucleo? Ho abbozzato una dimostrazione molto rapida di questo fatto, se vuoi vederla dimmelo che la posto (sempre che sia vero: lo so, adesso mi smonti, lo so... temo un controesempio banalissimo...![]()
)
Credo anch'io che sia giusto.
Se ti va, posta pure la tua dimostrazione. Sarò lieto di darci un'occhiata.
Chissà che fra qualche anno non diventi esperto di superfici light-like in varietà semiriemanniane...


"cirasa":
[quote="Paolo90"]Ok fin qui? Ora ho evidentemente finito, giacchè ho trovato due (=dimensione di $Z$) vettori ortogonali.
Sono sicuro che i tuoi calcoli siano giusti. Mi perdonerai se non controllo, vero? Più passa il tempo e più la pigrizia prende il sopravvento.


[/quote]



Tranquillo, no problem. E grazie per la fiducia

"cirasa":
Innanzitutto devo fare il mea culpa. Mi espresso male. Intendevo dire "forma nulla" e non "forma degenere", cioè forma che si annulla su ogni coppia di vettori.
Sono passati più di quattro anni da quando non faccio esercizi su queste cose, ogni tanto capita una svista...![]()
Se la forma bilineare è nulla su un dato sottospazio, la matrice associata a qualsiasi base è quella nulla e quindi ovviamente diagonale.
Ricapitoliamo un po' l'algoritmo.
1) Dobbiamo trovare una base ortogonale (rispetto ad una data forma bilineare simmetrica).
2) Se la forma bilineare è nulla, allora siamo a posto perchè rispetto ad ogni base la matrice associata è nulla.
3) Se la forma non è nulla, allora esiste un vettore non isotropo $v$. Si calcola $v^bot$ (è un sottospazio di dimensione più piccola di $1$). La base cercata è formata da $v$ e da una base ortogonale di $v^bot$, cioè se $v_1,...,v_{n-1}$ è base ortogonale di $v^bot$, allora $v,v_1,...,v_{n-1}$ è base ortogonale dell'intero spazio. Quindi ci siamo ricondotti a cercare una base ortogonale di $v^bot$ che è un sottospazio di dimensione più piccola. Possiamo tornare al punto 1).
Dopo un numero finito di passi l'algoritmo deve terminare.
Mi raccomando, ora, non vorrei confonderti le idee con questo nuovo algoritmo, soprattutto per il fatto che sei a pochi giorni da un esame.![]()
Ok, ora ho capito, grazie. Sì, è decisamente più chiaro. Quanto alla confusione, tranquillo: ce n'è già abbastanza



Scherzo: in ogni caso, se dovesse capitare qualcosa del genere, penso userò il "mio" metodo: riduzione a forma normale. Non è per altro, è che ormai ci sono abituato.
"Paolo90":
P.S. Noticina sui vettori isotropi che mi è venuta in mente scrivendo. L'insieme dei vettori isotropi non è in generale un sottospazio: ma se la forma è semidefinita esso non coincide con il nucleo? Posso affermare che, data una forma semidefinita, l'insieme dei vettori isotropi è un sottospazio e coincide con il nucleo? Ho abbozzato una dimostrazione molto rapida di questo fatto, se vuoi vederla dimmelo che la posto (sempre che sia vero: lo so, adesso mi smonti, lo so... temo un controesempio banalissimo...![]()
)
Credo anch'io che sia giusto.
Se ti va, posta pure la tua dimostrazione. Sarò lieto di darci un'occhiata.
Chissà che fra qualche anno non diventi esperto di superfici light-like in varietà semiriemanniane...![]()
Eh magari


Tornando con i piedi per terra (

Teorema. Si consideri una forma bilineare simmetrica $\varphi: V times V to RR$ semidefinita positiva, dove $V$ è uno spazio vettoriale. Sia $I$ l'insieme dei vettori isotropi di $\varphi$, ovvero $I={\bar x in V " t.c. " \varphi(barx,barx)=Q(barx)=0}$. Allora $I$ è un sottospazio vettoriale e si ha $I = "Ker" \varphi$.
Proof. Si sa che il nucleo è un sottospazio: quindi se mostro l'uguaglianza dei due insiemi ho finito. Da un lato, è ovvio che $"Ker" \varphi subseteq I$: infatti, se $\barx$ sta nel nucleo, allora $phi(\barx,\bary)=0$ per ogni $y in V$: in particolare, se prendo $y=x$ ho che $Q(\barx)=0$ e quindi $x$ è isotropo.
Viceversa, sia $\barx$ un vettore isotropo, tale cioè che $Q(\barx)=0$. Essendo $varphi$ semidefinita positiva, vale Cauchy-Schwarz: per cui $[varphi(barx,bary)]^2<=Q(x)Q(y)$, per ogni $x,y in V$. Ma $Q(\barx)=0$ da cui $[varphi(barx,bary)]^2<=0$ per ogni $y in V$: da qui discende ovviamente $varphi(barx,bary)=0$ per ogni $y$. Quindi $x$ sta nel nucleo. [tex]\square[/tex]
Che ne dici? Va bene? Ho solo un ultimo dubbio: se la forma fosse stata negativa (sempre semidefinita)? C-S vale ancora?
Grazie ancora.

Secondo me, la dimostrazione va bene.
Non ricordavo se la disuguaglianza di Cauchy-Schwarz valesse nel caso $phi$ semidefinita positiva.
Ho controllato. Tutto ok.
Io avevo pensato ad un'altra dimostrazione:
Sia $phi$ una forma bilineare semidefinita positiva (risp. negativa) su uno spazio $V$ reale di dimensione $n$.
Sia $B=(v_1,...,v_n)$ una base di $V$ tale che la matrice associata sia diagonale (esiste dal teorema di Sylvester).
La matrice associata a $phi$ rispetto alla base $B$ è diagonale con $k$ volte $1$ (risp. $-1$) sulla diagonale, con $k\le n$, cioè
$phi(v_i,v_j)=delta_{ij}$ (risp. $phi(v_i,v_j)=-delta_{ij}$) per ogni $i,j=1,2,...,k$,
$phi(v_i,v_j)=delta_{ij}$ se $i>k$ oppure $j>k$.
[$delta_{ij}$ è il delta di Kronecker]
Allora (esercizio per te) con le tue notazioni $I=ker\phi=$.
Per quanto riguarda la disuguaglianza di Cauchy-Schwarz per forme bilineari simmetriche (semi)definite negative, ho pensato questo:
sia $phi$ una forma bilineare simmetrica semidefinita negativa (risp. definita negativa).
Pongo $\eta:V\times V\to RR$ tale che $eta(v,w)=-phi(v,w)$.
Esercizio: Trova qualche proprietà su $eta$ (bilinearità, simmetria, (semi)definita positiva o negativa). Usa le proprietà che conosci su $eta$ e poi torni indietro su $phi$.
Cosa si può concludere?
Non ricordavo se la disuguaglianza di Cauchy-Schwarz valesse nel caso $phi$ semidefinita positiva.
Ho controllato. Tutto ok.
Io avevo pensato ad un'altra dimostrazione:
Sia $phi$ una forma bilineare semidefinita positiva (risp. negativa) su uno spazio $V$ reale di dimensione $n$.
Sia $B=(v_1,...,v_n)$ una base di $V$ tale che la matrice associata sia diagonale (esiste dal teorema di Sylvester).
La matrice associata a $phi$ rispetto alla base $B$ è diagonale con $k$ volte $1$ (risp. $-1$) sulla diagonale, con $k\le n$, cioè
$phi(v_i,v_j)=delta_{ij}$ (risp. $phi(v_i,v_j)=-delta_{ij}$) per ogni $i,j=1,2,...,k$,
$phi(v_i,v_j)=delta_{ij}$ se $i>k$ oppure $j>k$.
[$delta_{ij}$ è il delta di Kronecker]
Allora (esercizio per te) con le tue notazioni $I=ker\phi=
Per quanto riguarda la disuguaglianza di Cauchy-Schwarz per forme bilineari simmetriche (semi)definite negative, ho pensato questo:
sia $phi$ una forma bilineare simmetrica semidefinita negativa (risp. definita negativa).
Pongo $\eta:V\times V\to RR$ tale che $eta(v,w)=-phi(v,w)$.
Esercizio: Trova qualche proprietà su $eta$ (bilinearità, simmetria, (semi)definita positiva o negativa). Usa le proprietà che conosci su $eta$ e poi torni indietro su $phi$.
Cosa si può concludere?
"cirasa":
Secondo me, la dimostrazione va bene.
Non ricordavo se la disuguaglianza di Cauchy-Schwarz valesse nel caso $phi$ semidefinita positiva.
Ho controllato. Tutto ok.

Io avevo pensato ad un'altra dimostrazione:
Sia $phi$ una forma bilineare semidefinita positiva (risp. negativa) su uno spazio $V$ reale di dimensione $n$.
Sia $B=(v_1,...,v_n)$ una base di $V$ tale che la matrice associata sia diagonale (esiste dal teorema di Sylvester).
La matrice associata a $phi$ rispetto alla base $B$ è diagonale con $k$ volte $1$ (risp. $-1$) sulla diagonale, con $k\le n$, cioè
$phi(v_i,v_j)=delta_{ij}$ (risp. $phi(v_i,v_j)=-delta_{ij}$) per ogni $i,j=1,2,...,k$,
$phi(v_i,v_j)=delta_{ij}$ se $i>k$ oppure $j>k$.
Qui per caso intendevi $phi(v_i,v_j)=0$ se $i>k$ oppure $j>k$?
Allora (esercizio per te) con le tue notazioni $I=ker\phi=$.
Mah, ci ho pensato un po' e l'unica cosa che mi è venuta in mente (forse non è il massimo) è vederlo tramite l'endomorfismo associato alla matrice simmetrica.
Se la forma è semidefinita - mettiamo positiva - ed è associata ad una matrice diagonale, hai - sulla diagonale, per l'appunto - un po' di $1$ (fino alla $k-$esima colonna) e poi zeri.
Se la leggi come matrice associata ad un endomorfismo $f:V to V$ le "colonne" (o meglio: i vettori la cui immagine è costituita dalle colonne) dalla $k+1$esima in poi generano il nucleo. E, si sa, che il nucleo della forma coincide con il nucleo dell'endomorfismo.
C'è ancora qualche problemino con i vettori isotropi... Non so francamente come tirarli fuori da questo ragionamento. Boh.
Per quanto riguarda la disuguaglianza di Cauchy-Schwarz per forme bilineari simmetriche (semi)definite negative, ho pensato questo:
sia $phi$ una forma bilineare simmetrica semidefinita negativa (risp. definita negativa).
Pongo $\eta:V\times V\to RR$ tale che $eta(v,w)=-phi(v,w)$.
Esercizio: Trova qualche proprietà su $eta$ (bilinearità, simmetria, (semi)definita positiva o negativa). Usa le proprietà che conosci su $eta$ e poi torni indietro su $phi$.
Cosa si può concludere?
Già, bel trucchetto. Dovrebbe funzionare tutto, ovviamente $eta$ eredita da $phi$ tutto quello che vogliamo, solo che è (semi)definita positiva. Il gioco finisce quando uno vede che la forma quadratica è - a meno del segno - uguale. Cioè se $Q_1(x)$ è la forma quadratica associata a $phi$ e $Q_2(x)$ quella associata a $eta$ allora $Q_1(x)=-Q_2(x)$. Ma per fortuna meno per meno fa più


$[eta(x,y)]^2<=Q_2(x)Q_2(y) =>[-phi(x,y)]^2<=[-Q_1(x)][-Q_1(y)] => [phi(x,y)]^2<=Q_1(x)Q_1(y)$, ovviamente per ogni coppia $(x,y) in V times V$.
Nella speranza di non aver sparato boiate colossali
Grazie di tutto.

"Paolo90":Qui per caso intendevi $phi(v_i,v_j)=0$ se $i>k$ oppure $j>k$?[/quote]Sì, scusa, ho sbagliato a trascrivere.
[quote="cirasa"]...
$phi(v_i,v_j)=delta_{ij}$ se $i>k$ oppure $j>k$.
"cirasa":
Allora (esercizio per te) con le tue notazioni $I=ker\varphi=$.
Io avevo pensato di fare così (supponiamo [tex]\varphi[/tex] semidefinita positiva):
Sia [tex]$ v=\sum_{i=1}^n a_iv_i \in V[/tex] un vettore generico.
Allora [tex]$ \varphi(v,v)=\sum_{i,j=1}^na_ia_j\varphi(v_i,v_j)=\sum_{i=1}^k(a_i)^2[/tex].
Quindi [tex]v[/tex] è isotropo se e solo se [tex]a_1=\dots=a_k=0[/tex], ovvero se e solo se [tex]$ v\in\langle v_{k+1},\dots,v_n\rangle[/tex].
In modo più o meno analogo, si dovrebbe riuscire a provare che [tex]v\in\ker\varphi[/tex] se e solo se [tex]$ v\in\langle v_{k+1},\dots,v_n\rangle[/tex].
E un'analoga dimostrazione -a meno di qualche segno- dovrebbe valere per [tex]\varphi[/tex] semidefinita negativa.
Tutto ok, sulla dimostrazione della disuguaglianza di C-S per le forme semidefinite negative.
Se mi viene in mente qualche altro esercizio sulle forme bilineari, te lo posto.
"cirasa":
[quote="cirasa"]Allora (esercizio per te) con le tue notazioni $I=ker\varphi=$.
Io avevo pensato di fare così (supponiamo [tex]\varphi[/tex] semidefinita positiva):
Sia [tex]$ v=\sum_{i=1}^n a_iv_i \in V[/tex] un vettore generico.
Allora [tex]$ \varphi(v,v)=\sum_{i,j=1}^na_ia_j\varphi(v_i,v_j)=\sum_{i=1}^k(a_i)^2[/tex].
Quindi [tex]v[/tex] è isotropo se e solo se [tex]a_1=\dots=a_k=0[/tex], ovvero se e solo se [tex]$ v\in\langle v_{k+1},\dots,v_n\rangle[/tex].
In modo più o meno analogo, si dovrebbe riuscire a provare che [tex]v\in\ker\varphi[/tex] se e solo se [tex]$ v\in\langle v_{k+1},\dots,v_n\rangle[/tex].
[/quote]
Ok, ho capito che cosa intendevi. Grazie.
Tutto ok, sulla dimostrazione della disuguaglianza di C-S per le forme semidefinite negative.
Evvai


Se mi viene in mente qualche altro esercizio sulle forme bilineari, te lo posto.
Grazie mille.
A presto,
