Geometria e Algebra Lineare
Discussioni su problemi, esercizi e teoremi che riguardano la geometria, l'algebra lineare e la topologia
Domande e risposte
Ordina per
In evidenza
Sia $YsubeX$ un sottoinsieme, si supponga che ${X_i}_{iinI}$ sia un ricoprimento chiuso localmente finito di $X$. Allora se per ogni $iinI$ l’insieme $YnnX_i$ è chiuso in $X_i$ si ha che $Y$ è chiuso in $X$. Mostrare con un controesempio che se ${X_i}_{iinI}$ è solo un ricoprimento chiuso di $X$, allora non è vera la tesi.
Iniziamo dalla dimostrazione, siccome per ogni $iinI$ si ...
Sia $f:X->Y$ una funzione continua, iniettiva, aperta o chiusa tra spazi topologici. Si provi che $f$ è un immersione, cioè la topologia di $X$ coincide con la topologia indotta da $Y$ tramite $f$.
Io non ho capito più che altro cosa intende quando devo mostrare che "la topologia di $X$ coincide con la topologia indotta da $Y$ tramite $f$", devo far vedere che presa $\tau$ la ...
1)Esiste una topologia $\tau$ su $RR$ tale che lo spazio topologico $(RR,\tau )$ è compatto e T2?
2)Esiste una topologia $\tau$ su $ZZ$ tale che lo spazio topologico $(ZZ,\tau)$ è compatto e T2?
Sia $f:X->Y$ una funzione e sia $\tau_Y$ una topologia su $Y$ e definiamo il pullback di $\tau_Y$ come $f^**\tau_Y={f^-1(B)|Bin\tau_Y}$. Consideriamo ora invece $\tau_X$ una topologia su $X$ e ...

Aiuto! Non riesco a risolvere questo problema:
Per ogni x ∈ R sia A(X)=
1 2 x
x x 1
2 1 2
(a) Determinare l’insieme T degli x
per i quali la funzione EG `e
definita in A(x).
(b) Per ogni x ∈ R discutere
l’esistenza di fattorizzazioni
LR di A(x).

Sto cercando di capire la definizione di cono ma non sono sicuro di aver capito benissimo.
Il professore ha definito S cono l'insieme che rispetta x∈S => Span(x)∈S
Quindi assumo l'insieme di punti di un certo V spazio e lo chiamo S, questo insieme S è un cono se è tale che se x appartiene a questo insieme S anche ax∈S con a∈R qualunque (cioè lo span). Questo mi sembra essere giusto.
Qui viene il mio dubbio scemotto: mi chiedo se posso anche definire così: S:={x∈V|x∈S => x∈Span(x)}, cioè per ...
Sia $X$ uno spazio topologico, sia $x_0inX$ e sia $f:X-> RR$ una funzione continua. Si provino le seguenti affermazioni.
(1) Se $f(x_0) > 0$, allora esiste un intorno $U$ di $x_0$ in $X$ tale che per ogni $x inU$ vale $f(x) > 0$.
(2) Se $x_0$ non è un punto isolato in $X$ ed esiste un intorno $U$ di $x_0$ in $X$ tale che per ogni ...
Sia $X$ un insieme e sia $SsubeP(X)$ un insieme di sottoinsiemi di $X$.
Si provi che esiste un’unica topologia su $X$ che è la meno fine tra quelle che contengono $S$.
L'ho spiegata così: consideriamo $\tau_SsubeP(X)$ che contiene $S$ e il numero minimale di sottoinsiemi di $X$ affinchè $\tau_S$ sia una topologia su $X$, per cui ogni altra topologia che contiene ...

Determinare tutti i punti doppi della quartica le cui equazioni parametriche razionali sono
X = 2t/(t² - 1), Y = [(t + 1)²]/t².
Ho provato a calcolare le derivate prime di X e di Y e ho visto che non si annullano, ma la parametrizzazione non è regolare e quindi la curva potrebbe presentare un nodo, che non riesco a trovare.
Qualcuno potrebbe aiutarmi?

Volevo chiedere un chiarimento su due punti teorici però mostrati dal mio professore solo con due esercizi e vorrei generalizzarli.
Il fatto è il seguente:
- se $W<=V => ((W)^⊥)^⊥=W$ normalmente, però se φ ha nucleo => è degenere e non è più vero che $((W)^⊥)^⊥=W$. Ma perché dipenda dall'essere degenere (questo non funzioanre più della formula detta) non ho capito.
- $W⊕W^⊥=W$ (con $W<=V$), e anche qui non è vero per le forme φ con vettori isotropi. Cioè se ho isotropi: ...

Buon sabato sera!
Mi sto sollazzando con la costruzione delle equazioni delle figure geometriche partendo dalle loro definizioni. Ho un problema con l’iperbole. La definizione è: il luogo geometrico dei punti del piano tali per cui è costante la differenza delle distanze da due punti fissi detti fuochi.
Quindi, volendo costituire l’equazione a partire dalla definizione si ha:
Dato un generico punto P(x,y)
Dati i due fuochi F1($x_f1$,$y_f1$) ed ...

Ciao,
ho un dubbio sulle forme bilineari di cui sto studiando la teoria.
So che una forma bilineare è definita positiva se $phi(x,x)>=0$ e $=0 <=>x=0$
(ci sono poi quelle definite negavite indefinte ecc che non sto ad elencare ora)
Tuttavia c'è un fatto che non capisco benissimo ed è il seguente:
assumiamo una base di V che indico al solito: $B_V={v_1,...,v_n}$ con la proprietà che $phi(v_i,v_j)=0 <=> i!=j$ e $phi(v_i,v_j)=0 <=> i=j$. Finora non potrei concludere nulla sulla sua definitezza, infatti ...

Buonasera. Sia data una matrice $A\in\mathbb{C}^{n\times n}$ normale e $P\in\mathbb{C}^{n\times p}$ una matrice con colonne ortonormali (occhio che $P$ può essere rettangolare). Se $\lambda_1,\ldots,\lambda_n$ sono gli autovalori di $A$ allora gli autovalori di $P^{\ast} AP$ sono combinazioni convesse di $\lambda_1,\ldots,\lambda_n$, o in simboli se $\beta$ è radice di det$(P^{\ast}AP-xI)$ allora $\beta\in$Hull$(\lambda_1,\ldots,\lambda_n)$.
E' evidente che se $P$ è quadrata la tesi è ...

Ciao,
avrei un esercizio che mi ha fatto porre delle domande sui temi di "diagonalizzazione" e "teorema spettrale".
L'esercizio è il seguente:
Date $A=((1,0,0),(1,-1,0),(2,3,2))$ e $B((1,0,0),(0,-1,0),(0,0,2))$ determinare se:
1- esiste P invertibile tale che $P^-1AP=B$, e se esiste trovarla
2- stiste K ortogonale tale che $K^-1AK=B$ e trovarla se esiste.
I miei dubbi sono i seguenti:
1- io so che A è diagonalizzabile se e solo se esiste la matrice P' tale che renda vera la relazione di similitudine ...
Thm: Sia X uno spazio numerabilmente compatto e paracompatto allora X è compatto.
Salve a tutti, non riesco a dimostrare questo teorema. Per numerabilmente compatto intendo che per ogni sottoricoprimento numerabile di X esiste un sottoricoprimento finito di X.

C'e una affermazione di cui non sono sicuro di aver capito se ho trovato una buona dimostrazione:
$lambda=0$ autovalore di $f$ $<=> ker(f)!={0}$
Sono dati $n+1$ nodi $0<=x_0<x_1<....<x_n<pi$ e corrsipondeti valori $y_0,...,y_n$. Mostrare che esiste un unico "polinomio coseno" $C(x)=\sum_{j=1}^na_jcos(jx)$ tale che $C(x_j)=y_j$ con $j=0,...,n$.
Allora io avevo pensato di fare così: imponiamo le condizioni su $x_j$:
$a_1cos(x_0)+...+a_ncos(nx_0)=y_0$
.
.
.
$a_1cos(x_n)+...+a_ncos(nx_n)=y_n$
da cui otteniamo:
$((cos(x_0),...,cos(nx_0)),(.,,.),(.,,.),(.,,.),(cos(x_n),...,cos(nx_n)))((a_1),(.),(.),(.),(a_n))=((y_0),(.),(.),(.),(y_n))$
Chiamiamo $C$ la matrice $(n+1)xxn$, poi $a$ il vettore di dimensione ...

Ciao,
durante lo studio mi sono accorto che mi è sorto un dubbio del quale però non so come dare una risposta valida. O meglio ci ho provato ma non sono sicuro sia corretta.
L'idea intuitiva che vorrei portare è la seguente, mettiamo di essere nello spazio $V_3$ euclideo classico, per intenderci quello per cui tutti abbiamo una concezione semplice e quasi innata (dalle scuole superiori) di freccette coapplicate nell'origine e che puntano nello spazio.
Quello che noto è il seguente ...

Ciao,
c'è un esercizio che non riesco a capire perché non mi torni. Ho la mia bella applicazione lineare:
$f: RR^3 -> RR^3$, $f(x_1,x_2,x_3)=(x_2-x_3, x_1+x_2, x_1-x_3)$ e assumiamo il sottospazio $Z={(y_1, y_2, y_3)| 2y_1-3y_2+y_3=0}$. Si chiede di trovare $f^-1(Z)$
SOL:
Primo metodo
$f^-1(Z)={vecx in RR^3|f(vecx)in Z}$
Allora ho pensato che equivale a dire:
$f^-1(Z)={vecx in RR^3|∃vecyinZ|f(vecx)=vecy}$
Ora, cosa vuol dire $∃vecyinZ$? Beh dalla definizione di Z (vuol dire) che sono vettori di R3 del tipo:
$(y_1, y_2, -2y_1+3y_2)$ e gli $f^-1(Z)$ saranno quelle x per ...
Sto avendo un po' di difficoltà nel dare un significato grafico a questi due concetti. Perdonate la confusione generale.
Da quello che ho inteso uno spazio affine è uno spazio vettoriale che non ha centro privilegiato. Considerando il particolare caso di $R^2$, posso intenderla come una traslazione del piano cartesiano in un punto differente dal centro $O(0,0)$ (nel caso in cui non consideri il riferimento standard)? E' corretta come interpretazione?
Inoltre il riferimento ...

Volevo chiedere una cosa riguardo le matrici inverse.
Ho visto una dimostrazione per cui una matrice A se ha inversa sinistra ha inversa destra (però la dimostrazione sfrutta il fatto che il rango sia massimo).
Mi chiedevo quindi, se il rango non fosse massimo non è più vero che la matrice inversa sinistra implica che abbiamo inversa destra? Oppure esiste una generalizzazione di questo anche per matrici che non abbiano rango massimo?