Sulla dipendenza lineare

Plepp
Ciao ragazzi, sto cercando di dimostrare quanto segue, ché la Prof. ha pensato bene di non farlo (e a me non va giù imparare a pappagallo, per quanto intuitiva possa essere la cosa :-D ):

Teorema. Sia $V$ un $\mathbb{K}$-spazio vettoriale e supponiamo $V=$. Siano $w_1,...,\w_s$ vettori di $V$. Allora, se $s>n$, tali vettori sono linearmente dipendenti.

Dopo averci sbattuto la testa per ben tre ore, ho dedotto che dimostrare la proposizione "per come è scritta" sarebbe stata un'impresa vana. Ho pensato di fare qualche ragionamento preliminare, per rafforzare le ipotesi senza perdere generalità.

Innanzitutto, possiamo ridurci al caso $s=n+1$, tanto se provo che, nelle suddette condizioni, $n+1$ vettori sono L.D., ho automaticamente che $s>n$ vettori sono L.D. Poi posso supporre che, a meno di ridenominare i vettori, $w_1,..., w_n$ siano L.I., ché altrimenti, per le stesse ragioni di prima, anche $w_1,..., w_{n+1}$ sono L.D.

Supponiamo dunque $w_1,..., w_n$ e proviamo che essi generano $V$: in questo modo avrò provato che anche $w_{n+1}$ si scrive come loro combinazione lineare, che è proprio quello che vogliamo.

Dall'ipotesi che $V$ sia generato da $v_1,..., v_n$ abbiamo che $\forall j\in\{1,...,n\}$ esiste una famiglia di scalari $(\lambda_i^j)_{1\le i\le n}$ di $\mathbb{K}$ tali che
\[w_j=\sum^n_{i=1}\lambda^j_i v_i\]
Ho duqnue
\[\langle w_1,\dots,w_n\rangle \stackrel{\Delta}{=} \{\alpha_1w_1+\cdots+\alpha_nw_n\ |\ \alpha_i\in \mathbb{K}\ \forall i=1,\dots, n\}=\\
=\{\alpha_1\sum^n_{i=1}\lambda^1_i v_i+\cdots+\alpha_n\sum^n_{i=1}\lambda^n_i v_i\ |\ \alpha_i\in \mathbb{K}\ \forall i=1,\dots, n\}=\\
=\{v_1\sum_{j=1}^n \alpha_j\lambda_1^j+\cdots +v_n\sum_{j=1}^n \alpha_j\lambda_n^j\ |\ \alpha_i\in \mathbb{K}\ \forall i=1,\dots, n\}=(\star)\]
Come posso ora concludere che $(\star )=$? Mi servirebbe che per ogni famiglia di scalari non tutti nulli $(\alpha_j)_{1\le j\le n}$, e per ogni $i=1,...,n$, lo scalare $\sum_{j=1}^n \alpha_j\lambda_i^j$ sia in ogni caso non nullo, il che equivarrebbe a dire che per ogni $i=1,...,n$ esiste un $j$ tale che $\lambda_i^j\ne 0$, ma non riesco a provarlo :(

PS: in linea col testo, non riesco a scrivere le parentesi angolari (\rangle e \langle, per intenderci). Come faccio? :?

Risposte
Giso1
Io dimostrerei che, se $w_1,...,\w_s$ sono linearmente indipendenti, allora $n\>=\s$.
Tuttavia non so se sia lecito usare il concetto di dimensione o se l'esercizio anticipi questa parte... Altrimenti:

Poiché $\=V$ allora $dim V\<=\n$, inoltre, poiché abbiamo supposto $w_1,...,\w_s$ linearmente indipendenti, $dim V\>=\s$, dunque: $s\<=\dim V\<=\n$ e, in particolare $n\>=\s$.

Plepp
Purtroppo no, non posso sfruttare quei concetti, ché altrimenti sarebbe uno scherzetto ;) Il teorema in questione dovrebbe servire proprio per dare un senso al concetto di dimensione e di base di uno SV.

Ho pensato a qualcos'altro...vi prego, datemi conferma ché sto impazzendo :-D

Provo a ragionare come dici tu: provo che se i $w_i$ sono L.I allora $s\le n$. In effetti, sembra più favorevole la situazione, ma non riesco ad infilare l'induzione nella dimostrazione. Non mi sembra granché formale.

Dunque, consideriamo i vettori linearmente indipendenti $w_1,...,w_s\in V=$. In particolare i vettori $(w_i)$ sono tutti non nulli. Poiché $w_1\in V$, allora esiste una famiglia di scalari $(\lambda_i)_{1\le i\le n}$ tale che
\[w_1=\lambda_1v_1+\cdots+\lambda_n v_n\]
Sicuramente almeno uno degli scalari $\lambda_i$ è non nullo: sia esso $\lambda_1$. Ho quindi (perdonami la notazione insolita xD ci intendiamo lo stesso):
\[v_1=\dfrac{-w_1-\lambda_2v_2-\cdots-\lambda_n v_n}{\lambda_1}\in\langle w_1,v_2,\dots, v_n\rangle\]
Segue da questo che
\[V= \langle v_1,\dots, v_n\rangle \subseteq \langle w_1,v_2,\dots, v_n\rangle\]
cioè
\[V=\langle w_1,v_2,\dots, v_n\rangle\]
Ripetiamo la stessa tiritera con $w_2$: esso è un elemento di $V$, quindi si può scrivere come combinazione lineare, diciamo tramite i coefficienti $(\mu_i)_{1\le i \le n}$, dei vettori $w_1,v_2,..., v_n$. Esiste sicuramente un $i\ge 2$ tale che $\mu_i\ne 0$. Se così non fosse, o i $\mu_i$ sarebbero tutti nulli, il ché è escluso dal momento che $w_2\ne 0_V$, oppure si avrebbe $\mu_1\ne 0$ e $\mu_i=0$ per $i\ge 2$, cioè $w_2$ sarebbe proporzionale a $w_1$, ovvero dipenderebbe linearmente da esso: impossibile.
Sia $\mu_2\ne 0$. Allora si ha
\[v_2=\dfrac{-\mu_1w_1-w_2-\cdots-\mu_n v_n}{\mu_2}\in\langle w_1,w_2,v_3\dots,v_n \rangle\]
e si ha che
\[\langle w_1,w_2,v_3\dots,v_n \rangle=V\]
Iterando questo processo, mi ritrovo alla fine in questa situazione:
\[V=\langle w_1,w_2,\dots,w_s,v_{s+1},\dots,v_n \rangle\]
Se per assurdo fosse $s>n$, allora, arrestando il processo dopo $n$ passi avrei
\[V=\langle w_1,w_2,\dots,w_n\rangle\]
e che $w_{n+1}\in V$ (o, se vogliamo, $w_s$), ovvero $w_{n+1}$ dipende linearmente dai $w_1,...,w_n$: assurdo.

Mi pare che funzioni, ma forse bisognerebbe formalizzare meglio :? Aiuto :(

Giso1
Mi sembra giusto! Anche se ho la sensazione che ci sia un modo maledettamente immediato per farlo :)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.