Sistema lineare: $n$ equazioni, 1 incognita, 1 o infinte soluzioni
Vi descrivo un problema vermente banale che sto cercando di risolvere da ieri senza successo. Supponiamo che io voglia risolvere l'equazione
\[
\left(\sum_{i=1}^{n} a_i b_i\right) x = 0
\]
con $\mathbf{a}, \mathbf{b} \in \mathbb{R}^n$ e $x \in \mathbb{R}$. Inoltre, possiamo supporre che $\mathbf{a} \ne 0$ e che $b_i \ne 0$ per $1 \le i \le n$. A me sembra pacifico che la soluzione sia $x = 0$ per $ (\sum_{i=1}^{n} a_i b_i) \ne 0$, $x \in \mathbb{R}$ altrimenti. Ora se scriviamo l'equazione in questo modo
\[
\mathbf{a}^\intercal\mathbf{b}\; x = 0
\]
a me sembra di poter fare
\[
\frac{1}{\mathbf{a}}\mathbf{a}^\intercal\mathbf{b}\; x = \frac{1}{\mathbf{a}} 0
\]
che conduce al sistema di $n$ equazioni lineari $\mathbf{b}\; x = 0$ che ha la sola soluzione $x = 0$ anche quando $(\sum_{i=1}^{n} a_i b_i) = 0$. Presumibilmente, il secondo procedimento contiene un qualche errore, che non riesco tuttavia a trovare. L'ipotesi più plausibile mi sembra una qualche divisione per zero, dal momento che, anche se in due fasi, divido per $\mathbf{a}^T \mathbf{b}$. A questo punto mi vengono due domande:
\[
\left(\sum_{i=1}^{n} a_i b_i\right) x = 0
\]
con $\mathbf{a}, \mathbf{b} \in \mathbb{R}^n$ e $x \in \mathbb{R}$. Inoltre, possiamo supporre che $\mathbf{a} \ne 0$ e che $b_i \ne 0$ per $1 \le i \le n$. A me sembra pacifico che la soluzione sia $x = 0$ per $ (\sum_{i=1}^{n} a_i b_i) \ne 0$, $x \in \mathbb{R}$ altrimenti. Ora se scriviamo l'equazione in questo modo
\[
\mathbf{a}^\intercal\mathbf{b}\; x = 0
\]
a me sembra di poter fare
\[
\frac{1}{\mathbf{a}}\mathbf{a}^\intercal\mathbf{b}\; x = \frac{1}{\mathbf{a}} 0
\]
che conduce al sistema di $n$ equazioni lineari $\mathbf{b}\; x = 0$ che ha la sola soluzione $x = 0$ anche quando $(\sum_{i=1}^{n} a_i b_i) = 0$. Presumibilmente, il secondo procedimento contiene un qualche errore, che non riesco tuttavia a trovare. L'ipotesi più plausibile mi sembra una qualche divisione per zero, dal momento che, anche se in due fasi, divido per $\mathbf{a}^T \mathbf{b}$. A questo punto mi vengono due domande:
[*:g7lnfsht] Qual è effettivamente l'errore nel secondo ragionamento?
[/*:m:g7lnfsht]
[*:g7lnfsht] Supponendo di avere invece di due vettori due matrici $\mathbf{A}, \mathbf{B} \in \mathbb{R}^{n \times k}$, posso risolvere in generale il sistema
\[
\mathbf{A}^\intercal \mathbf{B} x = 0
\]
ponendo opportune ipotesi su $\mathbf{A}$ e $\mathbf{B}$ ma non sul loro prodotto?[/*:m:g7lnfsht][/list:u:g7lnfsht]
Grazie a tutti!
Risposte
[xdom="vict85"]Sposto in Geometria e Algebra Lineare[/xdom]
Non capisco cosa significhi per te la scrittura \(\displaystyle \frac{1}{\mathbf{a}} \). Intendi il vettore \(\displaystyle \mathbf{c} = \bigr(a_i^{-1}\bigl) \)? Tieni però conto che \(\displaystyle \mathbf{a}\neq 0 \) non implica l'esistenza di \(\displaystyle \mathbf{c} \). E comunque un tale elemento non ti serve a nulla.
Tu hai che \(\displaystyle \mathbf{a}^\intercal\mathbf{b} x = 0 \). Siccome \(\displaystyle \mathbb{R} \) è un dominio di integrita (essendo un campo) allora l'equazione implica \(\displaystyle x = 0 \) oppure \(\displaystyle \mathbf{a}^\intercal\mathbf{b} = 0 \). Quindi o \(\displaystyle x = 0 \) oppure i due vettori sono ortogonali.
Quindi le soluzioni sono \(\displaystyle x = 0 \) se i vettori non sono ortogonali e tutto \(\displaystyle \mathbb{R} \) se i vettori sono ortogonali.
Tu hai che \(\displaystyle \mathbf{a}^\intercal\mathbf{b} x = 0 \). Siccome \(\displaystyle \mathbb{R} \) è un dominio di integrita (essendo un campo) allora l'equazione implica \(\displaystyle x = 0 \) oppure \(\displaystyle \mathbf{a}^\intercal\mathbf{b} = 0 \). Quindi o \(\displaystyle x = 0 \) oppure i due vettori sono ortogonali.
Quindi le soluzioni sono \(\displaystyle x = 0 \) se i vettori non sono ortogonali e tutto \(\displaystyle \mathbb{R} \) se i vettori sono ortogonali.
"Quindi le soluzioni sono x=0 se i vettori non sono ortogonali e tutto R se i vettori sono ortogonali" ...ottimo vic..visto in termini di prodotto scalare nullo di vettori ortogonali..a quel punto x (o anche il VETTORE x , non necessariamente un reale o un complesso) può essere quello che vuole..sempre 0 (o vettore nullo) fa...
Allora, innanzitutto grazie di aver risposto. Cercherò di essere più chiaro, perché effettivamente ho fatto (piuttosto) confusione, mi sa. Allora con la scrittura $\frac{1}{\mathbf{a}}$ volevo intendere un vettore $\mathbf{c}$ tale che $\mathbf{c}\mathbf{a} = 1$. Provo ad aggiungere un esempio: con $\mathbf{a} = (1, -1)^T$ e $\mathbf{b} = (1, 1)^T$, avremo che
\[
(1\;\;-1)
\begin{pmatrix}
1\\
1
\end{pmatrix}
x = 0.
\]
Poniamo ora $\mathbf{c} = (2, 1)^T$ e moltiplichiamo per $\mathbf{c}$ a sinistra. Avremo, secondo il mio calcolo,
\[
\begin{pmatrix}
1\\
1
\end{pmatrix}
x =
\begin{pmatrix}
0\\
0
\end{pmatrix}.
\]
che ha come unica soluzione $x = 0$, nonostante i due vettori siano ortogonali. Quindi... dov'è che sbaglio secondo voi? Proprio non ci arrivo...
\[
(1\;\;-1)
\begin{pmatrix}
1\\
1
\end{pmatrix}
x = 0.
\]
Poniamo ora $\mathbf{c} = (2, 1)^T$ e moltiplichiamo per $\mathbf{c}$ a sinistra. Avremo, secondo il mio calcolo,
\[
\begin{pmatrix}
1\\
1
\end{pmatrix}
x =
\begin{pmatrix}
0\\
0
\end{pmatrix}.
\]
che ha come unica soluzione $x = 0$, nonostante i due vettori siano ortogonali. Quindi... dov'è che sbaglio secondo voi? Proprio non ci arrivo...