Funzioni linearmente indipendenti
Ciao 
Oggi vorrei chiedervi dell'esistenza riguardo un teorema che dimostri: "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti".
Ho letto tale affermazione ma sinceramente conoscevo solo il teorema del wronskiano che si riferisce a n funzioni linearmente indipendenti quando il determinante di quella particolare matrice è diverso da zero in ogni punto dell'intervallo [a,b] di derivabilità fino a ordine n delle funzioni... però mi sfugge il perché dell'affermazione sui differenziali.
Grazie a chiunque mi aiuti.

Oggi vorrei chiedervi dell'esistenza riguardo un teorema che dimostri: "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti".
Ho letto tale affermazione ma sinceramente conoscevo solo il teorema del wronskiano che si riferisce a n funzioni linearmente indipendenti quando il determinante di quella particolare matrice è diverso da zero in ogni punto dell'intervallo [a,b] di derivabilità fino a ordine n delle funzioni... però mi sfugge il perché dell'affermazione sui differenziali.
Grazie a chiunque mi aiuti.
Risposte
Riporta un link alla discussione, che è meglio...

Ciao gugo82
grazie per aver scritto.
In realtà sono stato poco chiaro ma non era una discussione intesa come vecchia del forum. Correggo meglio il primo post.
Ad ogni modo il discorso era abbastanza ampio nel senso che si parlava di due funzioni linearmente indipendenti e mi incuriosiva capire se esistesse un teorema a me sconosciuto che dimostrasse qualcosa del genere, ossia che "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti", non c'erano molte altre ipotisi era solo per venire a conoscenza di qualcosa del genere che data la mia ingoranza non avevo mai sentito sinceramente
.
Poi avevo portato il il wronskiano ma solo per dire che era qualcosa che conoscevo per definirle L.I. ma non c'entrava molto col discorso in sé.

In realtà sono stato poco chiaro ma non era una discussione intesa come vecchia del forum. Correggo meglio il primo post.
Ad ogni modo il discorso era abbastanza ampio nel senso che si parlava di due funzioni linearmente indipendenti e mi incuriosiva capire se esistesse un teorema a me sconosciuto che dimostrasse qualcosa del genere, ossia che "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti", non c'erano molte altre ipotisi era solo per venire a conoscenza di qualcosa del genere che data la mia ingoranza non avevo mai sentito sinceramente

Poi avevo portato il il wronskiano ma solo per dire che era qualcosa che conoscevo per definirle L.I. ma non c'entrava molto col discorso in sé.
Lo spazio delle funzioni è uno spazio vettoriale e la definizione di linearmente indipendente è la solita e la differenziazione è una mappa lineare.
Prova a pensare a $x$ e $x+1$.
Scusate l'intromissione però sono alle prese con AL e stavo affrontando oggi lo spazio dei polinomi
Non sono linearmente indipendenti guardando tali funzioni come polinomi? Però il loro differenziale mi pare linearmente dipendente. Mi sfugge qualcosa

"otta96":
Prova a pensare a $x$ e $x+1$.
Non sono linearmente indipendenti guardando tali funzioni come polinomi? Però il loro differenziale mi pare linearmente dipendente. Mi sfugge qualcosa

Allora... Riordino le idee.
Vorresti dimostrare che se $"d"f_1$ e $"d"f_2$ sono indipendenti allora $f_1$ ed $f_2$ lo sono.
Il problema è capire cosa voglia dire:
poiché entrambe le forme lineari dipendono da due oggetti, i.e. il punto in cui essi si calcolano e il vettore su cui tali forme si calcolano.
Cerco di spiegare. In realtà, $"d"f$ è qualcosa di più complicato di quanto non sembri: infatti, chiamato $I sube RR$ l'intervallo di definizione di $f$, si ha:
$"d"f(x_0;h) = f^\prime (x_0) * h$,
cosicché, se la si vuole guardar bene, il differenziale $"d"f$ è una funzione sia del punto $x_0$ in cui esso è calcolato, sia dell'incremento $h$ cui esso -come forma lineare- è applicato, dunque una funzione definita in $I xx RR$.[nota]Chi ha studiato un po' di Geometria Differenziale direbbe che $"d"f$ è un oggetto che agisce -se non ricordo male- sul fibrato tangente alla varietà $I$ immersa in $RR$.[/nota]
Cosa vuol dire allora che $"d"f_1$ e $"d"f_2$ sono indipendenti?
Dovrebbe voler dire che essi sono indipendenti come applicazioni di $I xx RR$ in sé, cioè che vale l'implicazione:
Da questa implicazione è possibile risalire a:
se $AA x_0 in I, alpha_1 f_1(x_0) + alpha_2 f_2(x_0) = 0$ allora $alpha_1 = 0 = alpha_2$?
Il viceversa, come mostra l'esempio di otta96, è falso.
Vorresti dimostrare che se $"d"f_1$ e $"d"f_2$ sono indipendenti allora $f_1$ ed $f_2$ lo sono.
Il problema è capire cosa voglia dire:
"$"d"f_1$ e $"d"f_2$ sono indipendenti"
poiché entrambe le forme lineari dipendono da due oggetti, i.e. il punto in cui essi si calcolano e il vettore su cui tali forme si calcolano.
Cerco di spiegare. In realtà, $"d"f$ è qualcosa di più complicato di quanto non sembri: infatti, chiamato $I sube RR$ l'intervallo di definizione di $f$, si ha:
$"d"f(x_0;h) = f^\prime (x_0) * h$,
cosicché, se la si vuole guardar bene, il differenziale $"d"f$ è una funzione sia del punto $x_0$ in cui esso è calcolato, sia dell'incremento $h$ cui esso -come forma lineare- è applicato, dunque una funzione definita in $I xx RR$.[nota]Chi ha studiato un po' di Geometria Differenziale direbbe che $"d"f$ è un oggetto che agisce -se non ricordo male- sul fibrato tangente alla varietà $I$ immersa in $RR$.[/nota]
Cosa vuol dire allora che $"d"f_1$ e $"d"f_2$ sono indipendenti?
Dovrebbe voler dire che essi sono indipendenti come applicazioni di $I xx RR$ in sé, cioè che vale l'implicazione:
se $AA (x_0,h) in I xx RR, alpha_1 "d"f_1(x_0;h) + alpha_2 "d"f_2(x_0;h) = 0$ allora $alpha_1=0=alpha_2$.
Da questa implicazione è possibile risalire a:
se $AA x_0 in I, alpha_1 f_1(x_0) + alpha_2 f_2(x_0) = 0$ allora $alpha_1 = 0 = alpha_2$?
Il viceversa, come mostra l'esempio di otta96, è falso.
No ma non so se fosse la domanda dell'opener, mi sono solo infilato per curiosità e volevo capire se avevo capito. Ok, quindi appurato che è falso (controesempio di otta96)... credo di non aver capito la risposta di vict che mi pareva dare ragione all'asserto.
Non stavo dando ragione all'asserto, anzi. Quello che volevo dire era che era un semplice esercizio di algebra lineare. Prendi due spazi vettoriali \(V\) e \(W\) e una applicazione lineare \(f\) tra di loro. Sotto che ipotesi l'indipendenza in \(f(V)\) implica l'indipendenza in \(V\)?
Grazie
, allora ho fatto bene a intervenire perché sto proprio studiando algebra lineare e avendo frainteso credo di non saper rispondere in modo sensato a
Non so se non l'ho ancora visto o non mi venga in mente per qualcosa di non chiaro, ti chiedo un aiuto
. Non lo so.

"vict85":
Sotto che ipotesi l'indipendenza in \(f(V)\) implica l'indipendenza in \(V\)?
Non so se non l'ho ancora visto o non mi venga in mente per qualcosa di non chiaro, ti chiedo un aiuto

Ragiona un secondo, supponi per si abbia \(\sum_i^s\alpha_i\mathbf{v}_i = \mathbf{0}\), allora per la linearità di \(f\) si avrà \(\sum_i^s\alpha_i f(\mathbf{v}_i) = f(\mathbf{0})\). Quindi è evidente che l'essere linearmente dipendente nel dominio implichi l'esserlo nel codominio. Quindi l'indipendenza nel codominio implica quella nel dominio. Il viceversa è invece generalmente falso.
Considera l'operazione \(D\colon \mathbb{K}[x] \to \mathbb{K}[x]\) di derivazione polinomiale. Hai visto che \(x+1\) e \(x\) sono linearmente indipendenti anche se \(D(x+1)\) e \(D(x)\) non lo sono. Questo avviene perché \(x - (x+1) = -1 \in \ker(D)\). Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva.
A pensarci, stavo in effetti dando ragione all'asserto.
Considera l'operazione \(D\colon \mathbb{K}[x] \to \mathbb{K}[x]\) di derivazione polinomiale. Hai visto che \(x+1\) e \(x\) sono linearmente indipendenti anche se \(D(x+1)\) e \(D(x)\) non lo sono. Questo avviene perché \(x - (x+1) = -1 \in \ker(D)\). Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva.
A pensarci, stavo in effetti dando ragione all'asserto.
Ho riletto bene tutto e ho compreso le spiegazioni. Mi sono tra l'altro accorto che anche gugo ha editato il messaggio. Il discorso implicazioni che fai tu @vict85 direi che mi è chiaro.
C'è solo questo punto che non credo di aver capito
Non ho compreso perché questo avvenda per quella differenza di polinomi, ok vedo che quello appartiene al kernel ma poi non ho capito cosa c'entri l'appartenere al kernel della applicazione lineare derivazione con l'iniettività.
C'è solo questo punto che non credo di aver capito
Questo avviene perché \(x - (x+1) = -1 \in \ker(D)\). Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva.
Non ho compreso perché questo avvenda per quella differenza di polinomi, ok vedo che quello appartiene al kernel ma poi non ho capito cosa c'entri l'appartenere al kernel della applicazione lineare derivazione con l'iniettività.
Conosci la caratterizzazione di quando una funzione lineare è iniettiva in termini del suo kernel?
Supponi che si abbia \(\alpha_1\mathbf{v}_1 + \alpha_2\mathbf{v}_2 = \mathbf{w} \in \ker{f}\) per qualche \(\alpha_1, \alpha_2\in\mathbb{K}\). Se \(\displaystyle \mathbf{w}=\mathbf{0} \) allora \(\displaystyle \mathbf{v}_1 \) e \(\displaystyle \mathbf{v}_2 \) sono linearmente dipendenti. Se \(\displaystyle \mathbf{w}\neq\mathbf{0} \) allora quei due vettori potrebbero essere linearmente indipendenti, ma \(f(\mathbf{v}_1)\) e \(f(\mathbf{v}_2)\) sono certamente linearmente dipendenti. Quindi per poter invertire l'implicazione si deve avere necessariamente \(\displaystyle \mathbf{w}=\mathbf{0} \) ovvero \(\displaystyle \ker(f)=\{\mathbf{0}\} \)
Solo per ringraziarvi e dire che non avevo abbandonato la discussione a se stessa. Tuttavia avendo preso uno sviluppo interessante ho lasciato fare.
Quindi grazie
Quindi grazie

Grazie mille
Avevo frainteso la frase "Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva." Intendendo come "solo se la funzione che derivo è iniettiva" e quindi non riuescivo proprio a capire.
Quelloinfatti che intendevi è invece che devo avere necessariamente un monomorfismo, ho capito!
Però in realtà sappiamo essere necessario, in realtà potrebbe non bastare (cioè non essere sufficiente) però, stando solo a quel ragionamento, Giusto?
Cioè scriverei: Quindi l'indipendenza nel dominio implica quella nel codominio necessariamente se l'applicazione lineare è iniettiva.
Ma non: Quindi l'indipendenza nel dominio implica quella nel codominio se l'applicazione lineare è iniettiva.
Avevo frainteso la frase "Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva." Intendendo come "solo se la funzione che derivo è iniettiva" e quindi non riuescivo proprio a capire.
Quelloinfatti che intendevi è invece che devo avere necessariamente un monomorfismo, ho capito!
Però in realtà sappiamo essere necessario, in realtà potrebbe non bastare (cioè non essere sufficiente) però, stando solo a quel ragionamento, Giusto?
Cioè scriverei: Quindi l'indipendenza nel dominio implica quella nel codominio necessariamente se l'applicazione lineare è iniettiva.
Ma non: Quindi l'indipendenza nel dominio implica quella nel codominio se l'applicazione lineare è iniettiva.