Funzioni linearmente indipendenti

alifasi
Ciao :)

Oggi vorrei chiedervi dell'esistenza riguardo un teorema che dimostri: "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti".
Ho letto tale affermazione ma sinceramente conoscevo solo il teorema del wronskiano che si riferisce a n funzioni linearmente indipendenti quando il determinante di quella particolare matrice è diverso da zero in ogni punto dell'intervallo [a,b] di derivabilità fino a ordine n delle funzioni... però mi sfugge il perché dell'affermazione sui differenziali.

Grazie a chiunque mi aiuti.

Risposte
gugo82
Riporta un link alla discussione, che è meglio... :wink:

alifasi
Ciao gugo82 :) grazie per aver scritto.

In realtà sono stato poco chiaro ma non era una discussione intesa come vecchia del forum. Correggo meglio il primo post.

Ad ogni modo il discorso era abbastanza ampio nel senso che si parlava di due funzioni linearmente indipendenti e mi incuriosiva capire se esistesse un teorema a me sconosciuto che dimostrasse qualcosa del genere, ossia che "due funzioni sono indipendenti quando i loro differenziali sono linearmente indipendenti", non c'erano molte altre ipotisi era solo per venire a conoscenza di qualcosa del genere che data la mia ingoranza non avevo mai sentito sinceramente :oops:.

Poi avevo portato il il wronskiano ma solo per dire che era qualcosa che conoscevo per definirle L.I. ma non c'entrava molto col discorso in sé.

vict85
Lo spazio delle funzioni è uno spazio vettoriale e la definizione di linearmente indipendente è la solita e la differenziazione è una mappa lineare.

otta96
Prova a pensare a $x$ e $x+1$.

moenia
Scusate l'intromissione però sono alle prese con AL e stavo affrontando oggi lo spazio dei polinomi :roll:

"otta96":
Prova a pensare a $x$ e $x+1$.


Non sono linearmente indipendenti guardando tali funzioni come polinomi? Però il loro differenziale mi pare linearmente dipendente. Mi sfugge qualcosa :smt012

gugo82
Allora... Riordino le idee.

Vorresti dimostrare che se $"d"f_1$ e $"d"f_2$ sono indipendenti allora $f_1$ ed $f_2$ lo sono.
Il problema è capire cosa voglia dire:
"$"d"f_1$ e $"d"f_2$ sono indipendenti"

poiché entrambe le forme lineari dipendono da due oggetti, i.e. il punto in cui essi si calcolano e il vettore su cui tali forme si calcolano.
Cerco di spiegare. In realtà, $"d"f$ è qualcosa di più complicato di quanto non sembri: infatti, chiamato $I sube RR$ l'intervallo di definizione di $f$, si ha:

$"d"f(x_0;h) = f^\prime (x_0) * h$,

cosicché, se la si vuole guardar bene, il differenziale $"d"f$ è una funzione sia del punto $x_0$ in cui esso è calcolato, sia dell'incremento $h$ cui esso -come forma lineare- è applicato, dunque una funzione definita in $I xx RR$.[nota]Chi ha studiato un po' di Geometria Differenziale direbbe che $"d"f$ è un oggetto che agisce -se non ricordo male- sul fibrato tangente alla varietà $I$ immersa in $RR$.[/nota]
Cosa vuol dire allora che $"d"f_1$ e $"d"f_2$ sono indipendenti?
Dovrebbe voler dire che essi sono indipendenti come applicazioni di $I xx RR$ in sé, cioè che vale l'implicazione:

se $AA (x_0,h) in I xx RR, alpha_1 "d"f_1(x_0;h) + alpha_2 "d"f_2(x_0;h) = 0$ allora $alpha_1=0=alpha_2$.


Da questa implicazione è possibile risalire a:

se $AA x_0 in I, alpha_1 f_1(x_0) + alpha_2 f_2(x_0) = 0$ allora $alpha_1 = 0 = alpha_2$?

Il viceversa, come mostra l'esempio di otta96, è falso.

moenia
No ma non so se fosse la domanda dell'opener, mi sono solo infilato per curiosità e volevo capire se avevo capito. Ok, quindi appurato che è falso (controesempio di otta96)... credo di non aver capito la risposta di vict che mi pareva dare ragione all'asserto.

vict85
Non stavo dando ragione all'asserto, anzi. Quello che volevo dire era che era un semplice esercizio di algebra lineare. Prendi due spazi vettoriali \(V\) e \(W\) e una applicazione lineare \(f\) tra di loro. Sotto che ipotesi l'indipendenza in \(f(V)\) implica l'indipendenza in \(V\)?

moenia
Grazie :), allora ho fatto bene a intervenire perché sto proprio studiando algebra lineare e avendo frainteso credo di non saper rispondere in modo sensato a

"vict85":
Sotto che ipotesi l'indipendenza in \(f(V)\) implica l'indipendenza in \(V\)?


Non so se non l'ho ancora visto o non mi venga in mente per qualcosa di non chiaro, ti chiedo un aiuto :oops:. Non lo so.

vict85
Ragiona un secondo, supponi per si abbia \(\sum_i^s\alpha_i\mathbf{v}_i = \mathbf{0}\), allora per la linearità di \(f\) si avrà \(\sum_i^s\alpha_i f(\mathbf{v}_i) = f(\mathbf{0})\). Quindi è evidente che l'essere linearmente dipendente nel dominio implichi l'esserlo nel codominio. Quindi l'indipendenza nel codominio implica quella nel dominio. Il viceversa è invece generalmente falso.

Considera l'operazione \(D\colon \mathbb{K}[x] \to \mathbb{K}[x]\) di derivazione polinomiale. Hai visto che \(x+1\) e \(x\) sono linearmente indipendenti anche se \(D(x+1)\) e \(D(x)\) non lo sono. Questo avviene perché \(x - (x+1) = -1 \in \ker(D)\). Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva.

A pensarci, stavo in effetti dando ragione all'asserto.

moenia
Ho riletto bene tutto e ho compreso le spiegazioni. Mi sono tra l'altro accorto che anche gugo ha editato il messaggio. Il discorso implicazioni che fai tu @vict85 direi che mi è chiaro.

C'è solo questo punto che non credo di aver capito

Questo avviene perché \(x - (x+1) = -1 \in \ker(D)\). Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva.


Non ho compreso perché questo avvenda per quella differenza di polinomi, ok vedo che quello appartiene al kernel ma poi non ho capito cosa c'entri l'appartenere al kernel della applicazione lineare derivazione con l'iniettività.

otta96
Conosci la caratterizzazione di quando una funzione lineare è iniettiva in termini del suo kernel?

vict85
Supponi che si abbia \(\alpha_1\mathbf{v}_1 + \alpha_2\mathbf{v}_2 = \mathbf{w} \in \ker{f}\) per qualche \(\alpha_1, \alpha_2\in\mathbb{K}\). Se \(\displaystyle \mathbf{w}=\mathbf{0} \) allora \(\displaystyle \mathbf{v}_1 \) e \(\displaystyle \mathbf{v}_2 \) sono linearmente dipendenti. Se \(\displaystyle \mathbf{w}\neq\mathbf{0} \) allora quei due vettori potrebbero essere linearmente indipendenti, ma \(f(\mathbf{v}_1)\) e \(f(\mathbf{v}_2)\) sono certamente linearmente dipendenti. Quindi per poter invertire l'implicazione si deve avere necessariamente \(\displaystyle \mathbf{w}=\mathbf{0} \) ovvero \(\displaystyle \ker(f)=\{\mathbf{0}\} \)

alifasi
Solo per ringraziarvi e dire che non avevo abbandonato la discussione a se stessa. Tuttavia avendo preso uno sviluppo interessante ho lasciato fare.

Quindi grazie :)

moenia
Grazie mille

Avevo frainteso la frase "Quindi l'indipendenza nel dominio implica quella nel codominio solo se la funzione è iniettiva." Intendendo come "solo se la funzione che derivo è iniettiva" e quindi non riuescivo proprio a capire.

Quelloinfatti che intendevi è invece che devo avere necessariamente un monomorfismo, ho capito!
Però in realtà sappiamo essere necessario, in realtà potrebbe non bastare (cioè non essere sufficiente) però, stando solo a quel ragionamento, Giusto?

Cioè scriverei: Quindi l'indipendenza nel dominio implica quella nel codominio necessariamente se l'applicazione lineare è iniettiva.

Ma non: Quindi l'indipendenza nel dominio implica quella nel codominio se l'applicazione lineare è iniettiva.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.