PROBLEMONE!!!
Ho due funzioni da R a R di variabile x, diciamo f(x) e g(x).
Le vado ad integrare entrambe ottenendo f'(x) e g'(x).
Se risulta essere f'(x)=g'(x) significa che le funzioni di partenza differiscono per una costante arbitraria k reale,
cioè f'(x)=g'(x) implica che f(x)-g(x)=k reale.
Giusto???
Allora mi spiegate per quale cavolo di motivo queste due funzioni hanno la stessa derivata ma non mi pare proprio che differiscano per una costante reale???
f(x)=x^2/(2*(x^2+1)) --> f'(x)=x/(x^2+1)^2
g(x)=-1/(2*(x^2+1)) --> g'(x)=x/(x^2+1)^2
f'(x)=g'(x) ma f(x)-g(x)=(x^2-1)/(2*(x^2+1)) che non è una costante reale!!!
Mi sembra assurdo... cosa sto sbagliando???
Grazie
Le vado ad integrare entrambe ottenendo f'(x) e g'(x).
Se risulta essere f'(x)=g'(x) significa che le funzioni di partenza differiscono per una costante arbitraria k reale,
cioè f'(x)=g'(x) implica che f(x)-g(x)=k reale.
Giusto???
Allora mi spiegate per quale cavolo di motivo queste due funzioni hanno la stessa derivata ma non mi pare proprio che differiscano per una costante reale???
f(x)=x^2/(2*(x^2+1)) --> f'(x)=x/(x^2+1)^2
g(x)=-1/(2*(x^2+1)) --> g'(x)=x/(x^2+1)^2
f'(x)=g'(x) ma f(x)-g(x)=(x^2-1)/(2*(x^2+1)) che non è una costante reale!!!
Mi sembra assurdo... cosa sto sbagliando???
Grazie
Risposte
"Marlowe_P":
... cosa sto sbagliando???
Un segno.
Ciao Marlowe_P,
Casomai a derivare...
Mah, si ha:
$f(x) = x^2/(2(x^2+1)) = (x^2 + 1 - 1)/(2(x^2+1)) = 1/2 + (- 1)/(2(x^2+1)) = 1/2 + g(x) $
"Marlowe_P":
Le vado ad integrare entrambe ottenendo f'(x) e g'(x).
Casomai a derivare...

Mah, si ha:
$f(x) = x^2/(2(x^2+1)) = (x^2 + 1 - 1)/(2(x^2+1)) = 1/2 + (- 1)/(2(x^2+1)) = 1/2 + g(x) $