Equazione con variabili costanti(incremento).
Buon giorno.
Se si ha l' equazione:
$x = a/b$
con a e b costanti, il loro rapporto è anche esso costante e si può esprimere come k = a/b.
se vogliamo trovare l'incremento dx, come posso procedere?
l' equazione precedente sostituendo il rapporto costante con k diviene:
$x = k$
$dx * d(x)/dx = dk * d(k)/(dk)$
$dx * 1 = dk * 0$
$dx = 0$ ( corretto ? )
Ho dunque la seguente domanda da porvi:
E giusto dire che solo l'incremento di una funzione costante è zero? Sembra ovvio...però...
Se si ha l' equazione:
$x = a/b$
con a e b costanti, il loro rapporto è anche esso costante e si può esprimere come k = a/b.
se vogliamo trovare l'incremento dx, come posso procedere?
l' equazione precedente sostituendo il rapporto costante con k diviene:
$x = k$
$dx * d(x)/dx = dk * d(k)/(dk)$
$dx * 1 = dk * 0$
$dx = 0$ ( corretto ? )
Ho dunque la seguente domanda da porvi:
E giusto dire che solo l'incremento di una funzione costante è zero? Sembra ovvio...però...
Risposte
non ho capito quasi niente dei tuoi passaggi, banalmente se $f(x)=k$ allora $f'(x)=0$ ovunque; il viceversa vale se $f$ è definita su un intervallo (è di fatto il teorema di Lagrange).
non vorrei aver inventato dei calcoli, ho usato il differenziale $f'(x)*dx$ nei passaggi ambo i membri, si può fare?
Siamo nel 2015, i differenziali si usavano 400 anni fa... perche' usare un metodo superato? Comunque se proprio vuoi differenziare l'espressione $x=k$ ne verrebbe subito $dx=0$ poiche' $dk=0$ per definizione.
"Luca.Lussardi":
Siamo nel 2015, i differenziali si usavano 400 anni fa... perche' usare un metodo superato? Comunque se proprio vuoi differenziare l'espressione $x=k$ ne verrebbe subito $dx=0$ poiche' $dk=0$ per definizione.
Si, ma il mio intento è solo quello di capire le fondamenta del calcolo differenziale. Grazie comunque.
"curie88":
[quote="Luca.Lussardi"]Siamo nel 2015, i differenziali si usavano 400 anni fa... perche' usare un metodo superato? Comunque se proprio vuoi differenziare l'espressione $x=k$ ne verrebbe subito $dx=0$ poiche' $dk=0$ per definizione.
Si, ma il mio intento è solo quello di capire le fondamenta del calcolo differenziale. Grazie comunque.[/quote]
Procedendo come Leibniz avresti \(\text{d} x = \text{d} k = 0\), perchè il differenziale di una costante è nullo.
Ad ogni modo, mi associo all'invito di Luca: il Calcolo dei "padri fondatori" è una teoria puramente euristica e superata.
Nel senso che adesso si usano tecniche più semplici e veloci? Non è necessario conoscerlo il calcolo dei padri?
Scusami, ma la tua risposta denota che non hai mai aperto un libro di analisi 1... dove trovi su un testo di analisi moderno il calcolo di Leibniz o di Newton?
Quel tipo di calcolo l' ho visto su un libro.
"curie88":
Quel tipo di calcolo l' ho visto su un libro.
sì beh immagino che tu non l'abbia visto su un'incisione rupestre....ma se ti fanno notare che esistono metodi migliori io ascolterei i consigli...se no che ci vieni a fare in un forum come questo?
"curie88":
Quel tipo di calcolo l' ho visto su un libro.
Quale?
Non ci sono dubbi che il tipo di calcolo è superato. Ero solo curioso. Ma di questi tempi non è nemmeno lecito esserlo!
@ curie88: Quale libro?
Anch'io sono curioso...
E, ad ogni modo, in generale Leibniz avrebbe argomentato così.
Supponiamo che le variabili \(a,b,x\) siano legate dalla relazione implicita:
\[
a\cdot x - b = 0\; .
\]
Chiamando \(\text{d} a, \text{d} b, \text{d} x\) gli incrementi infinitesimi delle variabili avremmo:
\[
(a + \text{d} a)\cdot (x + \text{d} x ) - (b + \text{d} b) = 0
\]
ossia:
\[
a\cdot x - b + \text{d} a\cdot x + a\cdot \text{d} x - \text{d} b + \text{d} a\cdot \text{d} x = 0\; ,
\]
da cui, tenendo presenti la relazione implicita ed il fatto che \(\text{d} a\cdot \text{d} x\) è un infinitesimo d'ordine superiore, si trae:
\[
\text{d} a\cdot x + a\cdot \text{d} x - \text{d} b = 0\; .
\]
Se \(a\neq 0\) e \(b\) sono costanti, allora \(\text{d} a=0=\text{d} b\) e perciò anche \(\text{d} x =0\).
Anch'io sono curioso...

E, ad ogni modo, in generale Leibniz avrebbe argomentato così.
Supponiamo che le variabili \(a,b,x\) siano legate dalla relazione implicita:
\[
a\cdot x - b = 0\; .
\]
Chiamando \(\text{d} a, \text{d} b, \text{d} x\) gli incrementi infinitesimi delle variabili avremmo:
\[
(a + \text{d} a)\cdot (x + \text{d} x ) - (b + \text{d} b) = 0
\]
ossia:
\[
a\cdot x - b + \text{d} a\cdot x + a\cdot \text{d} x - \text{d} b + \text{d} a\cdot \text{d} x = 0\; ,
\]
da cui, tenendo presenti la relazione implicita ed il fatto che \(\text{d} a\cdot \text{d} x\) è un infinitesimo d'ordine superiore, si trae:
\[
\text{d} a\cdot x + a\cdot \text{d} x - \text{d} b = 0\; .
\]
Se \(a\neq 0\) e \(b\) sono costanti, allora \(\text{d} a=0=\text{d} b\) e perciò anche \(\text{d} x =0\).
Il libro, me lo ha prestato un amico non ricordo il titolo. M acomunque anche su internet ho trovato l' uso di $dx$ e $dy$, un esempio è la spiegazione del calcolo della misura di una curva, la cui lunghezza infinitesima è appunto data dal teorema di Pitagora:
$dl = sqrt(dx^2 + dy^2)$
$dl = sqrt(dx^2 + dy^2)$
"curie88":
Il libro, me lo ha prestato un amico non ricordo il titolo.
Male.
"curie88":
Ma comunque anche su internet ho trovato l' uso di $dx$ e $dy$, un esempio è la spiegazione del calcolo della misura di una curva, la cui lunghezza infinitesima è appunto data dal teorema di Pitagora:
$dl = sqrt(dx^2 + dy^2)$
Beh, quello appunto è un approccio euristico alla derivazione della formula, che funziona fintantoché non hai a che fare con oggetti complicati e ti porta sulla strada giusta per indovinare la formula giusta...
Tuttavia, appena cerchi di giustificare i passaggi, ti accorgi che è come voler costruire una casa sulla sabbia.
Inoltre, appena complichi un pò gli oggetti con cui hai a che fare, la derivazione euristica non funziona più.

OK, grazie, ma queste inesattezze date dall' uso dei due differenziali, è dovuta al fatto che il differenziale dy non è proprio esatto?
No.
Dipende dal fatto che esistono funzioni così strane da non essere derivabili/differenziabili, contrariamente a quanto si supponeva per tutto il 1700.
Dipende dal fatto che esistono funzioni così strane da non essere derivabili/differenziabili, contrariamente a quanto si supponeva per tutto il 1700.