Coerenza del concetto di infinitesimo nell'Analisi moderna
Salve a tutti, sono uno studente di ingegneria e ho una quesito da porre:
nei corsi di analisi A e B il concetto di derivata viene introdotto mediante la definizione di rapporto incrementale, mentre nei corsi di fisica A e B le derivate vengono espresse e pensate come un rapporto di infinitesimi. Dalle ricerche che ho fatto risulta che il concetto di infinitesimo introdotto da Cauchy è entrato in contraddizione con l'analisi matematica successivamente alle "integrazioni" fatte da Weiestrass. In particolare ho letto che il concetto di infinitesimo risulta logico nell'ambito dell'Analisi non-standard (che ignoro).
Se il concetto di infinitesimo non è coerente con l'Analisi moderna, per quale ragione la fisica e le scienze ingengeristiche ne fanno largamente uso????
Fino a che punto il concetto di infinitesimo risulta essere illogico rispetto all'Analisi moderna????
Grazie per la vostra pazienza
Ciao a tutti
nei corsi di analisi A e B il concetto di derivata viene introdotto mediante la definizione di rapporto incrementale, mentre nei corsi di fisica A e B le derivate vengono espresse e pensate come un rapporto di infinitesimi. Dalle ricerche che ho fatto risulta che il concetto di infinitesimo introdotto da Cauchy è entrato in contraddizione con l'analisi matematica successivamente alle "integrazioni" fatte da Weiestrass. In particolare ho letto che il concetto di infinitesimo risulta logico nell'ambito dell'Analisi non-standard (che ignoro).
Se il concetto di infinitesimo non è coerente con l'Analisi moderna, per quale ragione la fisica e le scienze ingengeristiche ne fanno largamente uso????
Fino a che punto il concetto di infinitesimo risulta essere illogico rispetto all'Analisi moderna????
Grazie per la vostra pazienza

Risposte
Quello che tu affermi è solo in parte vero: il concetto di infinitesimo fu inizialmente criticato dai matematici dell'epoca perchè non si comprendeva come una stessa quantità potesse in alcuni casi comportarsi come zero in altri come una quantità molto piccola ma cmnq diversa da zero! Questo problema è stato largamente superato e l'infinitesimo è universalmente accettato. il problema casomai nasce nella applicazioni fisiche ed ingegneristiche che siano dove taluni applicano con molta superficialità un concetto molto profondo come l''infinitesimo
@Ramirez
mi sembra proprio che tu abbia le idee ben chiare sugli infinitesimi
direi che era difficile riassumere meglio la situazione di come l'hai fatto tu (inclusi i cenni corretti all'analisi non standard: se vuoi dilettarti, puoi guardare il libro di Hurd e Loeb)
la def, ad esempio di derivata, come rapporto di due incrementi infinitesimi (dy fratto dx) è priva di senso nelle trattazioni standard dell'analisi, in quanto in $RR$ vale il principio di Archimede che esclude per l'appunto l'esistenza di numeri reali infinitesimi (se mi permetti il termine, non è dato "l'infinitesimo in atto")
come mai fisici, ingegneri, biologi, economisti, etc continuano ad usarli?
perché è comodo, intuitivo, rapido
e, soprattutto, lo si può fare impunemente avendo "le spalle coperte"
ovviamente anche un matematico sa dove e quando può fare ricorso a queste scorciatoie.
A me piace vedere tutto ciò secondo questo punto di vista "composito":
condizione 1:
posso usare gli infinitesimi laddove le funzioni che ho tra i piedi mi permettono di poter "linearizzare".
condizione 2:
occorre anche essere certi che non vi siano degenerazioni. Esempio: se $f'(x_0)=3$, mi posso permettere (con l'abitudine, l'esperienza) di sostituire $f$ con $3 * ( x - x_0) +k$ ($k$ è il valore delle funzione in $x_0$, ma spesso non interessa...). Se però è $f'(x_0) = 0$, prima di sostituire $f$ con $0 + k$ ci penso bene
Vedi dietro a questo, se vuoi, l'idea di differenziabilità, congiunta alle condizioni di non-degenerazione che trovi, per esempio, nel teorema delle funzioni implicite (teorema di Dini)
ciao
mi sembra proprio che tu abbia le idee ben chiare sugli infinitesimi
direi che era difficile riassumere meglio la situazione di come l'hai fatto tu (inclusi i cenni corretti all'analisi non standard: se vuoi dilettarti, puoi guardare il libro di Hurd e Loeb)
la def, ad esempio di derivata, come rapporto di due incrementi infinitesimi (dy fratto dx) è priva di senso nelle trattazioni standard dell'analisi, in quanto in $RR$ vale il principio di Archimede che esclude per l'appunto l'esistenza di numeri reali infinitesimi (se mi permetti il termine, non è dato "l'infinitesimo in atto")
come mai fisici, ingegneri, biologi, economisti, etc continuano ad usarli?
perché è comodo, intuitivo, rapido
e, soprattutto, lo si può fare impunemente avendo "le spalle coperte"
ovviamente anche un matematico sa dove e quando può fare ricorso a queste scorciatoie.
A me piace vedere tutto ciò secondo questo punto di vista "composito":
condizione 1:
posso usare gli infinitesimi laddove le funzioni che ho tra i piedi mi permettono di poter "linearizzare".
condizione 2:
occorre anche essere certi che non vi siano degenerazioni. Esempio: se $f'(x_0)=3$, mi posso permettere (con l'abitudine, l'esperienza) di sostituire $f$ con $3 * ( x - x_0) +k$ ($k$ è il valore delle funzione in $x_0$, ma spesso non interessa...). Se però è $f'(x_0) = 0$, prima di sostituire $f$ con $0 + k$ ci penso bene
Vedi dietro a questo, se vuoi, l'idea di differenziabilità, congiunta alle condizioni di non-degenerazione che trovi, per esempio, nel teorema delle funzioni implicite (teorema di Dini)
ciao
"Fioravante Patrone":
la def, ad esempio di derivata, come rapporto di due incrementi infinitesimi (dy fratto dx) è priva di senso nelle trattazioni standard dell'analisi, in quanto in $RR$ vale il principio di Archimede che esclude per l'appunto l'esistenza di numeri reali infinitesimi (se mi permetti il termine, non è dato "l'infinitesimo in atto")
Questa parte non mi è chiara, la derivata mi è stata sempre presentata come rapporto di variazioni, variazioni però talmente piccole da essere quasi nulle. Non ho capito poi, in generale, cosa ci sia di contraddittorio negli infinitesimi... anzi, credevo che la potenza dell'analisi stesse proprio nel trattare quantità piccolissime per studiare l'evoluzione di quantità più grandi e che quindi le grandezze infinitesime fossero proprio il cardine principale a cui si aggrappa tutta l'analisi...
@Kroldar
se ti viene presentata come rapporto di "variazioni", a parte la terminologia demodé e forse anche un po' fumogena, mi sa che siamo alla solita definizione di limite del rapporto incrementale
io intendevo invece questo
prendo il punto $x_0$
considero un incremento infinitesimo $dx$ dato, fissato (non si muove!)
calcolo $y_0 = f(x_0)$ e $y = f(x_0 + dx)$
mi aspetto (spero?) che la differenza tra questi valori sia un infinitesimo
cioè che $y - y_0$ sia un infinitesimo che chiamerò (in omaggio alla tradizione) $dy$
definisco la derivata come quoziente fra questi due numeri infinitesimi: $dy/dx$
[Nota: l'incremento infinitesimo l'ho chiamato $dx$ in omaggio alla tradizione, ma lo posso chiamare $s$
se chiamo $t = f(x_0 +s) -f(x_0)$, la derivata à il rapoporto fra i due numeri infinitesimi $t$ ed $s$:
$f'(x_0) = t/s$ ]
Ora, se prendo gli assiomi dei numeri reali e li maneggio con la solita teoria ingenua degli insiemi più la logica ingenua (ovvero, usando un linguaggio formale che utilizzi la logica dei predicati del secondo ordine), mi accorgo che non ci sono numeri reali infinitesimi
cioè, un numero reale infinitesimo $dx$, per meritare di essere chiamato tale, dovrebbe avere la proprietà che $dx$ < $1/n$ per ogni $n \in NN$
ma dagli assiomi di $RR$ deduco che vale la proprietà archimedea (cioè, per ogni $x \in RR$ che sia positivo, esiste $n \in NN$ t.c. $1/n < x$)
quindi, infinitesimi nisba
se ti viene presentata come rapporto di "variazioni", a parte la terminologia demodé e forse anche un po' fumogena, mi sa che siamo alla solita definizione di limite del rapporto incrementale
io intendevo invece questo
prendo il punto $x_0$
considero un incremento infinitesimo $dx$ dato, fissato (non si muove!)
calcolo $y_0 = f(x_0)$ e $y = f(x_0 + dx)$
mi aspetto (spero?) che la differenza tra questi valori sia un infinitesimo
cioè che $y - y_0$ sia un infinitesimo che chiamerò (in omaggio alla tradizione) $dy$
definisco la derivata come quoziente fra questi due numeri infinitesimi: $dy/dx$
[Nota: l'incremento infinitesimo l'ho chiamato $dx$ in omaggio alla tradizione, ma lo posso chiamare $s$
se chiamo $t = f(x_0 +s) -f(x_0)$, la derivata à il rapoporto fra i due numeri infinitesimi $t$ ed $s$:
$f'(x_0) = t/s$ ]
Ora, se prendo gli assiomi dei numeri reali e li maneggio con la solita teoria ingenua degli insiemi più la logica ingenua (ovvero, usando un linguaggio formale che utilizzi la logica dei predicati del secondo ordine), mi accorgo che non ci sono numeri reali infinitesimi
cioè, un numero reale infinitesimo $dx$, per meritare di essere chiamato tale, dovrebbe avere la proprietà che $dx$ < $1/n$ per ogni $n \in NN$
ma dagli assiomi di $RR$ deduco che vale la proprietà archimedea (cioè, per ogni $x \in RR$ che sia positivo, esiste $n \in NN$ t.c. $1/n < x$)
quindi, infinitesimi nisba
Quindi l'unico numero veramente infinitesimo è $0$? Il resto è invenzione?
neanche $0$ è infinitesimo
il concetto di infinitesimo riguarda (ed interessa) solo numeri diversi da zero
al momento, non sembra essere possibile (a meno di non usare modelli non standard dei numeri reali, che si costruiscono utilizzando la logica dei predicati del primo ordine) poter avere un modello coerente dei numeri reali nel quale ci sia posto per gli infinitesimi "in atto"
che analisti "normali" parlino di infinitesimi, di confronto tra infinitesimi, di ordine di infinitesimo, potrebbe trarre in inganno
ma se si fa attenzione, si vede che questi termini sono riferiti a funzioni e a loro comportamenti, non a numeri
ciao

il concetto di infinitesimo riguarda (ed interessa) solo numeri diversi da zero
al momento, non sembra essere possibile (a meno di non usare modelli non standard dei numeri reali, che si costruiscono utilizzando la logica dei predicati del primo ordine) poter avere un modello coerente dei numeri reali nel quale ci sia posto per gli infinitesimi "in atto"
che analisti "normali" parlino di infinitesimi, di confronto tra infinitesimi, di ordine di infinitesimo, potrebbe trarre in inganno
ma se si fa attenzione, si vede che questi termini sono riferiti a funzioni e a loro comportamenti, non a numeri
ciao
Sì capisco... un ultimo dubbio:
La definizione di derivata come limite del rapporto incrementale è equivalente a quella $dy/dx$? Sono rigorose come definizioni oppure il problema degli infinitesimi le inficia?
La definizione di derivata come limite del rapporto incrementale è equivalente a quella $dy/dx$? Sono rigorose come definizioni oppure il problema degli infinitesimi le inficia?
"Kroldar":
Sì capisco... un ultimo dubbio:
La definizione di derivata come limite del rapporto incrementale è equivalente a quella $dy/dx$? Sono rigorose come definizioni oppure il problema degli infinitesimi le inficia?
Kroldar,
non capisco cosa intendi con "quella $dy/dx$"
per me esiste solo una definizione di derivata, ed è quella via rapporto incrementale (che poi uno, invece di $lim_{h to 0}\frac{f(x_0 +h) - f(x_0)}{h}$, faccia $lim_{\Delta x to 0}\frac{\Delta y}{\Delta x}$ è questione di gusti, anche se io preferisco la prima in quanto nella seconda il legame funzionale tra $x$ ed $y$ mi è un po' oscuro...)
per me $dy/dx$ è solo una notazione per indicare la derivata (come $y'$ o $f'$ o $Df$ o altre ancora che si usano)
ma non so se ho capito quello che intendi dire
ciao
Ah ecco quindi $dy/dx$ è solo una notazione... pensavo invece fosse anche giusta come definizione, nel senso che se ho l'uguaglianza
$y'(x) = f(x)$
scrivo $f'(x)$ come $dy/dx$ e moltiplico ambo i membri per $dx$
$dy = f(x)dx$
e poi integrando ambo i membri
$int dy = int f(x)dx$
sicché a meno di una costante ho la soluzione dell'equazione... a me almeno, alcuni anni fa, così hanno insegnato... ma inizio a pensare che non sia formalmente corretto
$y'(x) = f(x)$
scrivo $f'(x)$ come $dy/dx$ e moltiplico ambo i membri per $dx$
$dy = f(x)dx$
e poi integrando ambo i membri
$int dy = int f(x)dx$
sicché a meno di una costante ho la soluzione dell'equazione... a me almeno, alcuni anni fa, così hanno insegnato... ma inizio a pensare che non sia formalmente corretto

questo è il metodo "urang-utang" per risolvere le equazioni differenziali a variabili separabili...
mi ricorda una battuta di Charlie Brown che diceva pressappoco (ricordi sbiaditi dal tempo) così: "oggi ho fatto tot cose, tutte sbagliate"
diciamo che ci sono tot passaggi tutti sbagliati
esempio:
$dy = f(x)dx$
cosa vuol dire? ho una uguaglianza tra cosa?
e $x$ ed $y$ sono variabili "indipendenti"?
l'uguaglianza vale per ogni $x$ ed ogni $y$ (o $dy$??? e che è $dy$?)
quante volte ho visto queste cose...
eppure è così facile far le cose bene: vedi la mia "firma" (e approfitto per ringraziare Tipper per averla citata oggi
)
ciao
mi ricorda una battuta di Charlie Brown che diceva pressappoco (ricordi sbiaditi dal tempo) così: "oggi ho fatto tot cose, tutte sbagliate"
diciamo che ci sono tot passaggi tutti sbagliati
esempio:
$dy = f(x)dx$
cosa vuol dire? ho una uguaglianza tra cosa?
e $x$ ed $y$ sono variabili "indipendenti"?
l'uguaglianza vale per ogni $x$ ed ogni $y$ (o $dy$??? e che è $dy$?)
quante volte ho visto queste cose...
eppure è così facile far le cose bene: vedi la mia "firma" (e approfitto per ringraziare Tipper per averla citata oggi

ciao
Eh sì... le equazioni differenziali le ho fatte ad Analisi II e peraltro molto molto male ahimé
Battuta matematica in aggiunta: e il numero "tot" di errori presenti nel mio precedente post non è affatto infinitesimo!!
Battuta matematica in aggiunta: e il numero "tot" di errori presenti nel mio precedente post non è affatto infinitesimo!!
"Fioravante Patrone":
questo è il metodo "urang-utang" per risolvere le equazioni differenziali a variabili separabili...
mi ricorda una battuta di Charlie Brown che diceva pressappoco (ricordi sbiaditi dal tempo) così: "oggi ho fatto tot cose, tutte sbagliate"
diciamo che ci sono tot passaggi tutti sbagliati
esempio:
$dy = f(x)dx$
cosa vuol dire? ho una uguaglianza tra cosa?
e $x$ ed $y$ sono variabili "indipendenti"?
l'uguaglianza vale per ogni $x$ ed ogni $y$ (o $dy$??? e che è $dy$?)
quante volte ho visto queste cose...
eppure è così facile far le cose bene: vedi la mia "firma" (e approfitto per ringraziare Tipper per averla citata oggi)
ciao
Ricordo che quando le vidi in quinta superiore il fatto di separare le 2 funzioni e di metterle "una di la" e "l'altra di qua" dell'"$=$" non mi faceva ne caldo ne freddo. Ad analisi 1 invece, quando il prof ci ha introdotto le eq differenziali a var separabili ha detto chiaramente come bisogna fare ma devo ammettere che per quanto sia metodo "urang-utang" mi riesce più facile risolverle così, anche se so che formalmente sbaglio.. Spero in futuro di acquisire una capacità matematica maggiore che mi faccia riflettere su questi sbagli..


Notte
@Dust
'giorno
se ti trovi bene col metodo urang-utang, no problem, usalo!
non dimenticarti però di verificare la correttezza dei risultati,
cosa non necessaria se uno usa un metodo corretto
d'altronde questo metodo di risoluzione delle equazioni a variabili separabili fa il paio con l'uso dei "differenziali" (la $dx$-logia) nell'integrazione per sostituzione
credo che quasi tutti seguano la strada "fattore differenziale - fattore finito" o assimilabili quando usano il teorema di integrazione per sostituzione
insomma, Dust, direi che ti trovi in ottima ed abbondante compagnia
'giorno

se ti trovi bene col metodo urang-utang, no problem, usalo!
non dimenticarti però di verificare la correttezza dei risultati,
cosa non necessaria se uno usa un metodo corretto

d'altronde questo metodo di risoluzione delle equazioni a variabili separabili fa il paio con l'uso dei "differenziali" (la $dx$-logia) nell'integrazione per sostituzione
credo che quasi tutti seguano la strada "fattore differenziale - fattore finito" o assimilabili quando usano il teorema di integrazione per sostituzione
insomma, Dust, direi che ti trovi in ottima ed abbondante compagnia
"Fioravante Patrone":
eppure è così facile far le cose bene: vedi la mia "firma" (e approfitto per ringraziare Tipper per averla citata oggi)
ciao
Ringrazia ringrazia, mica l'ho fatto gratis, vedrai quando a fine mese ti arriva la fattura a casa...

"Fioravante Patrone":
questo è il metodo "urang-utang" per risolvere le equazioni differenziali a variabili separabili...
Bella la definizione di questo metodo... tra l'altro il succitato metodo è molto diffuso sai

"Fioravante Patrone":
quante volte ho visto queste cose...
eppure è così facile far le cose bene: vedi la mia "firma" (e approfitto per ringraziare Tipper per averla citata oggi)
Ho letto i tuoi appunti sulle equazioni differenziali a variabili separabili, tutto chiaro per fortuna! Ora se si vuole passare a equazioni differenzili a variabili non separabili cosa cambia nella teoria?
"Kroldar":
tutto chiaro per fortuna!
mi fa piacere!

"Kroldar":
Ora se si vuole passare a equazioni differenzili a variabili non separabili cosa cambia nella teoria?
quello che hanno di speciale le equazioni differenziali (ordinarie) a variabili separabili è che possono essere risolte mediante integrazione (con alcuni caveat: vedi pag. 4 dei miei appunti)
per quanto riguarda la teoria, non c'è sostanziale differenza rispetto al caso "generale" delle equazioni differenziali (ordinarie del primo ordine in forma normale): $y' = f(x,y)$
in effetti, per risolvere le equazioni a variabili separabili ho fatto affidamento sui teoremi di carattere generale riguardanti le equadiff
volendola dire tutta, anche sul lato teorico qualcosa di specifico ci sarebbe per le equazioni differenziali a variabili separabili.
Se $f(x,y) = a(x) * b(y)$, si può garantire la unicità anche solo assumendo la continuità delle funzioni a secondo membro purché la $b$ non si annulli.
Questo "fatto" di carattere teorico, assieme ad una disamina del metodo "urang-utang", sono le cose che (come dico nella mia pag web) penso di aggiungere "in un futuro non troppo lontano" alle mie noticine
ciao e buona giornata
"Fioravante Patrone":
ciao e buona giornata
Ti ringrazio dell'augurio ma avrei un'altra cosa da domandare... come si dice, oramai sono in ballo

E per equazioni di ordine superiore al primo (a coefficienti costanti e non) succedono ugualmente cose analoghe oppure no?
Tempo fa aprii un topic sulle equazioni di Bessel e mi fu risposto che si cercavano due soluzioni linearmente indipendenti o una roba simile (però mi è parso di capire che fosse un risultato valido per una famiglia molto più ampia di equazioni), ma illo tempore ignorai la cosa rimandandone la comprensione a tempi migliori... magari i tempi migliori potrebbero essere prossimi...
"Kroldar":
[quote="Fioravante Patrone"]ciao e buona giornata
Ti ringrazio dell'augurio ma avrei un'altra cosa da domandare... come si dice, oramai sono in ballo

[/quote]
era così evidente che cercavo di chiudere il discorso?

vabbé, balliamo!
"Kroldar":
E per equazioni di ordine superiore al primo (a coefficienti costanti e non) succedono ugualmente cose analoghe oppure no?
Tempo fa aprii un topic sulle equazioni di Bessel e mi fu risposto che si cercavano due soluzioni linearmente indipendenti o una roba simile (però mi è parso di capire che fosse un risultato valido per una famiglia molto più ampia di equazioni), ma illo tempore ignorai la cosa rimandandone la comprensione a tempi migliori... magari i tempi migliori potrebbero essere prossimi...
la cosa più seria mi pare sia dare due risposte
1. tu stai parlando di equazioni differenziali lineari (parli di coefficienti, di equazioni di Bessel). Per queste, è importante sapere che (sotto ragionevoli ipotesi) l'insieme delle soluzioni dell'equazione omogenea è uno spazio vettoriale di dimensione pari all'ordine dell'equazione.
Nota che dim che è spazio vett è un semplice esercizio (conseguenza della linearità della operazione di derivazione); dim che ha dimensione pari all'ordine dell'equazione non è affatto banale, e richiede il teorema di esistenza ed unicità
Comunque, è da qui che viene la ricerca di soluzioni linearmente indipendenti! Ad esempio Bessel è del secondo ordine e quindi ti servono due soluzioni linearmente indipendenti
2. se usciamo dal caso particolare delle equazioni lineari, in generale le equazioni di ordine $n$ si trattano convertendole in un sistema $n \times n$ di equazioni di ordine 1. Fatta la conversione, bastano adattamenti "banali" della teroia fatta per le eqauzioni di primo ordine.
ciao (?)
Quindi trovare la soluzione generale di un'equazione differenziale di ordine $n$ equivale a trovare una base per lo spazio vettoriale delle soluzioni e impostarne la generica combinazione lineare secondo coefficienti arbitrari non tutti nulli?
Ahahhahuhauahh quel punto interrogativo la dice lunga... cmq questa è l'ultima tortura (giornaliera), poi sarai libero di andare
"Fioravante Patrone":
ciao (?)
Ahahhahuhauahh quel punto interrogativo la dice lunga... cmq questa è l'ultima tortura (giornaliera), poi sarai libero di andare

"Kroldar":
Quindi trovare la soluzione generale di un'equazione differenziale lineare di ordine $n$ equivale a trovare una base per lo spazio vettoriale delle soluzioni?
con quel fondamentale inserto evidenziato in "bold", la risposta è sostanzialmente sì
se hai una base (che è necessariamente composta da $n$ elementi) allora trovi tutte le soluzioni come loro combinaizone lineare
esempio:
$y'' + y = 0$ [1]
due soluzioni sono $\sin$ e $\cos$
sono anche funzioni linearmente indipendenti (su $RR$)
quindi $\phi$ è soluzione di [1] (in campo reale) se e solo se esistono $c_1, c_2 \in RR$ t.c.:
$\phi(x) = c_1 * \cos(x) + c_2 * \sin(x)$ per ogni $x \in RR$
PS: mi sono acorto che hai modificato il tuo post mentre scrivevo il mio, ma l'essenziale resta ok, direi.
Osservo però anche che, se prendo $c_1 = c_2 = 0$, ottengo ancora una soluzione dell'equazione differenziale [1]
Cioè, la richiesta di coefficienti "non tutti nulli" non c'entra niente, nel descrivere lo "integrale generale"
e, ricordati, una promessa è una promessa! CIAO