O-piccoli e funzioni integrali
Sugli appunti di un collega trovo scritto questo:
DOMANDA: è vero che $\int_{x_0}^x o((t-x_0)^n)=o((x-x_0)^{n+1})$? RISPOSTA: in generale no. E' vero se l'o-piccolo è il resto di uno sviluppo di Taylor.
Ho provato a giustificare questa risposta. Se $f:A\to RR$ è derivavibe $n$ volte in $x_0\in A$ (quindi $n-1$ volte intorno a $x_0$), allora possiamo scrivere il suo polinomio di Taylor centrato in $x_0$:
\[f(x)=T_{n,x_0}(x)+R(x)=\sum^n_{k=0}\dfrac{(x-x_0)^k}{k!}f(x_0)^{(k)}+ R(x)\]
dove con $R=o((x-x_0)^n)$ denoto il resto. Dalla precedente si deduce, essendo $f$ derivabile per ipotesi e $T_{n,x_0}$ un polinomio (quindi $\mathcal{C}^\infty$), che $R$ è una funzione derivabile. Si ha quindi
\[\lim_{x\to x_0}\dfrac{\int^x_{x_0} R(t)\ \text{dt}}{(x-x_0)^{n+1}}\stackrel{\text{De l'Hopital}}{=}\lim_{x\to x_0}\dfrac{R(x)}{(n+1)(x-x_0)^n}=0\]
Segue che
\[\int^x_{x_0} R(t)\ \text{dt}=o((x-x_0)^{n+1})\]
Che ne dite?
DOMANDA: è vero che $\int_{x_0}^x o((t-x_0)^n)=o((x-x_0)^{n+1})$? RISPOSTA: in generale no. E' vero se l'o-piccolo è il resto di uno sviluppo di Taylor.
Ho provato a giustificare questa risposta. Se $f:A\to RR$ è derivavibe $n$ volte in $x_0\in A$ (quindi $n-1$ volte intorno a $x_0$), allora possiamo scrivere il suo polinomio di Taylor centrato in $x_0$:
\[f(x)=T_{n,x_0}(x)+R(x)=\sum^n_{k=0}\dfrac{(x-x_0)^k}{k!}f(x_0)^{(k)}+ R(x)\]
dove con $R=o((x-x_0)^n)$ denoto il resto. Dalla precedente si deduce, essendo $f$ derivabile per ipotesi e $T_{n,x_0}$ un polinomio (quindi $\mathcal{C}^\infty$), che $R$ è una funzione derivabile. Si ha quindi
\[\lim_{x\to x_0}\dfrac{\int^x_{x_0} R(t)\ \text{dt}}{(x-x_0)^{n+1}}\stackrel{\text{De l'Hopital}}{=}\lim_{x\to x_0}\dfrac{R(x)}{(n+1)(x-x_0)^n}=0\]
Segue che
\[\int^x_{x_0} R(t)\ \text{dt}=o((x-x_0)^{n+1})\]
Che ne dite?

Risposte
Ho qualche perplessità sulla domanda in sé.
Facciamo il caso semplice \(n=0\) e \(x_0 = 0\). Stiamo supponendo quindi di avere una funzione (misurabile) \(R\), definita in un intorno dell'origine (ma diciamo pure su tutto \(\mathbb{R}\)), tale che \(\lim_{x\to 0} R(x) = 0\).
Per definizione di limite abbiamo che, per ogni \(\epsilon > 0\), esiste \(\delta > 0\) tale che \(|R(x)| < \epsilon\) per ogni \(0 < |x| < \delta\). Da ciò segue che \(|\int_0^x R(s) ds | \leq \epsilon |x|\) per ogni \(|x| < \delta\) e, in particolare,
\[
\limsup_{x\to 0} \left|\frac{\int_0^x R(s)\, ds}{x}\right| < \epsilon.
\]
D'arbitrarietà di \(\epsilon\) si conclude dunque che \(\lim_{x\to 0} \int_0^x R(s)\, ds / x = 0\).
Ovviamente nulla cambia se si considera una funzione \(f(x) = o(x^n)\), in quanto può essere scritta come \(f(x) = x^n R(x)\) con \(R\) come sopra.
Facciamo il caso semplice \(n=0\) e \(x_0 = 0\). Stiamo supponendo quindi di avere una funzione (misurabile) \(R\), definita in un intorno dell'origine (ma diciamo pure su tutto \(\mathbb{R}\)), tale che \(\lim_{x\to 0} R(x) = 0\).
Per definizione di limite abbiamo che, per ogni \(\epsilon > 0\), esiste \(\delta > 0\) tale che \(|R(x)| < \epsilon\) per ogni \(0 < |x| < \delta\). Da ciò segue che \(|\int_0^x R(s) ds | \leq \epsilon |x|\) per ogni \(|x| < \delta\) e, in particolare,
\[
\limsup_{x\to 0} \left|\frac{\int_0^x R(s)\, ds}{x}\right| < \epsilon.
\]
D'arbitrarietà di \(\epsilon\) si conclude dunque che \(\lim_{x\to 0} \int_0^x R(s)\, ds / x = 0\).
Ovviamente nulla cambia se si considera una funzione \(f(x) = o(x^n)\), in quanto può essere scritta come \(f(x) = x^n R(x)\) con \(R\) come sopra.
Ciao Rigel, grazie per l'attenzione. Purtroppo riesco a seguirti fino a dove tiri fuori il $"limsup"$, che non so cosa sia fuori dal contesto delle successioni reali
il resto del ragionamento è abbastanza chiaro.
La morale qual'è? Mi stai dicendo che la "formula" che ho riportato sopra vale qualunque sia $R$? O meglio, che posso fare a meno di assumere che $R$ sia derivabile (quindi anche di assumere che $R$ sia il resto di uno sviluppo di Taylor), ma è sufficiente che sia integrabile in ogni intervallo di estremi $x_0$ e $x$?

La morale qual'è? Mi stai dicendo che la "formula" che ho riportato sopra vale qualunque sia $R$? O meglio, che posso fare a meno di assumere che $R$ sia derivabile (quindi anche di assumere che $R$ sia il resto di uno sviluppo di Taylor), ma è sufficiente che sia integrabile in ogni intervallo di estremi $x_0$ e $x$?
Anche senza scomodare il \(\limsup\), hai che per ogni \(\epsilon > 0\) esiste \(\delta > 0\) tale che
\[
\left| \frac{\int_0^x R(s) ds}{x}\right| < \epsilon \qquad \forall 0 < |x| < \delta.
\]
Quindi, per definizione di limite, hai che
\[
\lim_{x\to 0} \frac{\int_0^x R(s) ds}{x} = 0.
\]
Dunque la formula riportata vale senza ulteriori ipotesi su \(R\) (tornando alla domanda iniziale, non mi è quindi chiaro perché non dovrebbe valere se la funzione non è il resto di uno sviluppo di Taylor, ma forse mi sfugge qualcosa).
\[
\left| \frac{\int_0^x R(s) ds}{x}\right| < \epsilon \qquad \forall 0 < |x| < \delta.
\]
Quindi, per definizione di limite, hai che
\[
\lim_{x\to 0} \frac{\int_0^x R(s) ds}{x} = 0.
\]
Dunque la formula riportata vale senza ulteriori ipotesi su \(R\) (tornando alla domanda iniziale, non mi è quindi chiaro perché non dovrebbe valere se la funzione non è il resto di uno sviluppo di Taylor, ma forse mi sfugge qualcosa).
Ecco ecco, ora ci siamo
grazie. L'esercitatrice ha fatto l'esempio della funzione $f(x)=x^3 \sin(1/x^2)$: secondo lei in questo caso la formula non dovrebbe valere (non ho altro qui sul quaderno, non ci sono spiegazioni). Eppure questa funzione è integrabile ovunque, quindi...? 
EDIT: ho cercato per bene su Acerbi - Buttazzo, Primo corso di Analisi Matematica. Il testo conferma quello che dici: è sufficiente l'integrabilità
(in più osserva che se $R$ è continua la validità della formula può essere dimostrata nel modo in cui ho proceduto sopra).


EDIT: ho cercato per bene su Acerbi - Buttazzo, Primo corso di Analisi Matematica. Il testo conferma quello che dici: è sufficiente l'integrabilità

Riciclo questo topic, tanto siamo in tema.
Ho un esercizio in cui mi si chiede di calcolare il limite
\[\lim_{x\to 0^+} \dfrac{\overbrace{\int^x_0 (e^{t^2}-1)\ \text{dt}}^{=:F(x)}}{x^\alpha}\]
al variare del parametro $\alpha\ge 0$.
Avrei proceduto calcolandomi il polinomio di Taylor di $F(x)$, o ancora meglio utilizzando De l'Hopital (che forse è la strada più veloce), ma in virtù della formula di cui abbiamo discusso sopra voglio provare a procedere così: si ha
\[e^{t^2}-1 = t^2+o(t^2)\]
da cui
\[F(x)=\dfrac{x^3}{3}+o(x^3)\]
Il limite diventa
\[\lim_{x\to 0^+}\dfrac{x^3/3+o(x^3)}{x^\alpha}\]
e quindi vale $1/3$ per $\alpha=3$, mentre per $0\le \alpha<3$ il limite è zero. Nel caso $\alpha>3$ ho
\[\lim_{x\to 0^+}\dfrac{x^3/3+o(x^3)}{x^\alpha}=\lim_{x\to 0^+}\dfrac{x^3/3(1+3o(x^3)/x^3)}{x^\alpha}=[+\infty\cdot 1]=+\infty\]
Dico bene?
Ho un esercizio in cui mi si chiede di calcolare il limite
\[\lim_{x\to 0^+} \dfrac{\overbrace{\int^x_0 (e^{t^2}-1)\ \text{dt}}^{=:F(x)}}{x^\alpha}\]
al variare del parametro $\alpha\ge 0$.
Avrei proceduto calcolandomi il polinomio di Taylor di $F(x)$, o ancora meglio utilizzando De l'Hopital (che forse è la strada più veloce), ma in virtù della formula di cui abbiamo discusso sopra voglio provare a procedere così: si ha
\[e^{t^2}-1 = t^2+o(t^2)\]
da cui
\[F(x)=\dfrac{x^3}{3}+o(x^3)\]
Il limite diventa
\[\lim_{x\to 0^+}\dfrac{x^3/3+o(x^3)}{x^\alpha}\]
e quindi vale $1/3$ per $\alpha=3$, mentre per $0\le \alpha<3$ il limite è zero. Nel caso $\alpha>3$ ho
\[\lim_{x\to 0^+}\dfrac{x^3/3+o(x^3)}{x^\alpha}=\lim_{x\to 0^+}\dfrac{x^3/3(1+3o(x^3)/x^3)}{x^\alpha}=[+\infty\cdot 1]=+\infty\]
Dico bene?

si tutto ok, ma ti sei dimenticato per a<0
"Plepp":
calcolare il limite
\[ \lim_{x\to 0^+} \dfrac{\overbrace{\int^x_0 (e^{t^2}-1)\ \text{dt}}^{=:F(x)}}{x^\alpha} \]
al variare del parametro $ \alpha\ge 0 $.
Per $\alpha<0$ non ci sarebbero grandi ragionamenti da fare
