Calcolare il limite $\lim_{n->\infty} \frac{log(n)}{n^2}$
Mi chiedevo se fosse possibile risolverlo con la serie di Taylor.
Ponendo $n = m + 1$ e facendo riferimento allo sviluppo di $log(x + 1)$, ottengo
$\lim_{m->\infty} \frac{log(m+1)}{(m+1)^2} = \lim_{m->\infty} \frac{log(m+1)}{(m+1)^2}$
$ = \lim_{m->\infty} \frac{m - \frac{m^2}{2} + \frac{m^3}{3} + o(m^3)}{m^2 + 2m + 1}$
Il procedimento sembra non funzionare, perché se spezzo la frazione ottengo il primo termine che si annulla, il secondo che tende a $-1/2$ e il terzo che è divergente, dunque dovrei concludere che tutto il limite è infinito quando sappiamo che è zero.
Cosa non quadra?
Ponendo $n = m + 1$ e facendo riferimento allo sviluppo di $log(x + 1)$, ottengo
$\lim_{m->\infty} \frac{log(m+1)}{(m+1)^2} = \lim_{m->\infty} \frac{log(m+1)}{(m+1)^2}$
$ = \lim_{m->\infty} \frac{m - \frac{m^2}{2} + \frac{m^3}{3} + o(m^3)}{m^2 + 2m + 1}$
Il procedimento sembra non funzionare, perché se spezzo la frazione ottengo il primo termine che si annulla, il secondo che tende a $-1/2$ e il terzo che è divergente, dunque dovrei concludere che tutto il limite è infinito quando sappiamo che è zero.
Cosa non quadra?
Risposte
.
Ciao CosenTheta,
Perché vuoi complicarti la vita così?
Semplicemente $\forall n \in \NN $ si ha:
$0 \le log(n)/n^2 < n/n^2 = 1/n $
Quindi subito si ha $\lim_{n \to +\infty} log(n)/n^2 = 0 $
Più in generale, dalla ben nota disuguaglianza $\log(x) < x $, ponendo $x := n^{\alpha} $ per ogni $\alpha > 0 $ si ha:
$ log(n^{\alpha}) < n^{\alpha} \implies log(n) < n^{\alpha}/\alpha $
Dunque si ha:
$0 \le log(n)/n^{\beta} < n^{\alpha}/(\alpha n^{\beta}) = 1/(\alpha n^{\beta - \alpha}) $
Per cui più in generale $\forall \beta > \alpha > 0 $ si ha:
$\lim_{n \to +\infty} log(n)/n^{\beta} = 0 $
Il limite proposto si ottiene nel caso particolare $\beta = 2 > \alpha = 1 > 0 $
Perché vuoi complicarti la vita così?
Semplicemente $\forall n \in \NN $ si ha:
$0 \le log(n)/n^2 < n/n^2 = 1/n $
Quindi subito si ha $\lim_{n \to +\infty} log(n)/n^2 = 0 $
Più in generale, dalla ben nota disuguaglianza $\log(x) < x $, ponendo $x := n^{\alpha} $ per ogni $\alpha > 0 $ si ha:
$ log(n^{\alpha}) < n^{\alpha} \implies log(n) < n^{\alpha}/\alpha $
Dunque si ha:
$0 \le log(n)/n^{\beta} < n^{\alpha}/(\alpha n^{\beta}) = 1/(\alpha n^{\beta - \alpha}) $
Per cui più in generale $\forall \beta > \alpha > 0 $ si ha:
$\lim_{n \to +\infty} log(n)/n^{\beta} = 0 $
Il limite proposto si ottiene nel caso particolare $\beta = 2 > \alpha = 1 > 0 $
Grazie ad entrambi.
"CosenTheta":
Mi chiedevo se fosse possibile risolverlo con la serie di Taylor.
Ponendo $n = m + 1$ e facendo riferimento allo sviluppo di $log(x + 1)$, ottengo
$\lim_{m->\infty} \frac{log(m+1)}{(m+1)^2} = \lim_{m->\infty} \frac{log(m+1)}{(m+1)^2}$
$ = \lim_{m->\infty} \frac{m - \frac{m^2}{2} + \frac{m^3}{3} + o(m^3)}{m^2 + 2m + 1}$
Il procedimento sembra non funzionare, perché se spezzo la frazione ottengo il primo termine che si annulla, il secondo che tende a $-1/2$ e il terzo che è divergente, dunque dovrei concludere che tutto il limite è infinito quando sappiamo che è zero.
Cosa non quadra?
Niente quadra.
Matematica non vuol dire sparare simboli a caso senza costrutto. Disinteressandosi degli enunciati dei teoremi, dimostrando di non avere neanche la minima intuizione riguardo a quello che si sta facendo.