Dubbio filosofico
Salve gente,
oggi mentre lavoravo con la serie armonica generalizzata $\sum_{n=1}^infty 1/n$ mi sono chiesto se fosse possibile considerare un'estratta della successione $1/n$ per la quale la serie converge.
Insomma, prendere degli indici così distanti tra loro tali per cui la somma infinita non diverga.
Intuitivamente dovrebbe convergere ma qualcosa mi dice che la serie è comunque divergente.
oggi mentre lavoravo con la serie armonica generalizzata $\sum_{n=1}^infty 1/n$ mi sono chiesto se fosse possibile considerare un'estratta della successione $1/n$ per la quale la serie converge.
Insomma, prendere degli indici così distanti tra loro tali per cui la somma infinita non diverga.
Intuitivamente dovrebbe convergere ma qualcosa mi dice che la serie è comunque divergente.
Risposte
"Meringolo":
Salve gente,
oggi mentre lavoravo con la serie armonica generalizzata $\sum_{n=1}^infty 1/n$ mi sono chiesto se fosse possibile considerare un'estratta della successione $1/n$ per la quale la serie converge.
Certo che puoi: considera ad esempio i soli indici che siano quadrati perfetti.
Forse ho frainteso la domanda ma \(\sum \frac{1}{n^2}\) converge. Se invece prendi indici equidistanti allora la serie dovrebbe divergere. Non penso sia difficile da dimostrare.
"vict85":
Forse ho frainteso la domanda ma \(\sum \frac{1}{n^2}\) converge. Se invece prendi indici equidistanti allora la serie dovrebbe divergere. Non penso sia difficile da dimostrare.
Sì, scusami, in realtà avevo sbagliato a scrivere ( intendevo dire se la serie potesse convergere prendendo indici particolari ).
Quella che proponi tu è l'armonica generalizzata con esponente $>1$ quindi convergente, io intendevo invece senza modificare l'esponente (che rimarrebbe $1$).
"Rigel":
Certo che puoi: considera ad esempio i soli indici che siano quadrati perfetti.
Questa sarebbe equivalente a quella di sopra, cioè \(\sum \frac{1}{n^2}\). In questo caso gli indici diventano sempre più distanti, io mi chiedevo il caso in cui gli indici risultino equidistanti (come suggeriva vict)
Ciao
quello che penso voglia dire vict85 è che dipende da come prendi i termini ossia:
Esempi:
a) se consideri la serie formata dai termini $1/(5n)$ ossia $1/5+1/10+1/15+1/20 .......$ è una estratta dalla successione $1
/n$ ed è anch'essa una serie divergente
b) se consideri invece la serie formata dai termini $1/n^3$ ossia $1+1/8+1/27+1/64 .......$ è sempre una estratta dalla successione $1/n$ ma genera una serie convergente.
SSSSC
Bye
quello che penso voglia dire vict85 è che dipende da come prendi i termini ossia:
Esempi:
a) se consideri la serie formata dai termini $1/(5n)$ ossia $1/5+1/10+1/15+1/20 .......$ è una estratta dalla successione $1
/n$ ed è anch'essa una serie divergente
b) se consideri invece la serie formata dai termini $1/n^3$ ossia $1+1/8+1/27+1/64 .......$ è sempre una estratta dalla successione $1/n$ ma genera una serie convergente.
SSSSC
Bye
Certo, però in questo caso i termini vanno man mano distanziandosi sempre di più.
Io mi chiedevo: è possibile che, per quanto distanti (equidistanti) prenda gli indici, la somma faccia $\+infty$?
Posso sommare $ 1/10^(10^100) + 1/(2*10^(10^100)) + 1/(3*10^(10^100)) +...$ che, per quanto cresca lentamente, avrò che diverge.
Io mi chiedevo: è possibile che, per quanto distanti (equidistanti) prenda gli indici, la somma faccia $\+infty$?
Posso sommare $ 1/10^(10^100) + 1/(2*10^(10^100)) + 1/(3*10^(10^100)) +...$ che, per quanto cresca lentamente, avrò che diverge.
Risulta che
\(\displaystyle \sum \frac{1}{n_0 + nd} \ge \sum \frac{1}{(m + n)d} \ge \frac{1}{d} \sum_{n\ge m} \frac{1}{n} \) per un qualche \(\displaystyle m = \infty\).
\(\displaystyle \sum \frac{1}{n_0 + nd} \ge \sum \frac{1}{(m + n)d} \ge \frac{1}{d} \sum_{n\ge m} \frac{1}{n} \) per un qualche \(\displaystyle m = \infty\).
Certo sempre...
In quanto la serie con $1/(alpha n)$ è sempre divergente per quanto grande tu prenda $alpha$.
Ovviamente prendere $alpha = oo$ non avrebbe senso.
Bye
In quanto la serie con $1/(alpha n)$ è sempre divergente per quanto grande tu prenda $alpha$.
Ovviamente prendere $alpha = oo$ non avrebbe senso.
Bye
"Scotti":
SSSSC
Sì, è stato sufficientemente chiaro

Grazie anche a Vict e Rigel
