Discutere la convergenza della serie al variare di $x \in \mathbb{R}$
Ciao a tutti
La serie in questione è la seguente
$\sum_{n=1}^{+\infty} \frac{x^n}{\sqrt{n}}$
e, come da titolo, viene richiesto di studiare per quali $x \in \mathbb{R}$ converge.
L'esercizio è preso dalle note del mio ex professore di Analisi 1 e viene proposta la seguente soluzione, della quale non mi è chiara una conclusione che viene data alla fine.
Dato che il segno è variabile a causa della potenza al numeratore come prima cosa studio l'assoluta convergenza.
$\sum_{n=1}^{+\infty}|\frac{x^n}{sqrt{n}}|=\sum_{n=1}^{+\infty}\frac{|x^n|}{sqrt{n}}=\sum_{n=1}^{+\infty}\frac{|x|^n}{sqrt{n}}$
e, sfruttando il criterio della radice si ha:
$root(n)(\frac{|x|^n}{sqrt{n}})=\frac{|x|}{n^{\frac{1}{2n}}}=|x|(\frac{1}{e^{\frac{\ln(n)}{2n}}})$
Essendo che $\frac{1}{e^{\frac{\ln(n)}{2n}}} \to_{n \to +\infty} 1$ si ottiene che $root(n)(\frac{|x|^n}{sqrt{n}}) \to_{n \to +\infty}|x|$
Quindi, grazie al criterio della radice, se $|x|<1$ la serie converge assolutamente (e dunque converge), mentre se $|x|>1$, la serie $root(n)(\frac{|x|^n}{sqrt{n}})$ diverge assolutamente.
Da ciò segue che $\sum_{n=1}^{+\infty} \frac{x^n}{\sqrt{n}}$:

La serie in questione è la seguente
$\sum_{n=1}^{+\infty} \frac{x^n}{\sqrt{n}}$
e, come da titolo, viene richiesto di studiare per quali $x \in \mathbb{R}$ converge.
L'esercizio è preso dalle note del mio ex professore di Analisi 1 e viene proposta la seguente soluzione, della quale non mi è chiara una conclusione che viene data alla fine.
Dato che il segno è variabile a causa della potenza al numeratore come prima cosa studio l'assoluta convergenza.
$\sum_{n=1}^{+\infty}|\frac{x^n}{sqrt{n}}|=\sum_{n=1}^{+\infty}\frac{|x^n|}{sqrt{n}}=\sum_{n=1}^{+\infty}\frac{|x|^n}{sqrt{n}}$
e, sfruttando il criterio della radice si ha:
$root(n)(\frac{|x|^n}{sqrt{n}})=\frac{|x|}{n^{\frac{1}{2n}}}=|x|(\frac{1}{e^{\frac{\ln(n)}{2n}}})$
Essendo che $\frac{1}{e^{\frac{\ln(n)}{2n}}} \to_{n \to +\infty} 1$ si ottiene che $root(n)(\frac{|x|^n}{sqrt{n}}) \to_{n \to +\infty}|x|$
Quindi, grazie al criterio della radice, se $|x|<1$ la serie converge assolutamente (e dunque converge), mentre se $|x|>1$, la serie $root(n)(\frac{|x|^n}{sqrt{n}})$ diverge assolutamente.
Da ciò segue che $\sum_{n=1}^{+\infty} \frac{x^n}{\sqrt{n}}$:
[*:2izh7foo]se $x>1$ diverge positivamente (essendo che per $x>1$ convergenza semplice $-=$ convergenza assoluta)[/*:m:2izh7foo]
[*:2izh7foo]se $x=1$ si ha che la serie $\sum_{n=1}^{+\infty} \frac{1}{\sqrt{n}}$ diverge positivamente[/*:m:2izh7foo]
[*:2izh7foo]se $x=-1$, grazie al criterio di Leibniz si ha che $\sum_{n=1}^{+\infty} \frac{(-1)^n}{\sqrt{n}}$ converge.[/*:m:2izh7foo]
[*:2izh7foo]se $x<-1$ non converge (oscilla)[/*:m:2izh7foo][/list:u:2izh7foo]
Non mi è chiaro proprio quest'ultimo punto. Perché si può affermare che, se $x<-1$, la serie non converge (oscilla)?
Io ho provato a verificare il comportamento della serie fissando, per esempio, $x=-2$ ed ho notato che viene a mancare la condizione necessaria di convergenza e che non ci sono le ipotesi per utilizzare il criterio di Leibniz. È sufficiente ciò per concludere che la serie è indeterminata o mi sta sfuggendo qualcosa?
Risposte
Sì, il motivo è quello. Per ogni $x<-1$ non esiste $\lim_{n \to +\infty} \frac{x^n}{\sqrt{n}}$; quando non esiste il limite del termine generale della successione sotto il segno di serie, la serie si dice indeterminata (o anche oscillante). Non c'entra Leibniz nello specifico.
Ciao @Mephlip, grazie della risposta
Ho citato Leibniz per escludere ciò che accade, per esempio, nel caso $x=-1$
Anche in quel caso infatti si ha che il limite del termine generale della successione non esiste, ma il termine generale soddisfa le condizioni per poter utilizzare il criterio, dunque converge.
Non mi è chiaro però perché, se non si verifica la condizione necessaria per la convergenza, posso concludere che la serie è indeterminata/oscillante. Se la condizione necessaria non si verifica si ha che la serie potrebbe oscillare e quindi essere indeterminata oppure divergere. Perché quindi posso escludere che sia divergente?

Ho citato Leibniz per escludere ciò che accade, per esempio, nel caso $x=-1$
"alfred douglas":[*:1ha50f3j]se $ x=-1 $, grazie al criterio di Leibniz si ha che $ \sum_{n=1}^{+\infty} \frac{(-1)^n}{\sqrt{n}} $ converge.[/*:m:1ha50f3j][/list:u:1ha50f3j]
Anche in quel caso infatti si ha che il limite del termine generale della successione non esiste, ma il termine generale soddisfa le condizioni per poter utilizzare il criterio, dunque converge.
"Mephlip":
quando non esiste il limite del termine generale della successione sotto il segno di serie, la serie si dice indeterminata (o anche oscillante)
Non mi è chiaro però perché, se non si verifica la condizione necessaria per la convergenza, posso concludere che la serie è indeterminata/oscillante. Se la condizione necessaria non si verifica si ha che la serie potrebbe oscillare e quindi essere indeterminata oppure divergere. Perché quindi posso escludere che sia divergente?
Prego!
No, ti sbagli: in quel caso il limite esiste ed è $0$. Se non vale la condizione necessaria una serie non converge, neanche se soddisfa tutte le altre ipotesi del criterio di Leibniz. Prova a costruire un esempio.
Non è così, infatti. Occhio alla logica: se il limite del termine generale della successione sotto il segno di serie non esiste, siamo in un caso particolare di quando non si verifica la condizione necessaria di convergenza; ma, se avessi detto che non si verifica la condizione necessaria di convergenza, allora ci sarebbe stata ambiguità se quell'espressione significasse o limite esiste non nullo o limite non esistente. Avendo io espressamente detto che non esiste, si è escluso il caso in cui il limite esiste non nullo. Il punto è che una serie a termini di segno costante può solo o convergere a un numero reale o a $+\infty$ o a $-\infty$ (perché?), quindi in quel caso il fatto che non si verifichi la condizione necessaria di convergenza coincide con la divergenza. Ma una serie a termini di segno alterno non ha questa garanzia. Perciò, come ho detto nella prima risposta, per definizione si dice indeterminata/oscillante una serie tale che non esiste il limite della successione sotto il segno di serie.
"alfred douglas":
Ho citato Leibniz per escludere ciò che accade, per esempio, nel caso $x=-1$.
Anche in quel caso infatti si ha che il limite del termine generale della successione non esiste, ma il termine generale soddisfa le condizioni per poter utilizzare il criterio, dunque converge.
No, ti sbagli: in quel caso il limite esiste ed è $0$. Se non vale la condizione necessaria una serie non converge, neanche se soddisfa tutte le altre ipotesi del criterio di Leibniz. Prova a costruire un esempio.
"alfred douglas":
Non mi è chiaro però perché, se non si verifica la condizione necessaria per la convergenza, posso concludere che la serie è indeterminata/oscillante. Se la condizione necessaria non si verifica si ha che la serie potrebbe oscillare e quindi essere indeterminata oppure divergere. Perché quindi posso escludere che sia divergente?
Non è così, infatti. Occhio alla logica: se il limite del termine generale della successione sotto il segno di serie non esiste, siamo in un caso particolare di quando non si verifica la condizione necessaria di convergenza; ma, se avessi detto che non si verifica la condizione necessaria di convergenza, allora ci sarebbe stata ambiguità se quell'espressione significasse o limite esiste non nullo o limite non esistente. Avendo io espressamente detto che non esiste, si è escluso il caso in cui il limite esiste non nullo. Il punto è che una serie a termini di segno costante può solo o convergere a un numero reale o a $+\infty$ o a $-\infty$ (perché?), quindi in quel caso il fatto che non si verifichi la condizione necessaria di convergenza coincide con la divergenza. Ma una serie a termini di segno alterno non ha questa garanzia. Perciò, come ho detto nella prima risposta, per definizione si dice indeterminata/oscillante una serie tale che non esiste il limite della successione sotto il segno di serie.
"Mephlip":
No, ti sbagli: in quel caso il limite esiste ed è $ 0 $.
Ops

"Mephlip":
per definizione si dice indeterminata/oscillante una serie tale che non esiste il limite della successione sotto il segno di serie.
Per dire che la serie è indeterminata/oscillante non dovrebbe essere il limite della successione delle somme parziali a non esistere, piuttosto che il limite del termine generale della successione sotto il segno di serie?
Da ciò che dici tu quindi segue che, data $\sum_{n=1}^{+\infty} a_n$ (a segno non costante):
Se $lim_{n \to +\infty} a_n = {(0, text{allora la serie potrebbe convergere}), (l \ne 0, text{allora la serie non converge (i.e. è divergente o indeterminata)}), (not EE, text{allora la serie è sicuramente indeterminata/oscillante}):}$.
È corretto ciò?
Perdonami se ti continuo a fare domande, ma sono ancora piuttosto confuso...
Scusami se ti rispondo solo ora. Diciamo che, anche se dal punto di vista logico è corretto distinguere così i casi, se $\lim_{n\to+\infty} a_n=l \ne 0$ puoi stabilire cosa succede a $\sum_{n=0}^\infty a_n$ tra le due possibilità. Prova a ragionarci un po'.
Nel caso di una serie a termini positivi, ad esempio, potrebbe essere che se $\lim_{n \to +\infty} a_n=l \ne 0$ allora la successione delle somme parziali, per $n \to +\infty$, continua a crescere per cui la serie diverge a $+\infty$.
Se però la serie è a segno alterno mi viene da pensare che la serie oscilla, perché l'idea è che al crescere di $n$ aggiungo e tolgo "ripetutamente" una quantità che tende a $l$ ($\ne 0$).
Se però la serie è a segno alterno mi viene da pensare che la serie oscilla, perché l'idea è che al crescere di $n$ aggiungo e tolgo "ripetutamente" una quantità che tende a $l$ ($\ne 0$).
Per le serie a termini di segno positivo sì: come hai notato, la successione delle somme parziali è monotòna crescente e quindi esiste il suo limite e, non essendo valida la condizione necessaria di convergenza, tale limite è necessariamente $+\infty$.
Per termini alterni, no: puoi comunque dedurre la divergenza, a $+\infty$ o a $-\infty$ a seconda del segno di $l$. Infatti, se ad esempio è $l>0$ allora per definizione di limite esiste $N\in\mathbb{N}$ tale che per ogni $n\in\mathbb{N}$, $[n>N] \implies [a_n>l/2]$. Quindi:
$$\sum_{n=0}^\infty a_n=\sum_{n=0}^N a_n+\sum_{n=N+1}^\infty a_n>\sum_{n=0}^N a_n+\sum_{n=N+1}^\infty \frac{l}{2}=+\infty$$
In quanto, essendo $l/2>0$, si ha $\sum_{n=N+1}^\infty \frac{l}{2}=+\infty$ e l'altra è una somma finita. Perciò, grazie al teorema del confronto, deduci la divergenza a $+\infty$. Puoi ragionare similmente se $l<0$.
Per termini alterni, no: puoi comunque dedurre la divergenza, a $+\infty$ o a $-\infty$ a seconda del segno di $l$. Infatti, se ad esempio è $l>0$ allora per definizione di limite esiste $N\in\mathbb{N}$ tale che per ogni $n\in\mathbb{N}$, $[n>N] \implies [a_n>l/2]$. Quindi:
$$\sum_{n=0}^\infty a_n=\sum_{n=0}^N a_n+\sum_{n=N+1}^\infty a_n>\sum_{n=0}^N a_n+\sum_{n=N+1}^\infty \frac{l}{2}=+\infty$$
In quanto, essendo $l/2>0$, si ha $\sum_{n=N+1}^\infty \frac{l}{2}=+\infty$ e l'altra è una somma finita. Perciò, grazie al teorema del confronto, deduci la divergenza a $+\infty$. Puoi ragionare similmente se $l<0$.