La condizione necessaria per la convergenza esclude l'indete
Ciao,
Vorrei capire come si vede che la verifica della condizione necessaria per la convergenza di una serie numerica (di termine generale $x_n$) ne esclude l'indeterminatezza.
$x_m=s_m-s_(m-1)$
$lim_(m to +infty)x_m=0 rightarrow lim_(m to +infty)s_m-s_(m-1)=0$.
A questo punto "spezzerei" la somma, ma dal libro sembra che si possa fare solo se le due successioni somma convergono (invece noi non sappiamo nulla).
So solo che devo dimostrare che la successione delle somme parziali ($s_m$) non può non esistere, se il termine generale della serie ($x_n$) tende a 0.
Vorrei capire come si vede che la verifica della condizione necessaria per la convergenza di una serie numerica (di termine generale $x_n$) ne esclude l'indeterminatezza.
$x_m=s_m-s_(m-1)$
$lim_(m to +infty)x_m=0 rightarrow lim_(m to +infty)s_m-s_(m-1)=0$.
A questo punto "spezzerei" la somma, ma dal libro sembra che si possa fare solo se le due successioni somma convergono (invece noi non sappiamo nulla).
So solo che devo dimostrare che la successione delle somme parziali ($s_m$) non può non esistere, se il termine generale della serie ($x_n$) tende a 0.
Risposte
Non ho mica capito cosa sia la domanda. Usi un sacco di simboli e di concetti senza definirli. Non si capisce niente.
$x_m$ è il termine generale della serie numerica, scritto come differenza tra le successioni delle somme parziali $s_m$ e $s_(m-1)$.
Vorrei dimostrare che la verifica della condizione di convergenza (termine generale che tende a 0) esclude l'indeterminatezza della serie
Vorrei dimostrare che la verifica della condizione di convergenza (termine generale che tende a 0) esclude l'indeterminatezza della serie
Non so cosa tu intenda per "indeterminatezza della serie". In ogni caso il fatto che $x_m\to 0$ implica solamente che $s_m-s_{m-1}\to 0$, che non è molto:
viewtopic.php?p=8345688#p8345688
viewtopic.php?p=8345688#p8345688
Per indeterminatezza della serie intendo che $lim_(m to +infty)s_m$ non esiste.
Appunto. È falso. Prendi una successione \(s_m\) con la proprietà che \(s_m-s_{m-1}\to 0\) ma \(s_m\) non ammette limite. (Tali successioni esistono, vedi il post linkato). Allora, detta \(x_m:=s_m-s_{m-1}\), si ha che
\[
s_m=\sum_{k=0}^m x_k, \]
e quindi essa verifica la condizione necessaria alla convergenza però \(s_m\) non ammette limite.
\[
s_m=\sum_{k=0}^m x_k, \]
e quindi essa verifica la condizione necessaria alla convergenza però \(s_m\) non ammette limite.
Il dubbio iniziale ora è chiarito, grazie. Però ho un' altra domanda riguardo questa scrittura:
Se definisci così $x_m$, per $m=0$ dovrebbe essere non definito, giusto? Perché $s_(-1)$ non esiste.
La sommatoria non dovrebbe partire da $k=1$?
"dissonance":
Allora, detta \( x_m:=s_m-s_{m-1} \), si ha che
\[ s_m=\sum_{k=0}^m x_k, \]
Se definisci così $x_m$, per $m=0$ dovrebbe essere non definito, giusto? Perché $s_(-1)$ non esiste.
La sommatoria non dovrebbe partire da $k=1$?
Si, ho supposto implicitamente che \(x_{-1}=0\), è una cosa che si fa spesso in questi casi, per semplificare la scrittura.
Non ho capito.
Provo a rispiegarmi:
Se la sommatoria parte da $k=0$, significa che $x_0$ è definito, ma $x_0=s_0-s_(-1)$ che non esiste perché $s_(-1)$ non esiste.
Quindi il problema è $s_(-1)$ e non $x_-1$
Provo a rispiegarmi:
Se la sommatoria parte da $k=0$, significa che $x_0$ è definito, ma $x_0=s_0-s_(-1)$ che non esiste perché $s_(-1)$ non esiste.
Quindi il problema è $s_(-1)$ e non $x_-1$
Pure $s_{-1}$ vale 0. Per convenzione, ogni termine "out of bounds" vale zero. Sono convenzioni che si usano, avrei dovuto specificarlo meglio, chiedo scusa.
Capito, grazie