Dimostrazione dell'unicità del limite di successione

darkangel65
in una dimostrazione dell'unicità del limite di successione
ovviamente si suppone che il limite di una successione non sia unico,bensì che limiti siano due: l1=a ed l2=a'.
si applica la definizione di limite due volte,per l1 ed l2
e poi viene posto che ${\epsilon = \frac{\|a-a'\|}{2}>0}$
non riesco a capire secondo quale criterio sceglie $\epsilon$ ..non capisco come ci arriva! potreste aiutarmi?

Risposte
Seneca1
Se consideri una successione $x_n : NN -> RR$ e fissi due punti $a, a'$ sull'asse delle $y$, prendere $epsilon = | a - a' |/2$ è comodo perché così gli intorni dei due punti $a', a$ che fissi arbitrariamente nelle definizioni di limite sono disgiunti. Li puoi fissare arbitrariamente...

darkangel65
si,secondo la definizione $\forall \epsilon >0$ vale questa proprietà,ma si considera quella $\epsilon$ affinchè non si prenda una $\epsilon$ che stia solo in uno dei due intorni?

Seneca1
"darkangel65":
si,secondo la definizione $\forall \epsilon >0$ vale questa proprietà,ma si considera quella $\epsilon$ affinchè non si prenda una $\epsilon$ che stia solo in uno dei due intorni?


Non si capisce cosa vuoi dire... $epsilon$ è l'ampiezza dell'intorno fissato. Se in entrambe le definizioni di limite che hai scritto ( per $a$ e per $a'$ ) fissi QUELL' $epsilon$ , hai che in corrispondenza trovi (cioè esistono) due ben precisi $bar n , bar n '$. Per $n > bar n$ i punti della successione devono cadere tra $a - epsilon$ e $a + epsilon$. Per $n > bar n '$ i punti della successione devono cadere tra $a' - epsilon$ e $a' + epsilon$. Quindi per $n* = max { bar n , bar n '}$ i punti della successione devono cadere sia in $( a - epsilon , a + epsilon )$ che in $(a' - epsilon , a' + epsilon)$ che è assurdo. Avendo preso infatti quell'$epsilon$, si ha che

$( a - epsilon , a + epsilon ) nn (a' - epsilon , a' + epsilon)$ è vuoto.

darkangel65
ok,ok va bene. faccio un po' di confusione :p devo schiarire un po' le idee :/

darkangel65
ok facendo il grafico,mi è più chiaro. se io ho un intorno d'ampiezza $\epsilon$ in a e un altro intorno della stessa ampiezza,ma puntato in a' e pongo $\epsilon =\frac{ \|a-a'\|}{2}$ faccio in modo che sia impossibile che i punti della mia successione da un certo punto in poi cadano in entrambi i miei intorni,giusto?

Seneca1
Perfetto. Questo perché $epsilon$ lo puoi scegliere arbitrariamente.

darkangel65
grazie mille,mi sei davvero stato d'aiuto! e cmq ottima scelta per il nick! adoro seneca! :) grazie ancora!

Seneca1
Figurati; aggiungo una piccola curiosità. Nell'ambiente in cui stai studiando tu la teoria del limite, è vero che il limite è unico. Se lavori con spazi topologici che non sono di Hausdorff, invece, il limite perde questo "privilegio" proprio perché non è detto che tu possa scegliere due aperti disgiunti tali che uno contenga $a$ e l'altro contenga $a'$.

Inoltre ti segnalo questo: http://www.batmath.it/stampa/manuali/unic_limite.pdf

darkangel65
interessante! la matematica è una continua scoperta! :)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.