Serie armonica generalizzata a più indici..hints?

Gaal Dornick
Tutti noi sappiamo che
$sum_(n=0)^(+oo) 1/n^alpha$
converge $<=> alpha>1$
e diverge per $alpha<=1$

Come esercizio difficile c'è stato proposto di generalizzare questo risultato per serie a più indici:
$sum_(i,j=0)^(+oo) 1/(i+j)^alpha$
otterremo (ad occhio) che converge per $alpha>2$
e diverge altrimenti.

La strada che penso vada seguita è la generalizzazione della dimostrazione del primo risultato: bisogna sfruttare il teorema di convergenza delle serie tramite integrali. Ma dovrei usare integrali doppi: integrali "generalizzati" doppi, e non so se esistono,in altre parole non li ho mai studiati, e non vorrei inventare autonomamente questa fetta di teoria..
C'è qualcuno che mi può fornire qualche spunto di riflessione, o qualche libro da guardare...
Immagino che questo risultato possa essere dimostrato con l'integrale di Riemann..o no?

Il fatto è che questo esame ha degli appunti alquanto vaporosi..incerti: sto già inventando le ipotesi dei teoremi, non voglio inventare la teoria d'integrazione secondo Dornick!

Risposte
Gaal Dornick
Sto provando a affrontarla senza sfruttare gli integrali: il problema però a questo punto diventa: come definisco la somma della serie: come limite di somme parziali definite come?

leev
$sum_(i,j=1)^(oo) 1/(i+j)^alpha=sum_(l=i+j=1)^(oo)1/l^alpha=sum_(l=1)^(oo)(l+1)1/l^alpha=sum_(l=1)^(oo)1/l^(alpha-1) + sum_(l=1)^(oo)1/l^(alpha)$
il quale converge se e solo se le due somme convergono, cioè se e solo se $alpha>2$.

($l+1$ é il numero di coppie la cui somma dà $l$)

Gaal Dornick
Bene! Questa l'avevo pensata anche io ieri notte (non so perchè ma spesso mi vengono idee mentre sto a letto.. penso un po' a tutti), solo che non ero sicuro di poterla usare dato che non ho una definizione chiara di serie a due indici, se si esclude una definizione tramite integrale in spazi di misura astratti..e quindi una definizone non versatile. In altre parole non ero sicuro della seconda tua uguaglianza. Che definizione usi tu?

gugo82
Gaal, il problema non è definire cosa si intenda per serie doppia, piuttosto è definire il concetto di convergenza per le serie doppie.

Il concetto di convergenza che si usa comunemente è questo.


Diremo che una serie doppia $\sum_(n,m) a_(n,m)$ converge ad $S$ se e solo se converge assolutamente ad $S$ una qualunque delle successioni delle somme parziali costruite a partire dalla serie doppia.

Si pone naturalmente il problema di definire come si possano costuire le somme parziali di una serie doppia: ebbene si possono costruire adottando un qualunque criterio che rispetti due semplici limitazioni:

1) ogni somma parziale d'indice $k$ deve contenere tutti gli addendi delle somme parziali d'indice inferiore ($
2) ogni addendo della serie doppia venga computato definitivamente una ed una sola volta nel calcolo di ogni somma parziale.

Un qualunque procedimento che rispetti le condizioni 1, 2) viene detto metodo di sommazione della serie doppia $\sum_(n,m) a_(n,m)$.

Esempi di metodi di sommazione:

Visto che gli addendi di una serie doppia sono indicizzati su due variabili naturali, viene naturale (:-D) disporre gli addendi in una matrice illimitata inferiormente ed a destra:

$\( (a_(0,0), a_(0,2), \ldots, a_(0,m), \ldots),(a_(1,0),a_(1,1), \ldots, a_(1,m),\ldots),(\vdots, \vdots,\ddots, \vdots, \ldots),(a_(n,0),a_(n,1),\ldots,a_(n,m),\ldots),(\vdots, \vdots,\ldots, \vdots, \ldots) :} quad$.

- Si chiama metodo di sommazione per diagonali il procedimento che costruisce le somme parziali della serie doppia sommando via via gli elementi delle diagonali secondarie della matrice infinita:

$s_0=a_(0,0),quad s_1=a_(0,0)+(a_(1,0)+a_(0,1)), quad s_2=a_(0,0)+(a_(1,0)+a_(0,1))+(a_(2,0)+a_(1,1)+a_(0,2)), quad \ldots ,quad s_k=\sum_(stackrel{n+mle k}{n,m in NN}) a_(n,m) quad$;

- Si chiama metodo di sommazione per quadrati il procedimento che costruisce le somme parziali sommando via via gli elementi dei minori principali della matrice infinita:

$s_0=a_(0,1),quad s_1=a_(0,0)+a_(0,1)+a_(1,0)+a_(1,1), quad s_2=a_(0,0)+a_(0,1)+a_(0,2)+a_(1,0)+a_(1,1)+a_(1,2)+a_(2,0)+a_(2,1)+a_(2,2), quad \ldots, quad s_k=\sum_(0len,mlek)a_(n,m) quad$;

- Si chiama metodo di sommazione per rettangoli il procedimento che costruisce le somme parziali sommando via via gli elementi della matrice infinita comuni alle prime $c_k$ colonne ed alle prime $r_k$ righe, $c_k,r_k$ essendo i termini generali di due successioni di numeri naturali strettamente crescenti:

$s_k=\sum_(stackrel{0le nle r_k}{0le mle c_k})a_(n,m)$

(noto che il metodo di sommazione per quadrati è un caso particolare del metodo di sommazione per rettangoli, in cui $AAk in NN, c_k=r_k=k$);

- Si chiama metodo di sommazione per righe quello che costruisce le somme parziali sommando prima gli elementi di ogni riga e poi addizionando via via le somme così ottenute:

$s_0=\sum_(m=0)^(+oo)a_(0,m), quad s_1=\sum_(m=0)^(+oo)a_(0,m)+\sum_(m=0)^(+oo)a_(1,m), quad s_2=\sum_(m=0)^(+oo)a_(0,m)+\sum_(m=0)^(+oo)a_(1,m)+\sum_(m=0)^(+oo)a_(2,m), quad \ldots ,quad s_k=\sum_(n=0)^k \sum_(m=0)^(+oo)a_(n,m)$;

- Si chiama metodo di sommazione per colonne quello che costruisce le somme parziali sommando prima gli elementi di ogni colonna e poi addizionando via via le somme così ottenute:

$s_0=\sum_(n=0)^(+oo)a_(n,0), quad s_1=\sum_(n=0)^(+oo)a_(n,0)+\sum_(n=0)^(+oo)a_(n,1), quad s_2=\sum_(n=0)^(+oo)a_(n,0)+\sum_(n=0)^(+oo)a_(n,1)+\sum_(n=0)^(+oo)a_(n,2), quad \ldots ,quad s_k=\sum_(m=0)^k \sum_(n=0)^(+oo)a_(n,m)$.

Ovviamente gli ultimi due metodi hanno significato, rispettivamente, solo se convergono tutte le serie del tipo $\sum_(m=0)^(+oo)a_(n,m)$ o $\sum_(n=0)^(+oo)a_(n,m)$.

elgiovo
Un piccolo approfondimento: se si prende in considerazione la somma per righe, come illustrato da Gugo,
le somme parziali sono via via le seguenti:

$s_0=sum_(k=1)^(+oo) a_(0,k)=sum_(k=1)^(+oo) 1/k^alpha=zeta(alpha)$
$s_1=s_0+sum_(k=0)^(+oo)a_(1,k)=s_0+sum_(k=0)^(+oo) 1/(1+k)^alpha=zeta(alpha)+zeta(alpha,1)$
$s_2=s_1+sum_(k=0)^(+oo)a_(2,k)=s_1+sum_(k=0)^(+oo)1/(2+k)^alpha=zeta(alpha)+zeta(alpha,1)+zeta(alpha,2)$
$ldots$
$s_i=s_(i-1)+sum_(k=0)^(+oo)a_(i,k)=s_(i-1)+sum_(k=0)^(+oo)1/(i+k)^alpha=zeta(alpha)+sum_(k=1)^(i) zeta(alpha,k)$

dove ho rimosso il termine $a_(0,0)$, che presenta qualche problema.
$zeta(s)=sum_(k=1)^(+oo)1/k^s$ è la funzione Zeta di Riemann, mentre $zeta(s,alpha)=sum_(k=1)^(+oo)1/(k+alpha)^s$ è una sua generalizzazione nota come funzione Zeta di Hurwitz.
In fin dei conti, dunque, se questo può risultare d'interesse, la somma si può scrivere come $zeta(alpha)+sum_(k=1)^(+oo) zeta(alpha,k)$.

Gaal Dornick
Quale metodo scelgo per definire la mia somma?
Ho pensato: essendo la mia serie a termini positivi, essa è convergente se e solo se è commutativamente convergente.
Quindi qualunque metodo scelga, se converge con questo converge per tutti, e la somma è sempre uguale.

Quindi nella fattispecie scelgo quello per diagonali e sfrutto la dimostrazione di leev.

Corretto?

Come sapete queste cose sulle serie? Ci sono approfondimenti da qualche parte che io possa consultare? Per quest'esame questo (se corretto) penso possa bastarmi, ma così per curiosità... Dopo il post di Elgiovo mi sembra un sacco di teoria si nasconda dietro..

gugo82
Vorrei proporre una definizione rigorosa di metodo di sommazione per una serie doppia, a voi dirmi se è giusta.


Si chiama metodo di sommazione per la serie doppia $\sum_(n,m) a_(n,m)$ una successione $(E_k)_(kin NN)$ di elementi di $\wp'(NN^2)=\wp(NN^2)-{\emptyset , NN^2}$ che goda delle seguenti proprietà:

1) $quad AA k in NN, E_ksubset E_(k+1) quad$ (crescenza stretta rispetto all'inclusione in $\wp(NN^2)$);

2) $quad \bigcup_(k in NN) E_k=NN^2$;

3) $AA k in NN, |\sum_((n,m) in E_k) a_(n,m)| <+oo$.

Assegnato un metodo di sommazione $(E_k)$ per la serie doppia $\sum_(n,m) a_(n,m)$, la successione di termine generale:

$s_k=\sum_((n,m) in E_k) a_(n,m)$

si chiama successione delle somme parziali della serie $\sum_(n,m) a_(n,m)$ rispetto al metodo di sommazione $(E_k)$.

La nozione di convergenza per una serie doppia viene naturale definirla come segue:


Diremo che la serie doppia $\sum_(n,m) a_(n,m)$ converge se e solo se esiste una metodo di sommazione $(E_k)$ tale che la successione della somme parziali di $\sum_(n,m) a_(n,m)$ rispetto al metodo $(E_k)$ sia assolutamente convergente; in tal caso il limite $S=lim_(k to +oo)s_k=lim_(kto +oo)\sum_((n,m) in E_k) a_(n,m)$ viene detto somma della serie $\sum_(n,m)a_(n,m)$ e viene denotato col simbolo $\sum_(n,m=0)^(+oo)a_(n,m)$.

Questa nozione di convergenza è buona poichè se la successione delle somme parziali $s_k$ è assolutamente convergente allora, comunque si fissi un altro metodo di sommazione $(F_k)$ per la serie doppia, risulta $lim_(kto +oo)\sum_((n,m) in F_k) a_(n,m)=lim_(k to +oo)s_k$ (qui entra in ballo la convergenza incondizionata* della serie numerica semplice avente $s_k$ come successione delle somme parziali).

Gaal, sinceramente, quel poco che so sulle serie doppie lo devo al mio interesse per le funzioni analitiche: non ho approfondito più di tanto le nozioni di base sulle funzioni di più variabili (anche perchè non mi serviva saperne molto sull'argomento per gli esami che ho sostenuto) e queste le ho trovate sul mio testo di Analisi Complessa (D. Greco, Complementi di Analisi, Liguori) e su un libretto che ho comprato per sfizio (H. Cartan, Elementary Theory of Analytic Functions of one or several complex variables, Dover Publications... ricordo che Cartan era uno dei Bourbaki della prima ora).

Invece, Elgiovo mi sa di esperto di funzioni analitiche nel campo complesso... :-D
I suoi consigli saranno per Gaal sicuramente più preziosi dei miei.


____________
* Per serie incondizionatamente convergente intendo una serie che goda della proprietà commutativa in grande.

elgiovo
Quello che so sulle serie doppie è quanto ha detto Gugo in precedenza; mi pare di aver letto qualcosa in E.C. Titchmarsh, "The theory of functions".
Le funzioni Zeta non sono legate in modo particolare alle serie doppie, diciamo che ci siamo inciampati sopra in questa occasione. :D
Più che altro con le Zeta si ha a che fare con altri concetti legati alle somme e ai prodotti infiniti, e ciò è dovuto alla rappresentazione di queste funzioni come somme e prodotti.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.