Integrali impropri - Teorema di convergenza assoluta
Ciao a tutti! Non riesco a capire perché se dato l'integrale $ int_(1)^(+oo) sinx/x dx $ non si può risolvere col criterio di convergenza assoluta in questo modo:
$ int_(1)^(+oo) sinx/x dx = int_(1)^(+oo) |sinx/x| dx <= int_(1)^(+oo) 1/x dx$ , il quale diverge a $ +oo $ .
In classe lo abbiamo risolto per parti però ad occhio (inesperto) poteva benissimo essere risolto col criterio di convergenza assoluta. Non capisco quando si può ricorrere a questo metodo. Posso avere delle delucidazioni in merito?
Il motivo è perché essendo $int_(1)^(+oo) |sinx/x| dx <= int_(1)^(+oo) 1/x dx$ allora esso non ha significato per il teorema? Se il secondo integrale fosse stato minore del primo allora il teorema sarebbe stato applicabile?
Grazie in anticipo!
$ int_(1)^(+oo) sinx/x dx = int_(1)^(+oo) |sinx/x| dx <= int_(1)^(+oo) 1/x dx$ , il quale diverge a $ +oo $ .
In classe lo abbiamo risolto per parti però ad occhio (inesperto) poteva benissimo essere risolto col criterio di convergenza assoluta. Non capisco quando si può ricorrere a questo metodo. Posso avere delle delucidazioni in merito?
Il motivo è perché essendo $int_(1)^(+oo) |sinx/x| dx <= int_(1)^(+oo) 1/x dx$ allora esso non ha significato per il teorema? Se il secondo integrale fosse stato minore del primo allora il teorema sarebbe stato applicabile?
Grazie in anticipo!

Risposte
Chiarissimo! Grazie mille!